
La política, la guerra y hasta el delito organizado ya utilizan imágenes y videos sintéticos como parte de una nueva arquitectura de influencia. El problema ya no es solo que la mentira se vea real. El problema es que ahora puede producirse a escala, adaptarse a públicos específicos, amplificarse en cadena y circular con apariencia de consenso. Frente a eso, la discusión ya no puede limitarse a la vieja oposición entre verdad y falsedad. Lo que está en juego es algo más profundo: está en juego la estabilidad de las condiciones sociales que hacían posible reconocer un hecho como verdadero.
Durante años, la virtualidad pareció ser el territorio natural del futuro. La pandemia consolidó esa convicción. Las reuniones, las clases, los trámites, los vínculos y hasta los rituales sociales migraron a la pantalla con una velocidad que nadie había previsto. En ese contexto, lo presencial empezó a percibirse como una limitación, casi como un atraso.
Detrás de cada imagen, de cada voz y de cada registro digital, seguía operando una presunción básica. Una fotografía acreditaba un hecho. Un video probaba una escena. Una grabación confirmaba una voz. El contenido digital todavía funcionaba como extensión de la realidad.
Pero la irrupción de los modelos de inteligencia artificial a partir de 2022 comenzó a invertir esa jerarquía. Hoy, con sistemas multimodales cada vez más accesibles y más convincentes, la virtualidad ya no garantiza correspondencia con lo real. El Informe Internacional sobre la Seguridad de la IA 2026, publicado en febrero por el Gobierno del Reino Unido, advierte que al menos 700 millones de personas usan semanalmente los principales sistemas de IA y que el contenido generado por estas herramientas es cada vez más difícil de distinguir del material auténtico.
La agencia Associated Press advirtió que, desde el inicio de la guerra con Irán, investigadores detectaron una cantidad sin precedentes de imágenes y videos falsos generados con inteligencia artificial, entre ellos bombardeos que nunca ocurrieron y piezas propagandísticas diseñadas para circular como si fueran coberturas legítimas. El dato más inquietante no fue solo la calidad del material, sino su escala.
Pero el verdadero salto no está solo en la imagen falsa. Está en la capacidad de estas tecnologías para intervenir sobre la creencia colectiva, y el problema se agrava con la entrada de los agentes de inteligencia artificial en la cadena del daño. El riesgo deja de ser individual cuando el contenido manipulado ya no engaña solamente a una persona, sino que empieza a erosionar la confianza pública en los sistemas de información.
Los agentes de IA ya no operan como herramientas aisladas, sino como piezas de un proceso que puede coordinarse de manera autónoma. Uno puede producir la imagen, otro convertirla en video, otro adaptarla a distintos públicos, otro medir qué versión genera más indignación y otro redistribuirla con apariencia de consenso espontáneo. La mentira deja de ser un acto para convertirse en un sistema de producción, ajuste y amplificación. Y cuando una sociedad empieza a tomar por verdadero lo que nunca ocurrió, lo que se resquebraja no es solo la prueba de un hecho, sino la posibilidad misma de sostener una realidad compartida.
La proliferación de contenido elaborado con IA, ya sea imagen, audio, texto o video, representa un riesgo creciente por su altísimo nivel de realismo y por la facilidad con que puede producirse. Puede acelerar actividades delictivas, multiplicar la pornografía ultrafalsa, degradar el ecosistema informativo y erosionar la confianza pública. Frente a ello, las herramientas de detección muestran una eficacia irregular y limitada. Las marcas de agua pueden eliminarse o alterarse con relativa facilidad, y los detectores apenas logran seguir el ritmo de mejora del contenido sintético. Además, ciertos materiales, como las imágenes de abuso infantil, siguen siendo profundamente dañinos aun cuando se identifiquen correctamente como generados por IA. La detección, por sí sola, no resuelve el problema.
El Informe Internacional sobre la Seguridad de la IA muestra que, en lo que va de 2026, las personas han confundido texto generado por IA con texto escrito por humanos en el 77% de los casos. Otro estudio señala que los oyentes no han podido distinguir voces clonadas de voces reales en el 80%. El documento subraya además una preocupación especialmente grave por la expansión de imágenes íntimas no consentidas, que afectan de manera desproporcionada a mujeres y niñas. Se estima que el 96 % de los videos ultrafalsos en línea son pornográficos.
Estamos, en definitiva, frente a una capacidad de simulación que ya no solo produce daño reputacional, distorsión informativa y degradación del espacio público, sino que también empieza a intervenir sobre las creencias, a moldear percepciones y a alterar el modo en que una sociedad distingue entre lo ocurrido, lo narrado y lo fabricado.
Frente al crecimiento acelerado de las capacidades de la IA, los reguladores quedan atrapados entre dos riesgos: actuar demasiado pronto y aplicar intervenciones ineficaces o incluso perjudiciales, o esperar a contar con pruebas concluyentes y dejar a la sociedad expuesta a repercusiones potencialmente graves. Eso es lo que los investigadores llaman el dilema de la evidencia, y hoy constituye una de las mayores encrucijadas para los gobiernos frente a la inteligencia artificial.
La tecnología no resolverá por sí sola estos problemas. No habrá un parche mágico ni una actualización en nuestros teléfonos capaz de instalar resiliencia social, criterio crítico o sentido ético. El desafío que enfrentamos no es meramente técnico, sino profundamente institucional y humano. La inteligencia artificial seguirá acelerándose sin pedirnos permiso, y la verdadera prueba de fuego será comprobar si nuestras instituciones y nuestra propia capacidad de discernimiento frente a una pantalla pueden fortalecerse y adaptarse con una velocidad comparable a la de los algoritmos.
Últimas Noticias
Subjetividad y política: el punto ciego de la decisión
Un vínculo estructural que explica cómo el deseo, los sesgos, la historia personal y la influencia del entorno configuran las decisiones políticas más allá de lo que creemos controlar

La estafa Truman Show: cómo la inteligencia artificial construye un mundo falso para robarte
Una invitación a invertir y un grupo de WhatsApp integrado por sistemas de IA multiagente para convencer a la víctima de aportar cada vez más dinero

Streaming argentino: el hábito dominante

Empresas rentables que entran en crisis: el problema no siempre es el negocio, sino la deuda
El contexto económico actual ha provocado que muchas organizaciones presenten problemas derivados de deudas diseñadas para escenarios distintos, lo que lleva a pérdidas operativas pese a que las actividades principales se mantienen con resultados positivos

El costo de no hacer: por qué la inacción en Inteligencia Artificial está hipotecando el futuro corporativo
Un gran número de organizaciones posterga decisiones sobre tecnología debido a interpretaciones erróneas de informes, lo que genera costos ocultos y pérdida de competitividad en un entorno empresarial cada vez más digitalizado



