
Un experimento evidenció que los sistemas de inteligencia artificial generativa como ChatGPT y Gemini pueden ser inducidos a reproducir información falsa cuando esta se publica en internet con apariencia creíble.
La prueba mostró que contenidos inventados, redactados como si fueran reales y difundidos en un blog, terminaron siendo utilizados como referencia por herramientas de IA, lo que reabre el debate sobre la verificación de fuentes en los modelos automatizados de búsqueda y respuesta.
El ensayo fue realizado por el periodista tecnológico Thomas Germain, colaborador de BBC, quien creó un artículo con datos completamente ficticios y lo publicó en su sitio personal. El texto afirmaba, entre otras cosas, la existencia de un supuesto campeonato internacional relacionado con periodistas y comida, además de atribuir logros inexistentes al propio autor y a otros nombres reales y fabricados.

Según relató el periodista, el objetivo era comprobar qué ocurría cuando los sistemas de IA no encontraban información previa sobre un tema y debían recurrir a búsquedas en la web para completar sus respuestas. En menos de 24 horas, varias plataformas comenzaron a citar el contenido inventado como si se tratara de una fuente legítima, integrándolo en respuestas ofrecidas a los usuarios sin advertir que provenía de un único sitio no verificado.
El resultado puso a prueba los mecanismos de entrenamiento y recuperación de datos utilizados por empresas como OpenAI y Google, cuyos sistemas combinan modelos de lenguaje entrenados con grandes volúmenes de información y consultas dinámicas a internet.
Cuando la IA no dispone de suficientes antecedentes en su entrenamiento, puede apoyarse en contenido disponible en línea, lo que abre la puerta a que datos inexactos o manipulados se integren en las respuestas automatizadas.

Este fenómeno se relaciona con lo que especialistas denominan “contaminación de fuentes abiertas”: la capacidad de introducir información engañosa en el ecosistema digital con la expectativa de que sea recogida por algoritmos que priorizan relevancia textual o aparente autoridad antes que la verificación contextual.
En el experimento, el blog fue redactado con lenguaje convincente, estructura periodística y referencias plausibles. Esa combinación bastó para que los sistemas lo interpretaran como material informativo válido. El periodista aseguró que no necesitó técnicas avanzadas de manipulación ni vulnerar sistemas de seguridad, sino únicamente publicar contenido optimizado para ser indexado.
Tras conocerse el caso, voceros de Google señalaron que sus sistemas de clasificación buscan mantener los resultados “mayoritariamente libres de spam” mediante señales de calidad y confiabilidad, aunque reconocieron que los modelos aún pueden cometer errores. Desde OpenAI indicaron que desarrollan mecanismos para detectar intentos de influencia indebida y reforzar la evaluación de fuentes, pero admitieron que la tecnología no es infalible.
El experimento también incluyó pruebas con otras plataformas. Algunas mostraron mayor cautela al responder o advirtieron la falta de evidencia independiente, entre ellas desarrollos de Anthropic, que en ciertos casos identificaron el carácter dudoso de la información.
El episodio vuelve a poner el foco en un desafío central para la inteligencia artificial generativa: su dependencia de los datos disponibles en la red. A diferencia de los motores de búsqueda tradicionales, que muestran enlaces para que el usuario evalúe las fuentes, los sistemas conversacionales sintetizan la información en una única respuesta, lo que puede dar una falsa sensación de certeza.
Expertos en desinformación advierten que esta dinámica podría ser utilizada con fines más sensibles que un simple experimento, como influir en debates públicos, difundir contenidos engañosos sobre salud o manipular información financiera. La facilidad con la que se puede generar texto convincente y posicionarlo en la web reduce las barreras de entrada para este tipo de prácticas.

Por ello, analistas recomiendan que los usuarios adopten una actitud crítica frente a las respuestas generadas por IA, revisen las fuentes originales cuando estén disponibles y contrasten la información con múltiples referencias independientes.
Últimas Noticias
Tim Cook confirma lanzamientos de Apple: la cita es en marzo con estos productos nuevos
Apple podría lanzar el iPhone 17e, equipado con el nuevo chip A19, que habilitaría el acceso a distintas funciones de Apple Intelligence
Cada cuánto debes apagar el celular y por cuánto tiempo para evitar problemas
Este consejo respaldado por autoridades y expertos reduce el riesgo de ser víctima de ciberataques y mejora el rendimiento de cada función del teléfono

Adiós a la TV: más del 50% de los hinchas en Latinoamérica ya prefiere ver fútbol en YouTube
Un estudio de Google indica que el 56% de los fans en Brasil y el 59% en México prefieren ver análisis deportivos de creadores en línea, antes que en televisión

Paso a paso para ver películas y series de Netflix sin conexión a internet
Antes de salir a un lugar con poca cobertura o señal, se puede realizar este proceso desde la aplicación y es preferible que el celular o dispositivo esté conectado a una red WiFi
Intentó hacer una broma a un agente IA de una empresa de criptomonedas y terminó recibiendo una fortuna
La transferencia accidental, realizada por un agente diseñado para operar con criptomonedas, evidencia que la automatización financiera aún enfrenta fallas críticas



