Logran engañar a Gemini y ChatGPT con un simple blog: así se manipulan las respuestas automáticas en buscadores

Un experimento demostró que publicar información inventada en un blog puede influir en las respuestas generadas por sistemas de IA

Guardar
Gemini y ChatGPT fueron manipulados
Gemini y ChatGPT fueron manipulados por un blog que se encuentra en internet.

Un experimento evidenció que los sistemas de inteligencia artificial generativa como ChatGPT y Gemini pueden ser inducidos a reproducir información falsa cuando esta se publica en internet con apariencia creíble.

La prueba mostró que contenidos inventados, redactados como si fueran reales y difundidos en un blog, terminaron siendo utilizados como referencia por herramientas de IA, lo que reabre el debate sobre la verificación de fuentes en los modelos automatizados de búsqueda y respuesta.

El ensayo fue realizado por el periodista tecnológico Thomas Germain, colaborador de BBC, quien creó un artículo con datos completamente ficticios y lo publicó en su sitio personal. El texto afirmaba, entre otras cosas, la existencia de un supuesto campeonato internacional relacionado con periodistas y comida, además de atribuir logros inexistentes al propio autor y a otros nombres reales y fabricados.

Un periodista logró manipular a
Un periodista logró manipular a la IA al publicar información inventada en su blog personal. (Imagen Ilustrativa Infobae)

Según relató el periodista, el objetivo era comprobar qué ocurría cuando los sistemas de IA no encontraban información previa sobre un tema y debían recurrir a búsquedas en la web para completar sus respuestas. En menos de 24 horas, varias plataformas comenzaron a citar el contenido inventado como si se tratara de una fuente legítima, integrándolo en respuestas ofrecidas a los usuarios sin advertir que provenía de un único sitio no verificado.

El resultado puso a prueba los mecanismos de entrenamiento y recuperación de datos utilizados por empresas como OpenAI y Google, cuyos sistemas combinan modelos de lenguaje entrenados con grandes volúmenes de información y consultas dinámicas a internet.

Cuando la IA no dispone de suficientes antecedentes en su entrenamiento, puede apoyarse en contenido disponible en línea, lo que abre la puerta a que datos inexactos o manipulados se integren en las respuestas automatizadas.

Gemini de Google y ChatGPT
Gemini de Google y ChatGPT de OpenAI, ambas inteligencias artificiales, mostraron falencias al momento de recoletar datos de internet. (Composición)

Este fenómeno se relaciona con lo que especialistas denominan “contaminación de fuentes abiertas”: la capacidad de introducir información engañosa en el ecosistema digital con la expectativa de que sea recogida por algoritmos que priorizan relevancia textual o aparente autoridad antes que la verificación contextual.

En el experimento, el blog fue redactado con lenguaje convincente, estructura periodística y referencias plausibles. Esa combinación bastó para que los sistemas lo interpretaran como material informativo válido. El periodista aseguró que no necesitó técnicas avanzadas de manipulación ni vulnerar sistemas de seguridad, sino únicamente publicar contenido optimizado para ser indexado.

Tras conocerse el caso, voceros de Google señalaron que sus sistemas de clasificación buscan mantener los resultados “mayoritariamente libres de spam” mediante señales de calidad y confiabilidad, aunque reconocieron que los modelos aún pueden cometer errores. Desde OpenAI indicaron que desarrollan mecanismos para detectar intentos de influencia indebida y reforzar la evaluación de fuentes, pero admitieron que la tecnología no es infalible.

OpenAI aseguró que cuenta con
OpenAI aseguró que cuenta con un sistema para evitar que su IA sea engañada, aunque admitió que presenta algunas fallas. REUTERS/Dado Ruvic/Illustration//File Photo/File Photo

El experimento también incluyó pruebas con otras plataformas. Algunas mostraron mayor cautela al responder o advirtieron la falta de evidencia independiente, entre ellas desarrollos de Anthropic, que en ciertos casos identificaron el carácter dudoso de la información.

El episodio vuelve a poner el foco en un desafío central para la inteligencia artificial generativa: su dependencia de los datos disponibles en la red. A diferencia de los motores de búsqueda tradicionales, que muestran enlaces para que el usuario evalúe las fuentes, los sistemas conversacionales sintetizan la información en una única respuesta, lo que puede dar una falsa sensación de certeza.

Expertos en desinformación advierten que esta dinámica podría ser utilizada con fines más sensibles que un simple experimento, como influir en debates públicos, difundir contenidos engañosos sobre salud o manipular información financiera. La facilidad con la que se puede generar texto convincente y posicionarlo en la web reduce las barreras de entrada para este tipo de prácticas.

Gemini también presenta fallas cuando
Gemini también presenta fallas cuando recolecta información nueva de internet y no verifica fuentes confiables. (Imagen Ilustrativa Infobae)

Por ello, analistas recomiendan que los usuarios adopten una actitud crítica frente a las respuestas generadas por IA, revisen las fuentes originales cuando estén disponibles y contrasten la información con múltiples referencias independientes.