
La proporción de respuestas generadas por chatbots de inteligencia artificial que contienen información falsa sufrió un marcado incremento en el último año.
Un informe de NewsGuard, reveló que la tasa de desinformación en estas herramientas pasó del 18 % al 35 % entre agosto de 2024 y agosto de 2025, un fenómeno que plantea interrogantes sobre la fiabilidad de los sistemas automatizados y su impacto en la circulación de noticias engañosas en internet.
La investigación, sustentada en el Monitor de Afirmaciones Falsas de IA y la base de datos False Claim Fingerprints, analizó el comportamiento de diez modelos de inteligencia artificial líderes. Las pruebas se centraron en la generación de respuestas a partir de indicaciones neutras, tendenciosas o maliciosas sobre temas de política, salud, empresas y asuntos internacionales.

Los modelos Inflection (57 %) y Perplexity (47 %) encabezaron la lista de aquellos que más difundieron afirmaciones incorrectas, mientras que Gemini y Claude mantuvieron los niveles más bajos, con 17 % y 10 % respectivamente.
Por qué aumentó la información falsa en chatbots de inteligencia artificial
De acuerdo con la investigación el cambio en las tasas de desinformación está directamente relacionado con dos factores: la decisión de los desarrolladores de permitir que los chatbots accedan a la web en tiempo real y la modificación de sus respuestas, ampliando su alcance y utilidad, pero reduciendo la cautela previa.
En 2024, la mayoría de los sistemas estaba programada para rechazar preguntas sobre temas delicados o abstenerse cuando no “sabía” la respuesta; hoy responden la totalidad de las indicaciones, incluso en escenarios complejos y polémicos.

Modelos líderes de IA en desinformación
El estudio también señala que siete de los diez modelos analizados aumentaron su tasa de errores, dos se mantuvieron inalterados y solo uno, You.com, mostró una leve mejora. Otros sistemas como ChatGPT, Meta y Copilot experimentaron subidas, mostrando una tendencia generalizada a fallar frente a temas de actualidad y noticias.
Mientras tanto, el uso de funciones como la búsqueda web y la cita de fuentes añade otra capa de complejidad. Aunque incluir referencias puede elevar la percepción de credibilidad, el informe de NewsGuard advierte que muchas veces los modelos extraen datos de sitios poco fiables o imitan publicaciones consagradas con estrategias vinculadas a propaganda y desinformación.
Esto significa que citar fuentes no siempre garantiza calidad ni autenticidad en las respuestas generadas por la IA.

El reto para la IA de diferenciar lo verdadero y lo falso
El aumento en la generación de contenidos por parte de sistemas automatizados se produce en un contexto donde la demanda de información veraz es mayor que nunca, pero donde resulta cada vez más difícil distinguir lo real de lo ficticio.
El propio crecimiento de internet como espacio donde abundan noticias, imágenes y análisis fabricados por inteligencia artificial hace que los errores no solo se multipliquen, sino que escalen en velocidad y alcance.
A este desafío se suma la polarización social, que complica la creación de sistemas que brinden respuestas universalmente neutrales o aceptadas.
Según el informe, las divisiones ideológicas en países como Estados Unidos abren paso a una posible evolución de las IA hacia posiciones claramente alineadas con perfiles de usuarios “rojos” o “azules”, impulsadas por dinámicas de mercado y maximización de beneficios.
Como conclusión se puede señalar que tras el auge de la inteligencia artificial como generadora de respuestas automáticas supone una oportunidad y, al mismo tiempo, un escenario de riesgo. La proporción de contenido engañoso multiplicado por estas soluciones tecnológicas pone el foco en la necesidad de regulaciones, ajustes y un debate social sobre el papel de la IA en la circulación de información y la formación de opinión pública.
Últimas Noticias
El código de ChatGPT revela integración en desarrollo con Apple Health
Informes señalan que OpenAI estaría trabajando para que su popular chatbot pueda acceder a los datos recolectados por la app Salud de Apple

AWS lanza nuevas herramientas para crear y personalizar LLMs sin gestionar infraestructura
El avance principal presentado por Amazon Web Services es la posibilidad de adaptar modelos de lenguaje grandes a medida utilizando dos de sus plataformas más relevantes en IA en la nube

Jensen Huang, CEO de Nvidia, admite que trabaja 7 días a la semana: “Es agotador”
La presión constante y la ansiedad marcan la vida del CEO de Nvidia, quien considera que la adversidad es clave para alcanzar grandes logros

Cuáles fueron las canciones más buscadas en Google este 2025: Bad Bunny y Taylor Swift lideran
DtMF y Eldest Daughter son dos de las canciones más buscadas en el mundo en Google

Optimus, el robot de Elon Musk, aprende a correr como los humanos
El prototipo sorprende con su capacidad de locomoción y anticipa una nueva era para los robots humanoides



