
La proporción de respuestas generadas por chatbots de inteligencia artificial que contienen información falsa sufrió un marcado incremento en el último año.
Un informe de NewsGuard, reveló que la tasa de desinformación en estas herramientas pasó del 18 % al 35 % entre agosto de 2024 y agosto de 2025, un fenómeno que plantea interrogantes sobre la fiabilidad de los sistemas automatizados y su impacto en la circulación de noticias engañosas en internet.
La investigación, sustentada en el Monitor de Afirmaciones Falsas de IA y la base de datos False Claim Fingerprints, analizó el comportamiento de diez modelos de inteligencia artificial líderes. Las pruebas se centraron en la generación de respuestas a partir de indicaciones neutras, tendenciosas o maliciosas sobre temas de política, salud, empresas y asuntos internacionales.

Los modelos Inflection (57 %) y Perplexity (47 %) encabezaron la lista de aquellos que más difundieron afirmaciones incorrectas, mientras que Gemini y Claude mantuvieron los niveles más bajos, con 17 % y 10 % respectivamente.
Por qué aumentó la información falsa en chatbots de inteligencia artificial
De acuerdo con la investigación el cambio en las tasas de desinformación está directamente relacionado con dos factores: la decisión de los desarrolladores de permitir que los chatbots accedan a la web en tiempo real y la modificación de sus respuestas, ampliando su alcance y utilidad, pero reduciendo la cautela previa.
En 2024, la mayoría de los sistemas estaba programada para rechazar preguntas sobre temas delicados o abstenerse cuando no “sabía” la respuesta; hoy responden la totalidad de las indicaciones, incluso en escenarios complejos y polémicos.

Modelos líderes de IA en desinformación
El estudio también señala que siete de los diez modelos analizados aumentaron su tasa de errores, dos se mantuvieron inalterados y solo uno, You.com, mostró una leve mejora. Otros sistemas como ChatGPT, Meta y Copilot experimentaron subidas, mostrando una tendencia generalizada a fallar frente a temas de actualidad y noticias.
Mientras tanto, el uso de funciones como la búsqueda web y la cita de fuentes añade otra capa de complejidad. Aunque incluir referencias puede elevar la percepción de credibilidad, el informe de NewsGuard advierte que muchas veces los modelos extraen datos de sitios poco fiables o imitan publicaciones consagradas con estrategias vinculadas a propaganda y desinformación.
Esto significa que citar fuentes no siempre garantiza calidad ni autenticidad en las respuestas generadas por la IA.

El reto para la IA de diferenciar lo verdadero y lo falso
El aumento en la generación de contenidos por parte de sistemas automatizados se produce en un contexto donde la demanda de información veraz es mayor que nunca, pero donde resulta cada vez más difícil distinguir lo real de lo ficticio.
El propio crecimiento de internet como espacio donde abundan noticias, imágenes y análisis fabricados por inteligencia artificial hace que los errores no solo se multipliquen, sino que escalen en velocidad y alcance.
A este desafío se suma la polarización social, que complica la creación de sistemas que brinden respuestas universalmente neutrales o aceptadas.
Según el informe, las divisiones ideológicas en países como Estados Unidos abren paso a una posible evolución de las IA hacia posiciones claramente alineadas con perfiles de usuarios “rojos” o “azules”, impulsadas por dinámicas de mercado y maximización de beneficios.
Como conclusión se puede señalar que tras el auge de la inteligencia artificial como generadora de respuestas automáticas supone una oportunidad y, al mismo tiempo, un escenario de riesgo. La proporción de contenido engañoso multiplicado por estas soluciones tecnológicas pone el foco en la necesidad de regulaciones, ajustes y un debate social sobre el papel de la IA en la circulación de información y la formación de opinión pública.
Últimas Noticias
La inteligencia artificial preocupa a expertos por su efecto en estudiantes
Un informe internacional advierte sobre retos inéditos en el aprendizaje, las familias y el futuro escolar de menores en varios continentes

Xiaomi prepara HyperOS 4: cuándo saldría esta actualización y qué celulares serían compatibles
Esta versión tendría una interfaz de multitarea inspirada en iOS, mostrando las apps recientes como tarjetas apiladas

Una IA puede predecir el riesgo de padecer más de 100 enfermedades con solo una noche de sueño
Un modelo desarrollado por la Universidad de Stanford, usa datos avanzados de polisomnografía para identificar patrones fisiológicos y anticipar el riesgo futuro de patologías como demencia, infarto y fibrilación auricular

Después de 16 años recibió un pedido de celulares Nokia: cuánto cuestan ahora estos teléfonos antiguos
El hallazgo demuestra cómo el paso del tiempo, la escasez y la narrativa viral pueden transformar antiguos dispositivos en activos valiosos y codiciados por coleccionistas globales

Tres trucos para hacer que tu celular Android sea más rápido si se ha vuelto lento de repente
La acumulación de memoria caché en aplicaciones populares como WhatsApp y navegadores web causa retrasos y bloqueos


