
La proporción de respuestas generadas por chatbots de inteligencia artificial que contienen información falsa sufrió un marcado incremento en el último año.
Un informe de NewsGuard, reveló que la tasa de desinformación en estas herramientas pasó del 18 % al 35 % entre agosto de 2024 y agosto de 2025, un fenómeno que plantea interrogantes sobre la fiabilidad de los sistemas automatizados y su impacto en la circulación de noticias engañosas en internet.
La investigación, sustentada en el Monitor de Afirmaciones Falsas de IA y la base de datos False Claim Fingerprints, analizó el comportamiento de diez modelos de inteligencia artificial líderes. Las pruebas se centraron en la generación de respuestas a partir de indicaciones neutras, tendenciosas o maliciosas sobre temas de política, salud, empresas y asuntos internacionales.

Los modelos Inflection (57 %) y Perplexity (47 %) encabezaron la lista de aquellos que más difundieron afirmaciones incorrectas, mientras que Gemini y Claude mantuvieron los niveles más bajos, con 17 % y 10 % respectivamente.
Por qué aumentó la información falsa en chatbots de inteligencia artificial
De acuerdo con la investigación el cambio en las tasas de desinformación está directamente relacionado con dos factores: la decisión de los desarrolladores de permitir que los chatbots accedan a la web en tiempo real y la modificación de sus respuestas, ampliando su alcance y utilidad, pero reduciendo la cautela previa.
En 2024, la mayoría de los sistemas estaba programada para rechazar preguntas sobre temas delicados o abstenerse cuando no “sabía” la respuesta; hoy responden la totalidad de las indicaciones, incluso en escenarios complejos y polémicos.

Modelos líderes de IA en desinformación
El estudio también señala que siete de los diez modelos analizados aumentaron su tasa de errores, dos se mantuvieron inalterados y solo uno, You.com, mostró una leve mejora. Otros sistemas como ChatGPT, Meta y Copilot experimentaron subidas, mostrando una tendencia generalizada a fallar frente a temas de actualidad y noticias.
Mientras tanto, el uso de funciones como la búsqueda web y la cita de fuentes añade otra capa de complejidad. Aunque incluir referencias puede elevar la percepción de credibilidad, el informe de NewsGuard advierte que muchas veces los modelos extraen datos de sitios poco fiables o imitan publicaciones consagradas con estrategias vinculadas a propaganda y desinformación.
Esto significa que citar fuentes no siempre garantiza calidad ni autenticidad en las respuestas generadas por la IA.

El reto para la IA de diferenciar lo verdadero y lo falso
El aumento en la generación de contenidos por parte de sistemas automatizados se produce en un contexto donde la demanda de información veraz es mayor que nunca, pero donde resulta cada vez más difícil distinguir lo real de lo ficticio.
El propio crecimiento de internet como espacio donde abundan noticias, imágenes y análisis fabricados por inteligencia artificial hace que los errores no solo se multipliquen, sino que escalen en velocidad y alcance.
A este desafío se suma la polarización social, que complica la creación de sistemas que brinden respuestas universalmente neutrales o aceptadas.
Según el informe, las divisiones ideológicas en países como Estados Unidos abren paso a una posible evolución de las IA hacia posiciones claramente alineadas con perfiles de usuarios “rojos” o “azules”, impulsadas por dinámicas de mercado y maximización de beneficios.
Como conclusión se puede señalar que tras el auge de la inteligencia artificial como generadora de respuestas automáticas supone una oportunidad y, al mismo tiempo, un escenario de riesgo. La proporción de contenido engañoso multiplicado por estas soluciones tecnológicas pone el foco en la necesidad de regulaciones, ajustes y un debate social sobre el papel de la IA en la circulación de información y la formación de opinión pública.
Últimas Noticias
Cómo puedes saber con ChatGPT si una llamada, dirección o enlace son seguros o fraudulentos
Si el correo o número aparece como sospechoso, el asistente lo comunica de inmediato y sugiere medidas de seguridad

Copilot bajo la lupa: vulnerabilidad en Microsoft Office compromete la privacidad de correos
El incidente afecta directamente a la función Copilot Chat disponible en la pestaña de trabajo de las aplicaciones de Microsoft 365

Estudio revela que los CEO perciben poco impacto real de la IA en sus operaciones empresariales
Aunque dos de cada tres directivos reconocieron utilizar IA en sus procesos, el tiempo real dedicado es mínimo: cerca de 1,5 horas semanales

IA y redes eléctricas en Estados Unidos: desafíos y soluciones frente al crecimiento sostenido del consumo digital
El sector enfrenta la necesidad de modernizar la infraestructura y coordinar inversiones para responder al impacto de la inteligencia artificial sin comprometer la continuidad del servicio, según advierte Fortune



