Qué tan confiable es usar un chatbot de IA para verificar lo que dicen los políticos

Un 36% de las respuestas en estas plataformas presenta problemas informativos al verificar declaraciones

Guardar
Una mano sostiene un teléfono inteligente mostrando el logo de ChatGPT y su nombre en una pantalla blanca, con un fondo difuminado.
El uso de chatbots de inteligencia artificial para verificar afirmaciones políticas aumenta en Argentina y el mundo, según el Instituto Reuters. (Imagen Ilustrativa Infobae)

El uso de chatbots de inteligencia artificial para verificar afirmaciones políticas es una solución que muchos prefieren, pero que, según diferentes informes, se debe hacer con cuidado porque existen riesgos con los datos generados.

Según datos del Instituto Reuters, el uso de chatbots de IA para informarse y consumir noticias se duplicó en el último año, con Argentina entre los países donde más creció la adopción de estas tecnologías. Esta tendencia responde tanto al avance de los sistemas disponibles como a la percepción de que pueden ofrecer respuestas rápidas y fundamentadas ante consultas complejas, como la veracidad de afirmaciones políticas.

PUBLICIDAD

Los chatbots de IA, como ChatGPT, Gemini, Grok y los asistentes integrados a buscadores, son cada vez más elegidos para verificar datos y noticias. Sin embargo, su desempeño presenta limitaciones serias: en una exploración realizada por Chequeado sobre la confiabilidad de estos sistemas para verificar afirmaciones políticas, el 36% de las respuestas analizadas mostró algún tipo de problema informativo.

Los errores detectados van desde cifras incorrectas y alucinaciones de frases o fuentes inexistentes, hasta fallas en el uso de estadísticas, incompatibilidad metodológica y argumentaciones engañosas.

PUBLICIDAD

Un hombre mira su teléfono móvil, donde una aplicación bancaria muestra un asistente virtual de IA conversando; un portátil y una taza en el fondo.
Los errores de los chatbots de IA incluyen cifras incorrectas, invención de fuentes y uso inapropiado de estadísticas sobre temas políticos. (Imagen Ilustrativa Infobae)

Cuáles son los fallos frecuentes en la verificación de afirmaciones políticas usando IA

Uno de los aspectos más preocupantes es la frecuencia y naturaleza de los errores que cometen los chatbots. Por ejemplo, la organización NewsGuard documentó que los principales modelos de IA repiten información falsa en más de un tercio de sus respuestas sobre temas de actualidad.

Investigaciones de AI Democracy Projects, Proof News y Factchequeado, centradas en la precisión de respuestas sobre elecciones, detectaron que los errores son aún más frecuentes cuando se consulta en español que en inglés: el 52% de las respuestas en español incluían información errónea, frente al 43% en inglés.

Estos fallos no se limitan a simples imprecisiones. Los chatbots pueden mezclar datos correctos con otros fuera de contexto, llegar a conclusiones incorrectas o, incluso, inventar fuentes y documentos.

La tendencia a ofrecer respuestas que parecen confiables, aunque no lo sean, es un riesgo adicional. Los modelos de IA están diseñados para generar secuencias de palabras plausibles, priorizando la coherencia antes que la veracidad. Esto significa que muchas veces elaboran explicaciones convincentes pero no necesariamente ajustadas a los hechos, lo que dificulta la detección de errores por parte de usuarios no expertos.

Hombre trabajando en oficina usando una computadora con un chatbot de inteligencia artificial en pantalla.
NewsGuard alerta que los principales chatbots de IA repiten información falsa en más de un tercio de sus respuestas sobre actualidad. (Imagen Ilustrativa Infobae)

Por qué los chatbots fallan al verificar información política

Los problemas detectados en el uso de IA para verificar declaraciones políticas están directamente relacionados con la arquitectura y el entrenamiento de estos sistemas.

Los chatbots, como explicó Laura Alonso Alemany, profesora e investigadora en Ciencias de la Computación en la Universidad Nacional de Córdoba, generan la secuencia de palabras más probable dado el contexto sin priorizar la veracidad. El objetivo principal es que la respuesta resulte coherente y creíble, no necesariamente correcta.

Además, los sistemas son entrenados con grandes volúmenes de texto de internet y reciben instrucciones para mantener un tono amable, expresar certeza y evitar confrontaciones.

El informe del Instituto Reuters destaca que, si bien la adopción de chatbots crece en todo el mundo, la preocupación por la calidad informativa también se expande. Los usuarios deben lidiar con un emisor más en el ecosistema informativo, y la dificultad aumenta cuando los sistemas presentan inconsistencias internas, desvíos respecto del eje de la pregunta e, incluso, lenguaje tendencioso.

(Imagen Ilustrativa Infobae)
La arquitectura y el entrenamiento de chatbots priorizan la coherencia y la credibilidad sobre la veracidad de las respuestas informativas.(Imagen Ilustrativa Infobae)

Dificultades para identificar los errores y riesgos para el usuario

Uno de los mayores riesgos de confiar ciegamente en chatbots de IA para verificar afirmaciones políticas es que los errores suelen ser difíciles de detectar, especialmente cuando se presentan en respuestas bien redactadas y con apariencia de autoridad.

La investigación de la BBC sobre asistentes de IA subraya que, incluso cuando se utilizan fuentes periodísticas de calidad, los modelos pueden distorsionar los contenidos, omitir datos relevantes o priorizar información irrelevante para la pregunta original.

El problema se agrava cuando los chatbots ofrecen respuestas que aparentan ser definitivas, pero en realidad combinan fragmentos de datos sin contexto o incluyen omisiones críticas.

Una mujer con expresión de preocupación sostiene un smartphone que muestra una alerta roja con el texto 'NOTICIA FALSA' y un signo de exclamación en un triángulo.
AI Democracy Projects advierte que los chatbots no suelen redirigir a fuentes oficiales confiables al verificar datos de temas críticos como el voto por correo. (Imagen Ilustrativa Infobae)

Esto ocurre, por ejemplo, en preguntas sobre la seguridad del voto por correo en Estados Unidos, donde modelos como Gemini generaron dudas infundadas pese a la existencia de estudios sólidos que avalan la seguridad del sistema.

La tendencia de los modelos a no reconocer sus propios límites lleva a que, ante la falta de información suficiente, ofrezcan respuestas incompletas, ambiguas o, directamente, equivocadas. Las pruebas de AI Democracy Projects muestran que, en muchos casos, los sistemas no cumplen con las pautas de redirigir a fuentes oficiales o confiables, pese a las promesas de las empresas desarrolladoras.

PUBLICIDAD

PUBLICIDAD