
El uso de chatbots de inteligencia artificial para verificar afirmaciones políticas es una solución que muchos prefieren, pero que, según diferentes informes, se debe hacer con cuidado porque existen riesgos con los datos generados.
Según datos del Instituto Reuters, el uso de chatbots de IA para informarse y consumir noticias se duplicó en el último año, con Argentina entre los países donde más creció la adopción de estas tecnologías. Esta tendencia responde tanto al avance de los sistemas disponibles como a la percepción de que pueden ofrecer respuestas rápidas y fundamentadas ante consultas complejas, como la veracidad de afirmaciones políticas.
PUBLICIDAD
Los chatbots de IA, como ChatGPT, Gemini, Grok y los asistentes integrados a buscadores, son cada vez más elegidos para verificar datos y noticias. Sin embargo, su desempeño presenta limitaciones serias: en una exploración realizada por Chequeado sobre la confiabilidad de estos sistemas para verificar afirmaciones políticas, el 36% de las respuestas analizadas mostró algún tipo de problema informativo.
Los errores detectados van desde cifras incorrectas y alucinaciones de frases o fuentes inexistentes, hasta fallas en el uso de estadísticas, incompatibilidad metodológica y argumentaciones engañosas.
PUBLICIDAD

Cuáles son los fallos frecuentes en la verificación de afirmaciones políticas usando IA
Uno de los aspectos más preocupantes es la frecuencia y naturaleza de los errores que cometen los chatbots. Por ejemplo, la organización NewsGuard documentó que los principales modelos de IA repiten información falsa en más de un tercio de sus respuestas sobre temas de actualidad.
Investigaciones de AI Democracy Projects, Proof News y Factchequeado, centradas en la precisión de respuestas sobre elecciones, detectaron que los errores son aún más frecuentes cuando se consulta en español que en inglés: el 52% de las respuestas en español incluían información errónea, frente al 43% en inglés.
PUBLICIDAD
Estos fallos no se limitan a simples imprecisiones. Los chatbots pueden mezclar datos correctos con otros fuera de contexto, llegar a conclusiones incorrectas o, incluso, inventar fuentes y documentos.
La tendencia a ofrecer respuestas que parecen confiables, aunque no lo sean, es un riesgo adicional. Los modelos de IA están diseñados para generar secuencias de palabras plausibles, priorizando la coherencia antes que la veracidad. Esto significa que muchas veces elaboran explicaciones convincentes pero no necesariamente ajustadas a los hechos, lo que dificulta la detección de errores por parte de usuarios no expertos.
PUBLICIDAD

Por qué los chatbots fallan al verificar información política
Los problemas detectados en el uso de IA para verificar declaraciones políticas están directamente relacionados con la arquitectura y el entrenamiento de estos sistemas.
Los chatbots, como explicó Laura Alonso Alemany, profesora e investigadora en Ciencias de la Computación en la Universidad Nacional de Córdoba, generan la secuencia de palabras más probable dado el contexto sin priorizar la veracidad. El objetivo principal es que la respuesta resulte coherente y creíble, no necesariamente correcta.
PUBLICIDAD
Además, los sistemas son entrenados con grandes volúmenes de texto de internet y reciben instrucciones para mantener un tono amable, expresar certeza y evitar confrontaciones.
El informe del Instituto Reuters destaca que, si bien la adopción de chatbots crece en todo el mundo, la preocupación por la calidad informativa también se expande. Los usuarios deben lidiar con un emisor más en el ecosistema informativo, y la dificultad aumenta cuando los sistemas presentan inconsistencias internas, desvíos respecto del eje de la pregunta e, incluso, lenguaje tendencioso.
PUBLICIDAD

Dificultades para identificar los errores y riesgos para el usuario
Uno de los mayores riesgos de confiar ciegamente en chatbots de IA para verificar afirmaciones políticas es que los errores suelen ser difíciles de detectar, especialmente cuando se presentan en respuestas bien redactadas y con apariencia de autoridad.
La investigación de la BBC sobre asistentes de IA subraya que, incluso cuando se utilizan fuentes periodísticas de calidad, los modelos pueden distorsionar los contenidos, omitir datos relevantes o priorizar información irrelevante para la pregunta original.
PUBLICIDAD
El problema se agrava cuando los chatbots ofrecen respuestas que aparentan ser definitivas, pero en realidad combinan fragmentos de datos sin contexto o incluyen omisiones críticas.

Esto ocurre, por ejemplo, en preguntas sobre la seguridad del voto por correo en Estados Unidos, donde modelos como Gemini generaron dudas infundadas pese a la existencia de estudios sólidos que avalan la seguridad del sistema.
PUBLICIDAD
La tendencia de los modelos a no reconocer sus propios límites lleva a que, ante la falta de información suficiente, ofrezcan respuestas incompletas, ambiguas o, directamente, equivocadas. Las pruebas de AI Democracy Projects muestran que, en muchos casos, los sistemas no cumplen con las pautas de redirigir a fuentes oficiales o confiables, pese a las promesas de las empresas desarrolladoras.
PUBLICIDAD
PUBLICIDAD
Últimas Noticias
Google Traductor con nueva función para aprender inglés, portugués y más idiomas: corrige pronunciación
La herramienta funciona con la inteligencia artificial creada por la compañía, Gemini

Google revela el mayor error al crear una contraseña que puede dejar todas las cuentas en riesgo
Una clave segura debe tener al menos 12 caracteres, evitar datos personales o patrones fáciles de adivinar y combinar letras, números y símbolos

Criptomonedas: cómo ha cambiado su valor en las últimas horas hoy miércoles 29 de abril
El bitcoin, una de las principales monedas digitales, registró un cambio de 1,51% en las últimas 24 horas

Mira hasta cuatro contenidos al tiempo con esta función de YouTube en la tele
Esta herramienta está en smart TV y dispositivos de streaming como Roku, Google TV y Apple TV

Cómo saber si tu teléfono necesita un reinicio urgente para evitar fallos y riesgos de seguridad
Reiniciar el smartphone, actualizar el sistema y evitar redes públicas siguen siendo medidas clave para proteger datos personales




