Una investigación cuestiona la fiabilidad de las respuestas de GPT-5.2 por incluir citas a la Grokipedia

Expertos advierten sobre posibles riesgos de desinformación, luego de que un reporte internacional revelara que ChatGPT recurre a fuentes asociadas con inteligencia artificial para responder temas complejos, lo que siembra incertidumbre entre usuarios y especialistas en ética digital

Guardar

En pruebas recientes sobre el funcionamiento de ChatGPT, investigadores detectaron que el modelo GPT-5.2 citó en varias ocasiones artículos de Grokipedia, la enciclopedia en línea gestionada por inteligencia artificial desarrollada por xAI, empresa liderada por Elon Musk. Esta observación se produce en un contexto donde especialistas y usuarios debaten la fiabilidad de las respuestas ofrecidas por sistemas de inteligencia artificial ante preguntas complejas, según reportó The Guardian.

El modelo GPT-5.2, integrado a ChatGPT desde diciembre, representa el avance más reciente de OpenAI e introduce mejoras en razonamiento y resolución de tareas empresariales y científicas. A pesar de estas innovaciones, el medio británico documentó inquietudes sobre el proceso de selección de fuentes del sistema, especialmente en lo relativo a temáticas poco comunes o delicadas. The Guardian recogió que, en una serie de pruebas realizadas al modelo, artículos extraídos de Grokipedia figuraron como fuentes en nueve ocasiones, en más de una docena de preguntas diferentes. Las respuestas mostraron estas citas principalmente al abordar temas como conglomerados iraníes o posturas vinculadas al negacionismo del Holocausto.

El informe de The Guardian precisa que Grokipedia busca posicionarse como una alternativa a Wikipedia y su gestión difiere significativamente. Mientras la enciclopedia de la Fundación Wikimedia depende de colaboraciones humanas y debates abiertos para construir y corregir artículos, Grokipedia se apoya en Grok, una inteligencia artificial diseñada por el equipo de xAI. Esta IA genera y revisa la mayoría de los contenidos, aunque permite someter correcciones, que posteriormente evalúa para su aprobación o rechazo sin intervención humana directa. Grokipedia, en la actualidad, supera los 6 millones de artículos.

El medio británico subraya que la utilización de Grokipedia como fuente por parte de ChatGPT no apareció de manera uniforme en todos los campos. En preguntas sobre temas que anteriormente recibieron críticas por supuesta difusión de información equivocada, como la insurrección en Estados Unidos, el trato mediático a Donald Trump o aspectos de la crisis del VIH/SIDA, GPT-5.2 no recurrió a artículos de Grokipedia. No obstante, la presencia de esta fuente en áreas menos frecuentes elevó las dudas acerca de la consistencia de los filtros de seguridad integrados en el modelo de OpenAI.

Un portavoz de OpenAI, citado por The Guardian, sostuvo que GPT-5.2 recurre a "una amplia gama de fuentes y puntos de vista disponibles públicamente". El representante añadió que existen filtros de seguridad para minimizar la relación con materiales que puedan derivar en riesgos graves. Según la empresa, ChatGPT exhibe las fuentes empleadas en sus respuestas mediante citas explícitas. De acuerdo con The Guardian, OpenAI también afirmó que la compañía desarrolla herramientas para descartar información de baja credibilidad y contrarrestar campañas de manipulación informativa.

La investigación identificó que no solo el modelo de OpenAI ha apelado a Grokipedia. El análisis mostró que Claude, el sistema desarrollado por Anthropic, incluyó artículos de la misma enciclopedia en temas tan variados como la industria petrolera y las cervezas escocesas. Anthropic, según lo publicado por The Guardian, no emitió comentarios sobre esta práctica. En contraste, xAI, la firma responsable tanto de Grok como de Grokipedia, respondió al medio apuntando que "los medios tradicionales mienten."

The Guardian contextualizó la aparición de Grokipedia en el ecosistema de inteligencia artificial como una respuesta impulsada por Elon Musk ante las críticas vertidas sobre los supuestos sesgos progresistas en Wikipedia. Según el reporte, Musk ha manifestado en distintas ocasiones su desacuerdo con el enfoque editorial de Wikipedia, lo que llevó al desarrollo de Grok y su enciclopedia asociada. El posicionamiento de Grokipedia, su método de producción de contenidos basado en inteligencia artificial, y el uso de estos datos por asistentes de IA sofisticados como GPT-5.2 y Claude, forman parte del debate más amplio sobre las garantías, transparencia y fiabilidad de la información generada por sistemas automatizados.

El estudio evidenció que, aunque los desarrolladores implementan mecanismos para informar sobre las fuentes utilizadas, la presencia de materiales generados por IA en campos delicados o poco documentados deja en evidencia desajustes en los controles internos y en la supervisión de la calidad de los datos ofrecidos a los usuarios. Temas polémicos, conspirativos o sujetos a debate público exigen una precisión significativa en la selección de fuentes, lo que motivó a expertos citados por The Guardian a pedir mayor atención a las posibles consecuencias de diseminar información a partir de estos sistemas automáticos.

Mientras ChatGPT continúa ganando presencia en entornos empresariales y científicos, tal como remarcó The Guardian, la incorporación de fuentes producidas por inteligencia artificial en la elaboración de respuestas a preguntas complejas introduce desafíos adicionales tanto para los usuarios como para quienes evalúan la ética y la veracidad en los entornos digitales. La discusión sobre los beneficios y los riesgos derivados de utilizar bases de datos como Grokipedia, con un control menos visible respecto a su contenido, complejiza el debate sobre la confianza en las nuevas tecnologías de generación de texto automatizado.