Investigación revela que ChatGPT y otras IA utilizan rastreadores de navegación para conocer más al usuario

Estos chatbots incorporan rastreadores que recogen datos de usuarios y los comparten con gigantes de la publicidad digital, según el estudio

Guardar
IA - chatbot - usuarios - cortesía - tecnología - 29 de abril
El estudio destaca la falta de transparencia en las políticas de privacidad de las principales empresas de IA. (Imagen ilustrativa Infobae)

Una reciente investigación ha revelado que ChatGPT, Claude, Grok y Perplexity emplean rastreadores publicitarios que permiten a empresas como Meta y TikTok acceder a información sensible de los usuarios. Este hallazgo expone nuevas dimensiones de riesgo para la privacidad en el uso cotidiano de la inteligencia artificial.

En el estudio, liderado por el instituto Imdea Networks, se identificó que los rastreadores integrados en los chatbots de IA pueden recopilar datos sobre la actividad de navegación y las conversaciones mantenidas por los usuarios, lo que representa un nivel de exposición superior al de la publicidad tradicional. Los autores advierten que las plataformas de IA adoptan modelos de publicidad similares a los que utilizan empresas tecnológicas convencionales.

PUBLICIDAD

El funcionamiento de los rastreadores y el rol de la publicidad digital

En los últimos años, los chatbots de IA han ganado protagonismo en la vida digital por su capacidad para gestionar consultas, realizar tareas y ofrecer recomendaciones, lo que ha impulsado su adopción masiva. Según la investigación de Imdea Networks, estos servicios integran rastreadores de publicidad tradicionales, como los de Meta y TikTok, dentro de sus plataformas.

MIT - chatbot - GPT-4 - Claude 3 Opus - tecnología - 23 de febrero
ChatGPT y Claude comparten títulos de chats con terceros, lo que puede exponer temas personales de los usuarios. (Imagen Ilustrativa Infobae)

Estos rastreadores, presentes en la web desde hace décadas, recopilan información sobre las preferencias y hábitos de navegación de los usuarios. Con su integración en chatbots de IA, pueden acceder también a detalles de las conversaciones. Narseo Vallina, investigador y coautor del estudio, señaló a El País: “Los modelos de lenguaje transformarán cómo las personas interactúan con los servicios online y hacen sus tareas cotidianas, trabajan o compran”.

PUBLICIDAD

Añadió que “aunque los modelos de monetización todavía están evolucionando, los proveedores de IA están adoptando los modelos de negocio tradicionales de la tecnología publicitaria”.

Acceso a conversaciones completas y riesgos asociados

Uno de los riesgos más graves identificados es la disponibilidad pública de enlaces a chats completos en plataformas como Grok y Perplexity hasta el pasado 3 de abril. Guillermo Suárez-Tangil, también de Imdea Networks, advirtió: “Cualquiera que conociera la dirección URL podía leer el intercambio entero, ya que no había ningún mecanismo de control de acceso”. Aunque no se han registrado accesos de terceros a estas conversaciones, el riesgo potencial se mantiene.

Mujer joven con cabello rizado, vistiendo sudadera verde y auriculares, sosteniendo un teléfono móvil con expresión de confusión en una calle urbana con edificios de ladrillo y vehículos en el fondo
La investigación advierte sobre el acceso público a conversaciones completas mantenidas en plataformas como Grok y Perplexity. (Imagen Ilustrativa Infobae)

En ChatGPT y Claude, la información compartida con terceros incluye el título de cada conversación, lo que puede revelar temas sensibles tratados por los usuarios, como consultas médicas, fiscales o legales. Las empresas responsables de estas plataformas no han respondido a las solicitudes de reacción frente a los hallazgos del estudio.

La urgencia de regulación

La investigación enfatiza la necesidad de analizar estos riesgos desde la regulación europea. El Reglamento General de Protección de Datos (RGPD) en la Unión Europea exige información clara y específica sobre el tratamiento de datos personales, especialmente en contextos tecnológicos complejos.

“Estas cuatro empresas, en vez de cumplirlo, abusan de la complejidad de sus políticas de privacidad para aturdirnos con largos textos y conceptos genéricos, omitiendo el punto clave: que facilitan a gigantes de la publicidad personalizada los temas de tus conversaciones con sus chats de IA, y en algunos casos, el texto entero”, afirmó el abogado Jorge García Herrero, colaborador del estudio.

(Imagen Ilustrativa Imagen)
Los investigadores alertan sobre la urgencia de adaptar la regulación europea ante estos nuevos riesgos. (Imagen Ilustrativa Imagen)

García Herrero sostuvo que la advertencia sobre el posible acceso de la industria publicitaria a datos íntimos debería ser tan visible como los mensajes sobre el margen de error de la IA. Para el jurista, la protección de la privacidad requiere un compromiso explícito de transparencia por parte de las empresas tecnológicas.

Limitaciones en el análisis y el papel de las grandes tecnológicas

El equipo de Imdea Networks aclaró que el análisis no incluyó a compañías como Meta o Google, ya que estas disponen de sus propias herramientas de analítica y publicidad, además de acceso directo a los chats. La diferencia clave que identificó el estudio es la presencia de rastreadores de terceros en plataformas de IA que no pertenecen a esos gigantes, lo que permite que empresas externas recojan datos sensibles de usuarios ajenos.

Aniketh Girish, coautor de la investigación, explicó que la limitada atención social y científica al riesgo se debe tanto a la novedad de la tecnología como a la tendencia humana a confiar en herramientas útiles. “La gente subestima el riesgo porque la interfaz parece una conversación y no una página web. Pero por debajo es la misma infraestructura publicitaria que nos ha estado rastreando durante 20 años”, puntualizó Girish.

PUBLICIDAD

PUBLICIDAD