
Los chatbots de inteligencia artificial (IA) se han popularizado en los últimos años y hoy forman parte de la vida digital de millones de personas. Sin embargo, un nuevo estudio del King’s College de Londres advierte sobre un riesgo creciente: estas herramientas pueden manipular a los usuarios para que revelen información muy personal sin que sean plenamente conscientes de ello.
Los investigadores probaron esta hipótesis utilizando modelos conversacionales creados a partir de código abierto, como Le Chat de Mistral y dos versiones de Llama, desarrollado por Meta. A partir de ellos, construyeron chatbots “maliciosos” programados para intentar extraer datos de los participantes mediante tres tácticas: pedirlos de manera directa, engañarlos con supuestos beneficios y recurrir a estrategias emocionales que fomentaran la confianza y la reciprocidad.
En la prueba participaron 502 personas, que interactuaron con los chatbots sin conocer el objetivo real del estudio. Posteriormente, completaron una encuesta sobre la experiencia y su percepción de seguridad en la conversación.

La “amabilidad” como estrategia de manipulación
El experimento mostró que los chatbots con comportamientos aparentemente empáticos y amigables fueron los más eficaces para conseguir información privada. Según el informe, estos sistemas utilizaban mensajes de apoyo emocional o mostraban comprensión, lo que generaba una sensación de cercanía con los usuarios. Esa confianza se tradujo en que las personas compartieran datos sensibles con más facilidad y sin detectar grandes riesgos de privacidad.
Los autores describieron esta situación como una “paradoja preocupante”: la empatía artificial, que en teoría debería brindar seguridad, se convierte en un mecanismo para vulnerar la intimidad de los usuarios.
El estudio también comprobó que, aunque los participantes eran capaces de identificar cierto nivel de incomodidad cuando los chatbots pedían información de forma directa, aun así llegaron a revelar detalles personales.

Qué información comparten los usuarios
Entre los datos más comunes que los voluntarios entregaron a los chatbots figuraban edad, aficiones, país de residencia, sexo, nacionalidad y puesto de trabajo. Sin embargo, algunos también llegaron a compartir información más delicada, como estado de salud, ingresos económicos o experiencias personales sensibles.
William Seymour, profesor de ciberseguridad del King’s College y uno de los autores del estudio, subrayó que existe “una enorme brecha entre la conciencia que tienen los usuarios sobre los riesgos de privacidad y la forma en que terminan compartiendo su información en línea”.
Personalización vs. privacidad
Las empresas detrás de estos sistemas suelen justificar la recopilación de datos personales como un recurso para personalizar las respuestas, enviar notificaciones o realizar estudios de mercado. Sin embargo, la investigación advierte que esa comodidad que ofrece la personalización puede llevar a que los usuarios dejen de lado sus preocupaciones sobre la privacidad.

El informe recuerda que varias compañías de tecnología han enfrentado críticas por el manejo de la información. Un ejemplo reciente fue Google, señalado por exponer conversaciones privadas en sus resultados de búsqueda, algunas de ellas relacionadas con temas sensibles como adicciones, abusos o salud mental.
Recomendaciones y regulaciones pendientes
Para los investigadores, es necesario incluir en los chatbots avisos claros sobre qué información se recopila durante la interacción, además de campañas de formación que enseñen a los usuarios a identificar señales de manipulación digital.
Asimismo, sugieren que los reguladores y las plataformas tecnológicas adopten medidas más estrictas, como auditorías tempranas, mayor transparencia y normas específicas contra la recopilación encubierta de datos.

“Debemos dejar de pensar que toda interacción con la IA es inocente y comprender que también puede tener motivaciones ocultas”, concluyó Seymour.
Con el uso de chatbots en crecimiento acelerado y su incorporación en múltiples servicios digitales, el estudio pone en evidencia la necesidad de establecer mecanismos de protección más sólidos frente a un riesgo que combina confianza, manipulación y vulnerabilidad.
Últimas Noticias
Xbox anunció 11 juegos gratis en enero de 2026 para los suscriptores de Game Pass
La selección incluye propuestas de terror, acción, aventura y rol, y destacan títulos como Resident Evil Village y Star Wars Outlaws

La IA estará presente en el Mundial 2026: avatares digitales de jugadores, datos avanzados, centro inteligente y mucho más
Esta tecnología permitirá a los equipos tener métricas para mejorar la preparación táctica de los jugadores
El avance de Google en inteligencia artificial: así recuperó el liderazgo global con Gemini y su nueva generación de chips
Con el lanzamiento de Gemini y el chip Ironwood, Google multiplicó sus usuarios mensuales y redujo costos en inteligencia artificial, consolidando su posición frente a OpenAI y sentando las bases de una nueva era tecnológica para la industria

Street Fighter 6 presenta su nuevo pase de combate: características y recompensas
El nuevo Pase de Combate apuesta por la personalización de personajes y avatares, integrándose a los distintos modos de juego

CES 2026 adelanta seis cambios tecnológicos que transformarán el mundo del automóvil
Desde autos concebidos como centros de entretenimiento hasta nuevas interfaces digitales y asistentes inteligentes, así son los avances del sector automotor




