La privacidad con tu IA está en juego si no tomas estas medidas ahora mismo

El uso cotidiano de estas plataformas expone información personal y laboral a riesgos de filtraciones, robo de identidad y espionaje. ¿Qué medidas debemos tomar?

Guardar
Las conversaciones con chatbots pueden
Las conversaciones con chatbots pueden almacenar datos personales y profesionales de los usuarios, advierte ESET. (Imagen Ilustrativa Infobae)

La popularidad de los chatbots de inteligencia artificial como ChatGPT, Claude o Perplexity los ha convertido en herramientas de uso cotidiano para resolver dudas, recibir consejos, trabajar sobre documentos o incluso consultar sobre salud.

Muchas personas los utilizan como si se tratara de espacios privados, compartiendo detalles personales, laborales y emocionales. Sin embargo, expertos en ciberseguridad advierten que esa sensación de intimidad es engañosa y puede exponer a los usuarios a riesgos significativos.

Información sensible: ¿qué se comparte con los chatbots?

Los usuarios suelen confiar a los chatbots datos personales —nombre, edad, ubicación, rutinas y hasta la composición familiar— y también información profesional, como correos, contratos, estrategias empresariales o código fuente. A esto se suman consultas sobre salud física, emocional y psicológica, así como opiniones, creencias y posturas ideológicas o laborales que podrían dañar la reputación de una persona si se divulgan fuera de contexto.

Expertos alertan que compartir información
Expertos alertan que compartir información confidencial con inteligencia artificial puede facilitar el robo de identidad. (Imagen Ilustrativa Infobae)

Según ESET, compañía especializada en detección de amenazas, la combinación de estos datos permite construir perfiles completos, muy valiosos para ciberatacantes en busca de nuevas víctimas o para empresas interesadas en espionaje corporativo.

¿Por qué la privacidad de las conversaciones no está garantizada?

La confianza en la privacidad de los chatbots no se corresponde con su funcionamiento real. Las plataformas suelen informar que las interacciones pueden almacenarse y analizarse para mejorar el servicio. Esto implica que las conversaciones pueden ser revisadas por humanos o incluidos en bases de datos para entrenar algoritmos, diluyendo la confidencialidad.

Martina Lopez, investigadora de ESET Latinoamérica, explica que aunque las principales plataformas aplican medidas de seguridad y privacidad, como controles de acceso y monitoreo, ninguna es invulnerable. Los riesgos persisten por múltiples motivos: un acceso indebido a la cuenta a través de contraseñas robadas o ataques de phishing, la instalación de extensiones o aplicaciones de dudosa procedencia, o una eventual brecha de seguridad en la propia plataforma.

Los chatbots suelen recopilar y
Los chatbots suelen recopilar y analizar mensajes para mejorar sus servicios, lo que implica riesgos de privacidad. (Imagen Ilustrativa Infobae)

Riesgos principales: de la identidad al chantaje

La empresa de seguridad digital identifica cinco peligros principales ante una filtración de conversaciones con chatbots de inteligencia artificial:

  • Robo de identidad e ingeniería social: Los atacantes pueden usar detalles personales y hábitos recopilados en las conversaciones para diseñar fraudes, suplantar la identidad o redactar mensajes engañosos difíciles de detectar.
  • Espionaje corporativo: El uso de chatbots para fines laborales expone información confidencial, como estrategias de negocio, información de clientes o documentos internos, lo que puede derivar en pérdida de ventajas competitivas y conflictos legales.
  • Daño reputacional: Opiniones, dudas profesionales o pensamientos íntimos pueden provocar conflictos en el trabajo o la pérdida de credibilidad si se hacen públicos.
  • Exposición de datos sensibles: La filtración de información sobre salud, creencias o situaciones personales puede causar discriminación, estigmatización o daño emocional.
  • Extorsión: El acceso a datos privados facilita el chantaje y amenazas con el objetivo de obtener un beneficio económico.

Filtraciones de chats con IA
Filtraciones de chats con IA pueden derivar en daño reputacional o extorsión si la información es sensible. (Imagen Ilustrativa Infobae)

Cómo reducir el riesgo: recomendaciones de seguridad

Aunque los riesgos existen, es posible reducir la exposición y protegerse aplicando buenas prácticas digitales. Se recomienda:

  • Evitar compartir datos personales identificatorios como documentos, fechas de nacimiento, correos o teléfonos.
  • Anonimizar los casos reales, cambiando nombres, empresas y ubicaciones cuando sea posible.
  • No adjuntar documentos confidenciales o credenciales de acceso en las conversaciones.
  • Revisar periódicamente las configuraciones de privacidad y saber qué información se guarda y para qué se utiliza.
  • Proteger la cuenta con contraseñas robustas y activar el doble factor de autenticación.
  • Separar las cuentas destinadas al trabajo de las de uso personal.
  • Reflexionar antes de compartir: ¿ese dato se diría en voz alta frente a desconocidos?

La interacción con chatbots de IA puede ser útil y eficiente, pero exige conciencia y responsabilidad sobre la información que se comparte para evitar consecuencias indeseadas.