
La popularidad de los chatbots de inteligencia artificial como ChatGPT, Claude o Perplexity los ha convertido en herramientas de uso cotidiano para resolver dudas, recibir consejos, trabajar sobre documentos o incluso consultar sobre salud.
Muchas personas los utilizan como si se tratara de espacios privados, compartiendo detalles personales, laborales y emocionales. Sin embargo, expertos en ciberseguridad advierten que esa sensación de intimidad es engañosa y puede exponer a los usuarios a riesgos significativos.
Información sensible: ¿qué se comparte con los chatbots?
Los usuarios suelen confiar a los chatbots datos personales —nombre, edad, ubicación, rutinas y hasta la composición familiar— y también información profesional, como correos, contratos, estrategias empresariales o código fuente. A esto se suman consultas sobre salud física, emocional y psicológica, así como opiniones, creencias y posturas ideológicas o laborales que podrían dañar la reputación de una persona si se divulgan fuera de contexto.

Según ESET, compañía especializada en detección de amenazas, la combinación de estos datos permite construir perfiles completos, muy valiosos para ciberatacantes en busca de nuevas víctimas o para empresas interesadas en espionaje corporativo.
¿Por qué la privacidad de las conversaciones no está garantizada?
La confianza en la privacidad de los chatbots no se corresponde con su funcionamiento real. Las plataformas suelen informar que las interacciones pueden almacenarse y analizarse para mejorar el servicio. Esto implica que las conversaciones pueden ser revisadas por humanos o incluidos en bases de datos para entrenar algoritmos, diluyendo la confidencialidad.
Martina Lopez, investigadora de ESET Latinoamérica, explica que aunque las principales plataformas aplican medidas de seguridad y privacidad, como controles de acceso y monitoreo, ninguna es invulnerable. Los riesgos persisten por múltiples motivos: un acceso indebido a la cuenta a través de contraseñas robadas o ataques de phishing, la instalación de extensiones o aplicaciones de dudosa procedencia, o una eventual brecha de seguridad en la propia plataforma.

Riesgos principales: de la identidad al chantaje
La empresa de seguridad digital identifica cinco peligros principales ante una filtración de conversaciones con chatbots de inteligencia artificial:
- Robo de identidad e ingeniería social: Los atacantes pueden usar detalles personales y hábitos recopilados en las conversaciones para diseñar fraudes, suplantar la identidad o redactar mensajes engañosos difíciles de detectar.
- Espionaje corporativo: El uso de chatbots para fines laborales expone información confidencial, como estrategias de negocio, información de clientes o documentos internos, lo que puede derivar en pérdida de ventajas competitivas y conflictos legales.
- Daño reputacional: Opiniones, dudas profesionales o pensamientos íntimos pueden provocar conflictos en el trabajo o la pérdida de credibilidad si se hacen públicos.
- Exposición de datos sensibles: La filtración de información sobre salud, creencias o situaciones personales puede causar discriminación, estigmatización o daño emocional.
- Extorsión: El acceso a datos privados facilita el chantaje y amenazas con el objetivo de obtener un beneficio económico.

Cómo reducir el riesgo: recomendaciones de seguridad
Aunque los riesgos existen, es posible reducir la exposición y protegerse aplicando buenas prácticas digitales. Se recomienda:
- Evitar compartir datos personales identificatorios como documentos, fechas de nacimiento, correos o teléfonos.
- Anonimizar los casos reales, cambiando nombres, empresas y ubicaciones cuando sea posible.
- No adjuntar documentos confidenciales o credenciales de acceso en las conversaciones.
- Revisar periódicamente las configuraciones de privacidad y saber qué información se guarda y para qué se utiliza.
- Proteger la cuenta con contraseñas robustas y activar el doble factor de autenticación.
- Separar las cuentas destinadas al trabajo de las de uso personal.
- Reflexionar antes de compartir: ¿ese dato se diría en voz alta frente a desconocidos?
La interacción con chatbots de IA puede ser útil y eficiente, pero exige conciencia y responsabilidad sobre la información que se comparte para evitar consecuencias indeseadas.
Últimas Noticias
Valve revela que mantendrá la fecha de lanzamiento del Steam Machine para 2026
La empresa reafirma la pronta llegada de su computadora compacta con procesador de última generación y compatibilidad con la biblioteca de juegos completa de Steam

“Siempre invertiremos en Xbox”: El mensaje de Satya Nadella que tranquiliza a los fans de Microsoft
El CEO elogió el futuro de Xbox y prometió “no perder de vista” a los jugadores de consola y PC
50 años de Apple: Tim Cook revela el único secreto de su éxito que la competencia no puede copiar
El CEO contó cuál fue el consejo que le Steve Jobs para que la empresa no dependiera de él después de su salida
Acciones de Booking, Expedia y Travelzoo se disparan ante el retroceso de ChatGPT para ofrecer pagos directos
El cambio de estrategia sugiere que el chatbot seguirá funcionando como una herramienta para investigar y planificar compras

Cotizaciones de criptomonedas en tiempo real: sigue al minuto
El bitcoin, una de las principales criptomonedas, registra un precio de 67.516,44 dólares



