Esto es lo que pasa con tus datos en ChatGPT y así puedes protegerlos

Expertos advierten sobre el riesgo de ingresar información confidencial en plataformas de inteligencia artificial

Guardar
ChatGPT almacena los mensajes en servidores para mantener el historial y el contexto de las conversaciones. (EFE)
ChatGPT almacena los mensajes en servidores para mantener el historial y el contexto de las conversaciones. (EFE)

La expansión de la inteligencia artificial ha transformado la vida cotidiana, desde la programación hasta la redacción de correos electrónicos y la gestión de información compleja. Según OpenAI, ChatGPT ha alcanzado 900 millones de usuarios activos semanales a principios de este año, lo que evidencia la magnitud de su penetración. Sin embargo, este crecimiento plantea inquietudes fundamentales sobre el tratamiento de la información personal y confidencial que los usuarios introducen en la plataforma.

El investigador de seguridad informática de ESET Latinoamérica, Mario Micucci, advierte que la percepción de que las conversaciones en ChatGPT desaparecen al cerrar la ventana es errónea. En realidad, la información pasa por tres etapas principales:

PUBLICIDAD

Almacenamiento e historial: los mensajes enviados se conservan en los servidores de OpenAI. Esto permite acceder al historial desde diferentes dispositivos y mantener el contexto de la conversación. En algunas situaciones, los datos pueden archivarse hasta por 30 días, principalmente para tareas de seguridad y monitoreo de posibles abusos.

ChatGPT
Los datos ingresados pueden ser usados por OpenAI para entrenar modelos, a menos que el usuario cambie la configuración de privacidad. (Reuters)

Entrenamiento de modelos: OpenAI utiliza por defecto las conversaciones de las versiones gratuita y Plus para perfeccionar sus modelos. No ocurre lo mismo con las cuentas Business, Enterprise, Edu, Healthcare ni con el uso de la API, donde el entrenamiento con datos de usuario está desactivado por defecto.

PUBLICIDAD

Este punto representa el principal desafío en materia de privacidad, ya que fragmentos de información confidencial podrían terminar siendo procesados para mejorar la inteligencia artificial. “Los modelos de lenguaje pueden memorizar fragmentos de sus datos de entrenamiento y, en determinadas circunstancias, esta información puede ser extraída mediante técnicas especializadas”, explica Micucci.

Revisión humana: para garantizar la calidad y seguridad de las respuestas, una muestra de diálogos anonimizados es revisada por personal capacitado. Estos especialistas leen fragmentos de conversaciones para detectar posibles contenidos ofensivos o peligrosos. Así, no solo los algoritmos pueden acceder a lo escrito, sino también personas reales, aunque bajo protocolos de anonimización.

Riesgos para la privacidad y amenazas externas

El mayor peligro, según Micucci, radica en que la inteligencia artificial “aprenda” patrones de los textos compartidos y los reproduzca en futuras respuestas de manera general. “Ingresar información confidencial puede exponer a la pérdida de control sobre información sensible y a riesgos de memorización o extracción de datos ya documentados en investigaciones sobre modelos de lenguaje”, subraya.

Las credenciales de acceso a ChatGPT se han convertido en un objetivo para ciberdelincuentes en la Dark Web. (Europa Press)
Las credenciales de acceso a ChatGPT se han convertido en un objetivo para ciberdelincuentes en la Dark Web. (Europa Press)

Por este motivo, se recomienda que material estratégico, código propietario, credenciales, datos de clientes o documentos internos solo se utilicen en herramientas de IA validadas por la empresa y con controles estrictos de privacidad.

ESET también alerta sobre la creciente amenaza externa que representan los ciberdelincuentes interesados en las credenciales de acceso a ChatGPT. La plataforma, por su utilidad y por la cantidad de datos sensibles que maneja, se convierte en un objetivo atractivo para el espionaje industrial y el robo de identidad. En 2024, más de 225.000 registros de inicio de sesión de ChatGPT aparecieron a la venta en foros de la Dark Web. Este fenómeno, facilitado por malware del tipo infostealer, pone en evidencia que el riesgo no solo reside en lo que se escribe, sino también en quién puede acceder al historial si una cuenta es vulnerada.

Cómo proteger tus datos

Para mitigar estos riesgos, ESET propone estas medidas prácticas:

1. Anonimización y gestión del comportamiento: La primera defensa es el sentido común. Nunca debe ingresarse información que no se compartiría públicamente. Se recomienda reemplazar nombres de clientes con alias, omitir valores financieros específicos y evitar incluir fragmentos de código con claves de acceso o vulnerabilidades. Una vez procesados por la inteligencia artificial, eliminar estos datos por completo resulta técnicamente complejo.

El uso de contraseñas fuertes y la autenticación de dos factores ayudan a proteger los datos de los usuarios en cualquier plataforma de IA. (Europa Press)
El uso de contraseñas fuertes y la autenticación de dos factores ayudan a proteger los datos de los usuarios en cualquier plataforma de IA. (Europa Press)

2. Protección de cuentas: Es fundamental el uso de contraseñas robustas y únicas para cada cuenta, junto con la activación de la autenticación de dos factores (2FA) disponible en OpenAI, Google o Anthropic. Además, mantener actualizados el sistema operativo y el antivirus ayuda a prevenir el robo de credenciales mediante programas maliciosos.

3. Control de privacidad y configuración: No se recomienda aceptar la configuración predeterminada. Es preferible explorar el menú de “Controles de datos” de ChatGPT para desactivar el historial de chat y el entrenamiento de modelos. En el caso de Gemini, se puede gestionar la actividad en “Actividad en apps de Gemini” para definir qué información almacena Google. Estas acciones reducen considerablemente la exposición de los datos personales.

La utilización de inteligencia artificial como ChatGPT ofrece beneficios evidentes en productividad y eficiencia, pero exige a los usuarios adoptar una postura activa de protección de sus datos. Optar por configuraciones más estrictas y mantener prácticas seguras constituye la mejor defensa ante los nuevos escenarios de riesgo digital.

PUBLICIDAD

PUBLICIDAD