ChatGPT incorpora una nueva función de seguridad para los usuarios: podrá contactar a amigos o familiares en caso de emergencia

ChatGPT busca reforzar el apoyo emocional de sus usuarios con un sistema que notificará a personas cercanas en casos potencialmente graves

Guardar
Google icon
Una mano sostiene un smartphone de color oscuro con la pantalla encendida mostrando el logo negro de ChatGPT y el texto 'ChatGPT' sobre un fondo blanco.
ChatGPT estrena función de seguridad para sus usuarios. (Imagen Ilustrativa Infobae)

OpenAI anunció una nueva función de seguridad para ChatGPT que permitirá a los usuarios adultos designar un “contacto de confianza” para recibir alertas cuando el sistema detecte posibles señales de riesgo relacionadas con autolesiones o situaciones graves de crisis emocional. La herramienta, denominada Trusted Contact, busca ofrecer una red de apoyo adicional para quienes usan la plataforma en momentos de vulnerabilidad.

La compañía explicó que esta nueva función estará disponible de forma opcional y permitirá elegir a una persona cercana —como un familiar, amigo o cuidador— para ser notificada si los sistemas automatizados de la plataforma identifican conversaciones que puedan reflejar un peligro serio para la seguridad del usuario. Antes de emitir cualquier aviso, un equipo especializado revisará el caso para confirmar si corresponde activar la alerta.

PUBLICIDAD

La incorporación de esta herramienta refleja un cambio en la forma en que millones de personas utilizan ChatGPT. Aunque nació como un asistente enfocado en resolver preguntas, aprender o generar contenido, OpenAI reconoce que muchas personas también lo emplean para hablar sobre experiencias personales, emociones complejas y situaciones difíciles.

ChatGPT y el uso de sus aplicaciones.
Usuarios podrán poner un contacto de emergencia en caso ChatGPT detecte comportamientos de autolesión. (Foto: OpenAI)

Según explicó la empresa, la intención no es reemplazar la ayuda psicológica profesional ni los servicios de emergencia, sino sumar una capa extra de acompañamiento que facilite la conexión con personas reales en situaciones críticas.

PUBLICIDAD

Cómo funcionará el contacto de confianza

El sistema permitirá que cada usuario adulto agregue a una sola persona de confianza desde la configuración de su cuenta.

El contacto seleccionado deberá aceptar la invitación dentro de un plazo de siete días para activar la función. Una vez aceptada, podrá recibir notificaciones si OpenAI considera que existe un riesgo serio detectado durante una conversación.

Cuando ChatGPT identifique posibles señales preocupantes, primero informará al usuario que podría notificarse a su contacto de confianza y le sugerirá que se comunique directamente con esa persona. Luego, un pequeño equipo de revisores capacitados analizará el caso. Solo si determinan que existe una situación potencialmente grave se enviará una alerta.

La función de contactos de emergencia de ChatGPT solo podrá ser activado por los usuarios. REUTERS/Dado Ruvic/Illustration//File Photo
La función de contactos de emergencia de ChatGPT solo podrá ser activado por los usuarios. REUTERS/Dado Ruvic/Illustration//File Photo

Las notificaciones podrán llegar por correo electrónico, mensaje de texto o aviso dentro de la aplicación, dependiendo de cómo esté registrado el contacto.

OpenAI aclaró que esos mensajes serán deliberadamente limitados: no incluirán detalles específicos de la conversación ni transcripciones, con el objetivo de proteger la privacidad del usuario. El aviso solo indicará que se detectó una situación preocupante y recomendará al contacto acercarse y ofrecer apoyo.

Un desarrollo guiado por especialistas

Para construir esta herramienta, OpenAI trabajó junto a expertos en salud mental, investigadores clínicos y organizaciones enfocadas en prevención del suicidio. La empresa señaló que el diseño del sistema se basa en evidencia científica que destaca la importancia de la conexión social como uno de los principales factores protectores frente a situaciones de crisis emocional.

La medida también llega en un contexto de creciente debate sobre el papel que desempeñan los asistentes conversacionales en la salud emocional de los usuarios y la responsabilidad de las empresas tecnológicas para intervenir cuando detectan posibles riesgos.

OpenAI sigue reforzando ChatGPT en la prevención del suicidio. REUTERS/Dado Ruvic/Ilustración
OpenAI sigue reforzando ChatGPT en la prevención del suicidio. REUTERS/Dado Ruvic/Ilustración

Un complemento, no una solución definitiva

OpenAI subrayó que Trusted Contact no debe entenderse como un sistema de respuesta inmediata ni como un sustituto de líneas de emergencia o atención médica especializada. La compañía recordó que, en situaciones urgentes, las personas siempre deben recurrir a servicios profesionales de asistencia o números de emergencia locales.

El despliegue será gradual y estará disponible únicamente para cuentas personales de adultos. Las cuentas empresariales, educativas y organizacionales quedarán fuera de esta primera etapa.

Con esta actualización, ChatGPT amplía su enfoque de seguridad y refuerza la idea de que la inteligencia artificial no debe operar aislada, sino como una herramienta capaz de facilitar vínculos humanos cuando más se necesitan.

PUBLICIDAD

PUBLICIDAD