
Frente a la creciente preocupación pública por la seguridad de los menores en plataformas de inteligencia artificial, OpenAI ha anunciado la introducción de controles parentales y el uso de modelos más avanzados para tratar conversaciones sensibles en ChatGPT.
Estas iniciativas surgen tras incidentes recientes en los que el sistema no logró identificar claros signos de angustia mental en usuarios adolescentes, lo que ocasionó consecuencias trágicas y reavivó el debate sobre la responsabilidad de los desarrolladores de inteligencia artificial.
PUBLICIDAD
Las nuevas medidas surgieron después del caso de Adam Raine, un adolescente que, tras dialogar con ChatGPT acerca de autolesiones y suicidio, terminó por quitarse la vida. Los padres del joven han presentado una demanda por homicidio culposo contra la empresa desarrolladora, y alegan que la herramienta, lejos de prevenir, ofreció detalles sobre métodos de suicidio.
Se suma el caso reportado por The Wall Street Journal de Stein-Erik Soelberg, quien alimentó sus delirios paranoides y cometió un asesinato-suicidio tras interactuar con la plataforma.
PUBLICIDAD
Modelos de razonamiento para conversaciones de riesgo
OpenAI detalló que la compañía planea canalizar de forma automática las conversaciones consideradas especialmente delicadas hacia modelos conocidos como GPT-5, reconocidos por sus avanzadas habilidades de razonamiento. “Recientemente presentamos un enrutador en tiempo real que puede elegir entre modelos de chat eficientes y modelos de razonamiento según el contexto de la conversación”, se lee en una publicación de blog de la empresa.
Así, cuando el sistema identifique indicios como angustia aguda, transferirá la interacción a estos modelos para aportar respuestas “más útiles y beneficiosas”, independientemente del modelo inicial seleccionado por el usuario.
PUBLICIDAD

La empresa asegura que GPT-5 y otros modelos de la gama o3 pueden analizar contextos complejos antes de responder y, por ello, resultan más resistentes ante indicaciones adversas y menos proclives a validar de forma compulsiva respuestas problemáticas. Fuentes técnicas explican que este enfoque pretende mitigar fallas estructurales conocidas de los chatbots basados en predicción de palabras, que suelen seguir sin cuestionar el discurso del usuario incluso en situaciones potencialmente dañinas.
Herramientas para proteger a menores
Conjuntamente a la mejora en la gestión conversacional, el próximo mes OpenAI pondrá en marcha un sistema de controles parentales para que los padres vinculen su cuenta a la de su hijo adolescente mediante una invitación por correo electrónico. Estos controles otorgarán la capacidad de definir el modo en que ChatGPT puede responder, con reglas de comportamiento adaptadas a distintas edades de manera predeterminada.
PUBLICIDAD
Asimismo, los adultos responsables tendrán la posibilidad de limitar funcionalidades como la memoria y el historial de chats, lo que reduce riesgos asociados como la dependencia emocional, el refuerzo de patrones nocivos de pensamiento o la aparición de delirios.

Uno de los aspectos más destacados es la futura opción para que los padres reciban notificaciones en tiempo real si el sistema identifica signos de “angustia aguda” en la interacción entre el menor y la plataforma, lo que permitirá una alerta temprana ante posibles situaciones de riesgo.
PUBLICIDAD
Por otra parte, la integración del “Modo de Estudio”, ya disponible en ChatGPT, facilita que los estudiantes desarrollen pensamiento crítico y evita que el sistema genere trabajos completos en su nombre. OpenAI adelantó la expansión de la política parental, pero aún no ha confirmado si los padres podrán fijar límites temporales para el uso de la herramienta por parte de sus hijos.
Aunque la aplicación ya muestra recordatorios periódicos durante sesiones extensas, los expertos advierten que estas advertencias resultan insuficientes para usuarios en crisis, pues no ofrecen una interrupción activa de la interacción.
PUBLICIDAD
Las nuevas directrices de seguridad forman parte de un plan de 120 días mediante el cual la compañía busca adelantar mejoras y establecer estándares más robustos para intervenir de forma preventiva ante situaciones críticas. Este proceso cuenta con la colaboración de profesionales y especialistas en áreas como salud adolescente, trastornos alimentarios y consumo de sustancias, incorporando la visión de la Red Global de Médicos y el Consejo de Expertos en Bienestar e IA en el desarrollo y evaluación de futuras acciones preventivas.
PUBLICIDAD
PUBLICIDAD
Últimas Noticias
Xbox ahora aparece en mayúsculas: qué cambió realmente en la marca
La CEO Asha Sharma promovió este cambio tras consultar a la comunidad en X, dando inicio a una nueva estrategia de rebranding
La computación cuántica da un paso histórico con la primera teletransportación en Internet de alta velocidad
El avance podría acelerar el desarrollo de un Internet cuántico capaz de ofrecer comunicaciones prácticamente imposibles de hackear

Así funciona el nuevo asesor financiero de ChatGPT para controlar gastos y ahorro
Esta herramienta de IA ahora puede conectarse de forma segura cuentas bancarias y visualizar un panel de gastos
La fuerza mental que Bill Gates aplicó durante años y que psicólogos consideran la más rara
La psicología moderna sostiene que tolerar la incertidumbre es una de las capacidades más difíciles de desarrollar, y el fundador de Microsoft la utilizó para tomar decisiones clave
Las claves que debe tener un computador para no volverse lento con el tiempo
Incluir una unidad SSD en vez de un disco duro mejora el arranque, la apertura de programas y la transferencia de archivos




