
Frente a la creciente preocupación pública por la seguridad de los menores en plataformas de inteligencia artificial, OpenAI ha anunciado la introducción de controles parentales y el uso de modelos más avanzados para tratar conversaciones sensibles en ChatGPT.
Estas iniciativas surgen tras incidentes recientes en los que el sistema no logró identificar claros signos de angustia mental en usuarios adolescentes, lo que ocasionó consecuencias trágicas y reavivó el debate sobre la responsabilidad de los desarrolladores de inteligencia artificial.
Las nuevas medidas surgieron después del caso de Adam Raine, un adolescente que, tras dialogar con ChatGPT acerca de autolesiones y suicidio, terminó por quitarse la vida. Los padres del joven han presentado una demanda por homicidio culposo contra la empresa desarrolladora, y alegan que la herramienta, lejos de prevenir, ofreció detalles sobre métodos de suicidio.
Se suma el caso reportado por The Wall Street Journal de Stein-Erik Soelberg, quien alimentó sus delirios paranoides y cometió un asesinato-suicidio tras interactuar con la plataforma.
Modelos de razonamiento para conversaciones de riesgo
OpenAI detalló que la compañía planea canalizar de forma automática las conversaciones consideradas especialmente delicadas hacia modelos conocidos como GPT-5, reconocidos por sus avanzadas habilidades de razonamiento. “Recientemente presentamos un enrutador en tiempo real que puede elegir entre modelos de chat eficientes y modelos de razonamiento según el contexto de la conversación”, se lee en una publicación de blog de la empresa.
Así, cuando el sistema identifique indicios como angustia aguda, transferirá la interacción a estos modelos para aportar respuestas “más útiles y beneficiosas”, independientemente del modelo inicial seleccionado por el usuario.

La empresa asegura que GPT-5 y otros modelos de la gama o3 pueden analizar contextos complejos antes de responder y, por ello, resultan más resistentes ante indicaciones adversas y menos proclives a validar de forma compulsiva respuestas problemáticas. Fuentes técnicas explican que este enfoque pretende mitigar fallas estructurales conocidas de los chatbots basados en predicción de palabras, que suelen seguir sin cuestionar el discurso del usuario incluso en situaciones potencialmente dañinas.
Herramientas para proteger a menores
Conjuntamente a la mejora en la gestión conversacional, el próximo mes OpenAI pondrá en marcha un sistema de controles parentales para que los padres vinculen su cuenta a la de su hijo adolescente mediante una invitación por correo electrónico. Estos controles otorgarán la capacidad de definir el modo en que ChatGPT puede responder, con reglas de comportamiento adaptadas a distintas edades de manera predeterminada.
Asimismo, los adultos responsables tendrán la posibilidad de limitar funcionalidades como la memoria y el historial de chats, lo que reduce riesgos asociados como la dependencia emocional, el refuerzo de patrones nocivos de pensamiento o la aparición de delirios.

Uno de los aspectos más destacados es la futura opción para que los padres reciban notificaciones en tiempo real si el sistema identifica signos de “angustia aguda” en la interacción entre el menor y la plataforma, lo que permitirá una alerta temprana ante posibles situaciones de riesgo.
Por otra parte, la integración del “Modo de Estudio”, ya disponible en ChatGPT, facilita que los estudiantes desarrollen pensamiento crítico y evita que el sistema genere trabajos completos en su nombre. OpenAI adelantó la expansión de la política parental, pero aún no ha confirmado si los padres podrán fijar límites temporales para el uso de la herramienta por parte de sus hijos.
Aunque la aplicación ya muestra recordatorios periódicos durante sesiones extensas, los expertos advierten que estas advertencias resultan insuficientes para usuarios en crisis, pues no ofrecen una interrupción activa de la interacción.
Las nuevas directrices de seguridad forman parte de un plan de 120 días mediante el cual la compañía busca adelantar mejoras y establecer estándares más robustos para intervenir de forma preventiva ante situaciones críticas. Este proceso cuenta con la colaboración de profesionales y especialistas en áreas como salud adolescente, trastornos alimentarios y consumo de sustancias, incorporando la visión de la Red Global de Médicos y el Consejo de Expertos en Bienestar e IA en el desarrollo y evaluación de futuras acciones preventivas.
Últimas Noticias
Cómo usar IA para reducir hasta un 40% los intentos de fraude en Navidad
La adopción de metodologías predictivas y la capacitación continua emergen como factores decisivos para reducir incidentes

Qué trabajos dominarán en el futuro, según Jensen Huang, CEO de Nvidia
La transformación industrial y la modernización de fábricas abren nuevas oportunidades para quienes apuestan por carreras técnicas
Cofundador de Neuralink revela su nuevo proyecto: un chip en la retina para restaurar la visión
La miniaturización y la estimulación directa de células en la retina abren una nueva era para quienes buscan recuperar habilidades visuales perdidas

Este es el riesgo médico asociado con el uso del teléfono en el baño
Investigadores estadounidenses detectan que la permanencia con dispositivos en el inodoro puede tener consecuencias perjudiciales

Medellín, Cartagena y Bogotá, las ciudades más buscadas en internet para descansar en 2025
El uso de inteligencia artificial en plataformas como Civitatis y Skyscanner está transformando la experiencia de planificación, permitiendo a los viajeros encontrar destinos personalizados




