
Las iniciativas de OpenAI responden tanto a demandas de familiares afectados como a la mirada atenta de las autoridades. Por lo que la plataforma ahora está creando un sistema para detectar a usuarios menores de edad.
Cuáles son las nuevas medidas y el monitoreo específico para adolescentes en ChatGPT
La empresa anunció la creación de un novedoso sistema de predicción de edad para identificar si las personas que emplean el chatbot pertenecen al grupo de menores de 18 años. De este modo, ChatGPT redirigirá automáticamente a quienes detecte dentro de ese rango a una versión adaptada de la plataforma, centrada en la protección y el filtro de contenidos sensibles.
Esta modalidad bloquea el acceso a material sexual explícito y aplica reglas estrictas sobre los tipos de conversaciones permitidas. Si el sistema advierte que un usuario menor está atravesando un estado emocional vulnerable o valora la posibilidad de hacerse daño, entrará en contacto expreso con los padres o, ante la imposibilidad de localizarlos, con autoridades pertinentes en situaciones de riesgo inminente.

Según detalló Sam Altman, director ejecutivo de OpenAI, la compañía priorizó la seguridad por encima de la libertad o la privacidad en el caso de adolescentes.
“Sabemos que estos principios pueden chocar y no todos coincidirán con nuestras decisiones, pero después de consultar a expertos, hicimos lo que creemos más apropiado y queremos mantener transparencia en nuestras intenciones”, expresó Altman en una publicación oficial.
Además, a partir de septiembre, los padres podrán vincular la cuenta de sus hijos a sus propias cuentas. Este desarrollo facilita la administración de las conversaciones, la desactivación de ciertas funciones y el establecimiento de límites horarios sobre el uso de ChatGPT.
Asimismo, los padres recibirán notificaciones cuando el sistema registre un momento de angustia aguda en el menor y podrán decidir, a través de controles parentales, la franja horaria disponible para interactuar con la herramienta.

Cómo ChatGPT protegerá la privacidad de los menores
Con estas modificaciones, OpenAI busca responder a un dilema presente en toda la industria: cómo equilibrar la privacidad, la autonomía y la seguridad de los usuarios más jóvenes.
El propio Altman reconoció el desafío de proteger a los adolescentes en un contexto donde la plataforma recopila información profunda y confidencial sobre quienes la utilizan. Según el directivo, las conversaciones con la inteligencia artificial exigen un nivel de resguardo similar al que se concede en interacciones médico-paciente o abogado-cliente, por la naturaleza privada de los temas tratados.
El modelo destina a los adultos una mayor flexibilidad y autonomía, con el compromiso de “tratar a los usuarios adultos como adultos”, pero para menores impone restricciones más rigurosas. Los adolescentes, por ejemplo, no podrán recibir consejos sobre situaciones extremas ni participar de intercambios que, aunque sean enmarcados en la ficción, puedan ser perjudiciales.
En caso de detectar una crisis emocional seria, ChatGPT accionará los protocolos de comunicación con los cuidadores o las autoridades, resguardando la integridad de la persona.

Otro punto central es el sistema de predicción de edad, que analiza patrones para estimar la edad real de los usuarios. Cuando existen dudas, la experiencia de uso se limitará automáticamente para menores de 18 años. En algunos países, podrá exigirse la presentación de documentación como prueba, lo cual introduce debate sobre el balance entre seguridad y privacidad.
El acceso diferenciado también extiende la protección a evitar el envío de ciertas respuestas, conversaciones sugestivas o recomendaciones técnicas que puedan resultar indeseables o peligrosas para usuarios jóvenes.
La compañía remarcó que los avances en los sistemas se centran en la prevención proactiva, priorizando el bienestar ante cualquier otra consideración.
Últimas Noticias
Así es el celular de Star Wars que todo fan quisiera tener: solo existen 25 mil unidades en el mundo
La nueva edición limitada del Reno 14 F introduce un diseño inspirado en Darth Vader con elementos estéticos exclusivos y una presentación pensada para coleccionistas

Meta eliminó casi 12 millones de cuentas de Facebook, Instagram y WhatsApp asociadas a estafas
La compañía de Mark Zuckerberg reforzó sus sistemas de detección y uso de IA para frenar el crecimiento de redes criminales que operan dentro y fuera de sus plataformas

Qué hacer ante llamadas de WhatsApp desde números desconocidos del extranjero, según ESET
Especialistas alertan que los ciberdelincuentes utilizan prefijos internacionales para generar confianza y ejecutar distintas modalidades de fraude vía WhatsApp

CEO de AT&T asegura que la formación universitaria deja de ser suficiente en un mercado laboral marcado por la IA
Según John Stankey, los jóvenes profesionales deben renovar sus habilidades cada cuatro años para adaptarse a la evolución de la IA y los nuevos modelos de negocio

PlayStation Plus pierde dos juegos más en diciembre de 2025 y eleva a doce los títulos que abandonan el servicio
La plataforma de suscripción de Sony cierra diciembre con una de sus mayores rotaciones del año, marcada por dos retiros adicionales no anunciados previamente




