
Las iniciativas de OpenAI responden tanto a demandas de familiares afectados como a la mirada atenta de las autoridades. Por lo que la plataforma ahora está creando un sistema para detectar a usuarios menores de edad.
Cuáles son las nuevas medidas y el monitoreo específico para adolescentes en ChatGPT
La empresa anunció la creación de un novedoso sistema de predicción de edad para identificar si las personas que emplean el chatbot pertenecen al grupo de menores de 18 años. De este modo, ChatGPT redirigirá automáticamente a quienes detecte dentro de ese rango a una versión adaptada de la plataforma, centrada en la protección y el filtro de contenidos sensibles.
Esta modalidad bloquea el acceso a material sexual explícito y aplica reglas estrictas sobre los tipos de conversaciones permitidas. Si el sistema advierte que un usuario menor está atravesando un estado emocional vulnerable o valora la posibilidad de hacerse daño, entrará en contacto expreso con los padres o, ante la imposibilidad de localizarlos, con autoridades pertinentes en situaciones de riesgo inminente.

Según detalló Sam Altman, director ejecutivo de OpenAI, la compañía priorizó la seguridad por encima de la libertad o la privacidad en el caso de adolescentes.
“Sabemos que estos principios pueden chocar y no todos coincidirán con nuestras decisiones, pero después de consultar a expertos, hicimos lo que creemos más apropiado y queremos mantener transparencia en nuestras intenciones”, expresó Altman en una publicación oficial.
Además, a partir de septiembre, los padres podrán vincular la cuenta de sus hijos a sus propias cuentas. Este desarrollo facilita la administración de las conversaciones, la desactivación de ciertas funciones y el establecimiento de límites horarios sobre el uso de ChatGPT.
Asimismo, los padres recibirán notificaciones cuando el sistema registre un momento de angustia aguda en el menor y podrán decidir, a través de controles parentales, la franja horaria disponible para interactuar con la herramienta.

Cómo ChatGPT protegerá la privacidad de los menores
Con estas modificaciones, OpenAI busca responder a un dilema presente en toda la industria: cómo equilibrar la privacidad, la autonomía y la seguridad de los usuarios más jóvenes.
El propio Altman reconoció el desafío de proteger a los adolescentes en un contexto donde la plataforma recopila información profunda y confidencial sobre quienes la utilizan. Según el directivo, las conversaciones con la inteligencia artificial exigen un nivel de resguardo similar al que se concede en interacciones médico-paciente o abogado-cliente, por la naturaleza privada de los temas tratados.
El modelo destina a los adultos una mayor flexibilidad y autonomía, con el compromiso de “tratar a los usuarios adultos como adultos”, pero para menores impone restricciones más rigurosas. Los adolescentes, por ejemplo, no podrán recibir consejos sobre situaciones extremas ni participar de intercambios que, aunque sean enmarcados en la ficción, puedan ser perjudiciales.
En caso de detectar una crisis emocional seria, ChatGPT accionará los protocolos de comunicación con los cuidadores o las autoridades, resguardando la integridad de la persona.

Otro punto central es el sistema de predicción de edad, que analiza patrones para estimar la edad real de los usuarios. Cuando existen dudas, la experiencia de uso se limitará automáticamente para menores de 18 años. En algunos países, podrá exigirse la presentación de documentación como prueba, lo cual introduce debate sobre el balance entre seguridad y privacidad.
El acceso diferenciado también extiende la protección a evitar el envío de ciertas respuestas, conversaciones sugestivas o recomendaciones técnicas que puedan resultar indeseables o peligrosas para usuarios jóvenes.
La compañía remarcó que los avances en los sistemas se centran en la prevención proactiva, priorizando el bienestar ante cualquier otra consideración.
Últimas Noticias
Cómo puedes saber con ChatGPT si una llamada, dirección o enlace son seguros o fraudulentos
Si el correo o número aparece como sospechoso, el asistente lo comunica de inmediato y sugiere medidas de seguridad

Copilot bajo la lupa: vulnerabilidad en Microsoft Office compromete la privacidad de correos
El incidente afecta directamente a la función Copilot Chat disponible en la pestaña de trabajo de las aplicaciones de Microsoft 365

Estudio revela que los CEO perciben poco impacto real de la IA en sus operaciones empresariales
Aunque dos de cada tres directivos reconocieron utilizar IA en sus procesos, el tiempo real dedicado es mínimo: cerca de 1,5 horas semanales

IA y redes eléctricas en Estados Unidos: desafíos y soluciones frente al crecimiento sostenido del consumo digital
El sector enfrenta la necesidad de modernizar la infraestructura y coordinar inversiones para responder al impacto de la inteligencia artificial sin comprometer la continuidad del servicio, según advierte Fortune


