
Las iniciativas de OpenAI responden tanto a demandas de familiares afectados como a la mirada atenta de las autoridades. Por lo que la plataforma ahora está creando un sistema para detectar a usuarios menores de edad.
PUBLICIDAD
Cuáles son las nuevas medidas y el monitoreo específico para adolescentes en ChatGPT
La empresa anunció la creación de un novedoso sistema de predicción de edad para identificar si las personas que emplean el chatbot pertenecen al grupo de menores de 18 años. De este modo, ChatGPT redirigirá automáticamente a quienes detecte dentro de ese rango a una versión adaptada de la plataforma, centrada en la protección y el filtro de contenidos sensibles.
Esta modalidad bloquea el acceso a material sexual explícito y aplica reglas estrictas sobre los tipos de conversaciones permitidas. Si el sistema advierte que un usuario menor está atravesando un estado emocional vulnerable o valora la posibilidad de hacerse daño, entrará en contacto expreso con los padres o, ante la imposibilidad de localizarlos, con autoridades pertinentes en situaciones de riesgo inminente.
PUBLICIDAD

Según detalló Sam Altman, director ejecutivo de OpenAI, la compañía priorizó la seguridad por encima de la libertad o la privacidad en el caso de adolescentes.
“Sabemos que estos principios pueden chocar y no todos coincidirán con nuestras decisiones, pero después de consultar a expertos, hicimos lo que creemos más apropiado y queremos mantener transparencia en nuestras intenciones”, expresó Altman en una publicación oficial.
PUBLICIDAD
Además, a partir de septiembre, los padres podrán vincular la cuenta de sus hijos a sus propias cuentas. Este desarrollo facilita la administración de las conversaciones, la desactivación de ciertas funciones y el establecimiento de límites horarios sobre el uso de ChatGPT.
Asimismo, los padres recibirán notificaciones cuando el sistema registre un momento de angustia aguda en el menor y podrán decidir, a través de controles parentales, la franja horaria disponible para interactuar con la herramienta.
PUBLICIDAD

Cómo ChatGPT protegerá la privacidad de los menores
Con estas modificaciones, OpenAI busca responder a un dilema presente en toda la industria: cómo equilibrar la privacidad, la autonomía y la seguridad de los usuarios más jóvenes.
El propio Altman reconoció el desafío de proteger a los adolescentes en un contexto donde la plataforma recopila información profunda y confidencial sobre quienes la utilizan. Según el directivo, las conversaciones con la inteligencia artificial exigen un nivel de resguardo similar al que se concede en interacciones médico-paciente o abogado-cliente, por la naturaleza privada de los temas tratados.
PUBLICIDAD
El modelo destina a los adultos una mayor flexibilidad y autonomía, con el compromiso de “tratar a los usuarios adultos como adultos”, pero para menores impone restricciones más rigurosas. Los adolescentes, por ejemplo, no podrán recibir consejos sobre situaciones extremas ni participar de intercambios que, aunque sean enmarcados en la ficción, puedan ser perjudiciales.
En caso de detectar una crisis emocional seria, ChatGPT accionará los protocolos de comunicación con los cuidadores o las autoridades, resguardando la integridad de la persona.
PUBLICIDAD

Otro punto central es el sistema de predicción de edad, que analiza patrones para estimar la edad real de los usuarios. Cuando existen dudas, la experiencia de uso se limitará automáticamente para menores de 18 años. En algunos países, podrá exigirse la presentación de documentación como prueba, lo cual introduce debate sobre el balance entre seguridad y privacidad.
El acceso diferenciado también extiende la protección a evitar el envío de ciertas respuestas, conversaciones sugestivas o recomendaciones técnicas que puedan resultar indeseables o peligrosas para usuarios jóvenes.
PUBLICIDAD
La compañía remarcó que los avances en los sistemas se centran en la prevención proactiva, priorizando el bienestar ante cualquier otra consideración.
PUBLICIDAD
PUBLICIDAD
Últimas Noticias
La inteligencia artificial que detecta contradicciones entre lo que las personas dicen y eligen
Un sistema desarrollado por expertos de la Universidad Cornell expone discrepancias entre los parámetros establecidos y las preferencias expresadas, lo que permite alcanzar procesos más justos y transparentes

Anthropic vendió Cowork para democratizar la IA: las empresas que lo usaron descubrieron que no saben cuántos agentes tienen
Las grandes corporaciones promedian hoy 15 agentes de inteligencia artificial y proyectan alcanzar los 150.000 en los próximos tres años. Sin embargo, solo el 13 % considera contar con una gobernanza adecuada, mientras los responsables tecnológicos ya alertan sobre una proliferación descontrolada de estos sistemas

Por culpa de la IA, la Universidad de Princeton pondrá vigilancia en los exámenes tras más de 133 años
El sistema de honor estudiantil ya no es suficiente ante el auge de trampas con inteligencia artificial

Nvidia busca la perfección: ahora desarrolla robots que actúan igual que en las simulaciones
En colaboración con FANUC, presentan una plataforma que sincroniza dispositivos virtuales y reales en la industria

Por qué debes actualizar hoy Windows 11 y Google Chrome: corrige casi 200 fallos de seguridad críticos
Microsoft y Google publicaron nuevos parches de seguridad que corrigen errores capaces de comprometer computadoras mediante documentos maliciosos




