OpenAI ha anunciado una nueva función para ChatGPT que mostrará recordatorios periódicos durante sesiones prolongadas, incentivando a los usuarios a tomar descansos.
Estos avisos dirán: “Has chateado por un buen tiempo. ¿Es un buen momento para descansar?” Los usuarios podrán elegir entre pausar o continuar utilizando la inteligencia artificial para seguir recibiendo ayuda.
PUBLICIDAD
La compañía tecnológica señala que esta función busca fomentar un uso equilibrado y consciente del tiempo frente a la plataforma.

Además del aviso de tiempo, ChatGPT trae otros cambios como:
PUBLICIDAD
- Detección de señales de angustia mental o emocional.
ChatGPT está diseñado para responder con honestidad y con base en información confiable, apunta OpenAI. Sin embargo, en algunos casos poco comunes, el modelo 4o no ha logrado identificar señales de delirio o dependencia emocional, según la compañía.
Aunque estas situaciones son raras, seguimos trabajando para mejorar el modelo y desarrollar herramientas que permitan detectar mejor signos de angustia mental o emocional.
PUBLICIDAD
Así, ChatGPT podrá responder de forma más adecuada y, cuando sea necesario, orientar a las personas hacia recursos confiables y basados en evidencia.
- Ayuda al analizar desafíos personales.
Si preguntas algo como “¿Debería terminar con mi novio?”, ChatGPT no te dará una respuesta directa.
PUBLICIDAD
En lugar de eso, su función es ayudarte a reflexionar, hacerte preguntas útiles y considerar los aspectos positivos y negativos. Muy pronto, se implementará una nueva forma de responder en situaciones que involucren decisiones personales importantes.
Sam Altman sobre compartir temas personales con ChatGPT
Sam Altman, CEO de OpenAI —la empresa detrás de ChatGPT— habló en el pódcast This Past Weekend sobre el creciente uso de la inteligencia artificial para tratar temas personales.
PUBLICIDAD
“La gente comparte aspectos muy íntimos de su vida con ChatGPT”, afirmó. “Especialmente los jóvenes lo utilizan como si fuera un terapeuta o un coach de vida. Pero esas conversaciones no están protegidas por ninguna ley de confidencialidad, como lo estarían con un médico, abogado o psicólogo”.

Altman advirtió que, actualmente, no existe una regulación legal que impida que OpenAI se vea obligada a revelar información personal contenida en conversaciones con el chatbot, si así lo ordena un tribunal.
PUBLICIDAD
“Si alguien habla con ChatGPT sobre asuntos delicados y luego hay una demanda, podríamos vernos forzados a entregar esa información. Y creo que eso sería un desastre”, señaló.
El CEO subrayó la urgencia de establecer un marco legal claro que garantice a los usuarios el mismo nivel de privacidad que tendrían con un terapeuta humano. “Hace apenas un año, nadie se preocupaba por esto. Pero ahora es un problema serio. ¿Cómo vamos a abordar las leyes relacionadas?”, concluyó.
PUBLICIDAD
Qué tan seguro es usar la IA como reemplazo de los psicólogos
Un estudio reciente de la Universidad de Stanford reveló que los chatbots de inteligencia artificial pueden reproducir estigmas, sesgos e incluso actitudes discriminatorias al tratar temas de salud mental, especialmente con personas de grupos vulnerables o marginados.
Los investigadores concluyeron que, por ahora, los modelos de IA no están preparados para reemplazar a profesionales humanos en el área del bienestar emocional y psicológico.
PUBLICIDAD
“El problema está en los matices”, señaló Nick Haber, autor principal del estudio. “No es solo que los modelos de lenguaje sean inadecuados para hacer terapia, sino que debemos cuestionarnos qué rol deberían tener exactamente en este ámbito”, agregó.

Aunque el informe reconoce que estas herramientas podrían servir como apoyo complementario en ciertos contextos clínicos, advierte que aún enfrentan serias limitaciones técnicas, éticas y legales.
Tanto el testimonio de Sam Altman como las conclusiones del estudio apuntan a una recomendación clara: no usar sistemas como ChatGPT como reemplazo de la terapia profesional.
Si bien pueden ser útiles para responder preguntas generales o brindar apoyo momentáneo, aún no cuentan con la preparación ni la regulación necesarias para proteger adecuadamente la salud mental de los usuarios.
PUBLICIDAD
PUBLICIDAD
Últimas Noticias
¿Cuándo cambiar de carril?: la nueva IA de Google para autos ahora te avisa en tiempo real
La compañía aclaró que Live Lane Guidance estará disponible en ciertos modelos de automóviles que incorporan el sistema Google built-in

Alemania cubre un lago con paneles solares verticales y resulta en un éxito rotundo: este es el motivo
La instalación redujo el consumo eléctrico de la cantera en casi un 60% durante la fase inicial

Esta es la verdadera función de los agujeros en los enchufes eléctricos
Este diseño fue ideado en 1904 por el inventor Harvey Hubbell II para mejorar la seguridad eléctrica

Cómo configurar el audio de una Smart TV para ver los partidos de la Copa Mundial 2026
Entre las primeras sugerencias aparece la activación del Modo Deportes o Modo Fútbol, función presente en muchos televisores modernos

Así puedes desactivar la función Instants de Instagram para evitar enviar fotos por accidente
El envío instantáneo de imágenes ha generado quejas entre usuarios preocupados por su privacidad




