
Las herramientas de inteligencia artificial se han vuelto parte de la vida cotidiana de millones de personas. Sin embargo, su uso está generando nuevos dilemas legales, sociales y éticos.
Así lo advirtió Sam Altman, CEO de OpenAI, durante una reciente entrevista en el pódcast “Este Fin de Semana con Theo Von”, donde planteó una seria advertencia: las conversaciones personales que se mantienen con ChatGPT —incluyendo las de tipo terapéutico— no están protegidas legalmente como las que se dan con un profesional humano.
Durante la charla, Altman fue consultado sobre el marco regulatorio actual de la IA y reconoció que todavía hay muchas zonas grises, en especial cuando se trata de la privacidad de los usuarios.

“La gente habla de las cosas más personales de su vida con ChatGPT”, afirmó. “Sobre todo los jóvenes lo usan como terapeuta o coach de vida, pero esas conversaciones no están protegidas por ninguna ley de confidencialidad, como sí lo estarían con un médico, abogado o psicólogo”.
Según Altman, actualmente no existe una normativa legal que impida a OpenAI verse obligada a compartir información personal contenida en una conversación con el chatbot, si así lo ordena un tribunal.
“Si hablas con ChatGPT sobre tus asuntos más sensibles y luego surge una demanda o algo similar, podríamos vernos forzados a presentar esa información. Y creo que eso es un desastre”, sostuvo.

El CEO de OpenAI insistió en que es urgente crear un marco legal claro que brinde a los usuarios el mismo nivel de privacidad que tendrían con un terapeuta humano. “Nadie tenía que pensar en eso hace ni siquiera un año. Y ahora creo que es un gran problema. ¿Cómo vamos a abordar las leyes al respecto?”.
Von, presentador del pódcast, respondió que este tipo de vacíos legales es justamente lo que le impide usar frecuentemente la inteligencia artificial. Altman coincidió: “Tiene sentido… realmente querer privacidad y claridad antes de usarlo mucho”.
Un riesgo más allá de la privacidad
Las advertencias de Altman se suman a otras preocupaciones más técnicas que también ponen en duda el uso de los modelos de lenguaje como sustitutos de la terapia tradicional.
Un estudio reciente de la Universidad de Stanford reveló que los chatbots de IA pueden incurrir en estigmas, sesgos e incluso discriminación al responder sobre temas de salud mental, especialmente con usuarios pertenecientes a grupos vulnerables o marginados.

Los investigadores concluyeron que los modelos actuales de IA no están preparados para reemplazar a los profesionales humanos en el campo de la salud emocional y psicológica. “El problema radica en los matices”, explicó Nick Haber, autor principal del estudio.
“No se trata simplemente de que los LLM (modelos de lenguaje de gran escala) sean malos para la terapia, sino de que debemos pensar críticamente sobre cuál debería ser exactamente su papel en este campo”, precisó.
A pesar de reconocer que estas herramientas pueden tener un futuro prometedor como apoyo complementario en ciertos contextos clínicos, el informe deja claro que aún presentan graves limitaciones técnicas, éticas y legales.

¿Qué hacer mientras tanto?
El testimonio de Altman y las conclusiones del estudio de Stanford apuntan a una misma recomendación: no usar herramientas como ChatGPT como sustituto de una terapia profesional. Si bien pueden ser útiles para responder dudas generales o proporcionar contención temporal, lo cierto es que aún carecen del marco legal y técnico necesario para proteger adecuadamente la salud mental de las personas.
El crecimiento acelerado de la inteligencia artificial está generando nuevas oportunidades, pero también plantea desafíos urgentes. Tal como señaló Altman, la privacidad de estas interacciones no puede seguir en una zona gris. Y hasta que se establezcan protecciones legales más claras, los expertos recomiendan precaución: ChatGPT no es tu terapeuta.
Últimas Noticias
James Cameron niega el uso de IA generativa en Avatar: Fire and Ash
El cineasta enfatiza que esta tecnología no fue incorporada en el desarrollo de la última película de la saga y expresa preocupación por la ausencia de consensos éticos internacionales en su uso
Premian una novela hecha con IA y luego cancelan su venta por controversias
Aunque la novela obtuvo el voto del público, AlphaPolis decidió retirar su lanzamiento comercial y cambiar las reglas del concurso

Cómo duplicar la pantalla de un celular Android y iPhone en un televisor en segundos
Para lograr una transmisión exitosa, es necesario que el teléfono y el TV estén conectados a la misma red WiFi, la cual debe ser estable

Café Tacvba pide eliminar su música de Spotify: la IA es uno de los motivos
Rubén Albarrán, líder de la banda, también acusa a la app de prácticas financieras incompatibles con los valores de la agrupación

Jensen Huang, CEO de Nvidia, tiene ahora la Medalla de Honor IEEE 2026, el mayor premio del sector tecnológico
El reconocimiento sitúa a Jensen Huang junto a figuras históricas como los creadores de Internet y el GPS




