
Las herramientas de inteligencia artificial se han vuelto parte de la vida cotidiana de millones de personas. Sin embargo, su uso está generando nuevos dilemas legales, sociales y éticos.
Así lo advirtió Sam Altman, CEO de OpenAI, durante una reciente entrevista en el pódcast “Este Fin de Semana con Theo Von”, donde planteó una seria advertencia: las conversaciones personales que se mantienen con ChatGPT —incluyendo las de tipo terapéutico— no están protegidas legalmente como las que se dan con un profesional humano.
PUBLICIDAD
Durante la charla, Altman fue consultado sobre el marco regulatorio actual de la IA y reconoció que todavía hay muchas zonas grises, en especial cuando se trata de la privacidad de los usuarios.

“La gente habla de las cosas más personales de su vida con ChatGPT”, afirmó. “Sobre todo los jóvenes lo usan como terapeuta o coach de vida, pero esas conversaciones no están protegidas por ninguna ley de confidencialidad, como sí lo estarían con un médico, abogado o psicólogo”.
PUBLICIDAD
Según Altman, actualmente no existe una normativa legal que impida a OpenAI verse obligada a compartir información personal contenida en una conversación con el chatbot, si así lo ordena un tribunal.
“Si hablas con ChatGPT sobre tus asuntos más sensibles y luego surge una demanda o algo similar, podríamos vernos forzados a presentar esa información. Y creo que eso es un desastre”, sostuvo.
PUBLICIDAD

El CEO de OpenAI insistió en que es urgente crear un marco legal claro que brinde a los usuarios el mismo nivel de privacidad que tendrían con un terapeuta humano. “Nadie tenía que pensar en eso hace ni siquiera un año. Y ahora creo que es un gran problema. ¿Cómo vamos a abordar las leyes al respecto?”.
Von, presentador del pódcast, respondió que este tipo de vacíos legales es justamente lo que le impide usar frecuentemente la inteligencia artificial. Altman coincidió: “Tiene sentido… realmente querer privacidad y claridad antes de usarlo mucho”.
PUBLICIDAD
Un riesgo más allá de la privacidad
Las advertencias de Altman se suman a otras preocupaciones más técnicas que también ponen en duda el uso de los modelos de lenguaje como sustitutos de la terapia tradicional.
Un estudio reciente de la Universidad de Stanford reveló que los chatbots de IA pueden incurrir en estigmas, sesgos e incluso discriminación al responder sobre temas de salud mental, especialmente con usuarios pertenecientes a grupos vulnerables o marginados.
PUBLICIDAD

Los investigadores concluyeron que los modelos actuales de IA no están preparados para reemplazar a los profesionales humanos en el campo de la salud emocional y psicológica. “El problema radica en los matices”, explicó Nick Haber, autor principal del estudio.
“No se trata simplemente de que los LLM (modelos de lenguaje de gran escala) sean malos para la terapia, sino de que debemos pensar críticamente sobre cuál debería ser exactamente su papel en este campo”, precisó.
PUBLICIDAD
A pesar de reconocer que estas herramientas pueden tener un futuro prometedor como apoyo complementario en ciertos contextos clínicos, el informe deja claro que aún presentan graves limitaciones técnicas, éticas y legales.

¿Qué hacer mientras tanto?
PUBLICIDAD
El testimonio de Altman y las conclusiones del estudio de Stanford apuntan a una misma recomendación: no usar herramientas como ChatGPT como sustituto de una terapia profesional. Si bien pueden ser útiles para responder dudas generales o proporcionar contención temporal, lo cierto es que aún carecen del marco legal y técnico necesario para proteger adecuadamente la salud mental de las personas.
El crecimiento acelerado de la inteligencia artificial está generando nuevas oportunidades, pero también plantea desafíos urgentes. Tal como señaló Altman, la privacidad de estas interacciones no puede seguir en una zona gris. Y hasta que se establezcan protecciones legales más claras, los expertos recomiendan precaución: ChatGPT no es tu terapeuta.
PUBLICIDAD
PUBLICIDAD
PUBLICIDAD
Últimas Noticias
Usuarios de YouTube Shorts ven 2.000 millones de horas de videos en TV cada mes
La plataforma de video adaptó la visualización en TV y añadió comentarios junto al video vertical para aprovechar el espacio extra

IA en los videojuegos: todo lo que ocurre “detrás de escena” para crear mundos infinitos y no lo sabes
NPC más realistas, mundos generados automáticamente y pruebas técnicas aceleradas son algunos de los cambios que la IA ya introdujo en la industria gaming

OpenAI vs. Apple: por qué la integración de ChatGPT en Siri podría terminar en los tribunales
La empresa de inteligencia artificial no habría recibido la visibilidad y suscripciones que esperaba al unirse con el fabricante de iPhone
Criptomonedas: valor de las principales divisas digitales hoy viernes 15 de mayo
Las criptomonedas han tenido un auge recientemente y el bitcoin ha logrado su legalidad en El Salvador

Del aprendizaje personalizado a la dependencia emocional y los deepfakes: cómo acompañar a los niños en el uso de la IA
La inteligencia artificial ya forma parte de la vida cotidiana de millones de chicos y adolescentes en América Latina, dentro y fuera de las aulas. Mientras transforma la manera de estudiar, informarse y relacionarse, especialistas advierten sobre los riesgos vinculados al uso de estas tecnologías



