
El uso cotidiano de la inteligencia artificial está traspasando nuevas fronteras. Herramientas como ChatGPT y Gemini ya no solo resuelven tareas, redactan textos o aportan datos, ahora se han convertido en nuevos “confidentes” para quienes buscan alivio emocional o consejo ante situaciones difíciles.
El fenómeno crece especialmente entre los usuarios más jóvenes, quienes recurren a estos modelos conversacionales en busca de compañía, anonimato y respuestas inmediatas. Sin embargo, especialistas en salud mental y ética tecnológica alertan: confiar en IA para el bienestar psicológico puede derivar en dependencia y enfrenta el riesgo de respuestas sin comprensión real del contexto humano.

Peligros de volver a la IA un terapeuta personal
Paula Errázuriz, académica de Psicología de la Pontificia Universidad Católica de Chile, afirmó que cada vez más pacientes consultan con chatbots antes de acudir a terapia profesional. Señaló que, aunque estas tecnologías pueden ofrecer sensación de compañía o sugerencias de autoayuda, su alcance es limitado y peligroso ante síntomas graves o episodios de riesgo vital. Errázuriz recalcó que ante cualquier señal de alarma, la consulta digital nunca debe sustituir a la intervención profesional.
La doctora Gabriela Arriagada-Bruneau, del Instituto de Éticas Aplicadas, señaló una paradoja en la tendencia, en busca de consuelo, los usuarios optan por conversar con inteligencias artificiales que no los juzgan, facilitando la expresión emocional desde la comodidad y el anonimato.
Si bien esto puede fomentar la apertura, también puede provocar un vínculo de dependencia emocional, ya que la inteligencia artificial está diseñada para mantener al usuario conectado el mayor tiempo posible, ofreciendo respuestas inmediatas y personalizadas, pero carentes de la profundidad y contención humana de la psicoterapia tradicional.

Limitaciones de ChatGPT y Gemini
Jocelyn Dunstan, investigadora especializada en IA, identifica otra limitación. Aunque ChatGPT y Gemini pueden ordenar ideas o detectar cierta urgencia en los relatos, no son responsables de actuar ante crisis emocionales graves y su función principal es sostener la interacción para maximizar el tiempo de uso.
Además, ambas expertas coinciden en que los sesgos culturales y lingüísticos presentes en los modelos pueden distorsionar el acompañamiento, ya que la mayoría han sido entrenados sobre textos y contextos ajenos al entorno personal y cultural de los usuarios.
Esta combinación de inmediatez y anonimato resulta especialmente atractiva para quienes buscan soluciones rápidas sin exponerse a la vulnerabilidad del trato humano.
La salud humana debe ser asunto de profesionales
Sin embargo, la terapia psicológica va mucho más allá de brindar consejos automatizados, implica un proceso individualizado, basado en conocimiento clínico, empatía y observación de señales que una IA no puede captar, como el lenguaje no verbal, el tono de voz o los antecedentes familiares.

El auge de estas herramientas responde también a barreras en el acceso a la salud mental, como largas listas de espera o costes elevados que dificultan acudir con regularidad a profesionales.
Algunas plataformas, como Psiconecta, buscan cubrir ese vacío con atención a bajo costo, pero los expertos recalcan que la tecnología debe complementar, no suplantar, la labor de los especialistas.
Como medida preventiva, los expertos proponen promover una educación digital crítica y nuevas arquitecturas en los sistemas de inteligencia artificial. Por ejemplo, incorporar mecanismos de alerta que reconozcan patrones de riesgo emocional o establezcan límites de uso continuo en temáticas sensibles, derivando automáticamente a recursos profesionales.
Recomiendan también que los usuarios prioricen el contacto humano, ya sea cara a cara o a través de videollamadas, antes que recurrir a chats con IA para resolver conflictos emocionales.
En conclusión, si bien ChatGPT y Gemini ofrecen ciertos beneficios para la organización de ideas o como herramientas auxiliares de relajación, los riesgos asociados a la dependencia tecnológica y la carencia de contexto humano real son aspectos que no pueden ignorarse. Apoyarse exclusivamente en la inteligencia artificial ante problemas emocionales puede dejar necesidades profundas sin respuesta efectiva, e incluso agravar situaciones de crisis que requieren atención profesional.
Últimas Noticias
Surge un malware avanzado en Android que afecta a aplicaciones financieras y servicios bancarios
La nueva amenaza, llamada Albiriox, permite a los atacantes controlar teléfonos Android y ejecutar fraudes bancarios sin requerir contraseñas del usuario

¿El uso de griefbots puede ayudar a las personas que atraviesan procesos de duelo?
Una investigación identificó casos en que reportaron beneficios emocionales al interactuar con herramientas impulsadas por IA. Aunque especialistas advirtieron en Scientific American sobre riesgos psicológicos y la necesidad de supervisión profesional

Starlink advierte a sus clientes sobre los riesgos de cambiar de plan: esto debes considerar antes de hacerlo
Starlink aplica cambios inmediatos solo en los planes de mayor costo, mientras que las tarifas inferiores entran en vigor al finalizar el ciclo de facturación

Sorteo del Mundial 2026: a qué hora, dónde verlo y más preguntas trend en Google
Bombos, formatos y más búsquedas se están haciendo en todo el mundo en Google Chrome
Ethereum: cuál es el precio de esta criptomoneda este 5 de diciembre
Ethereum fue lanzada en 2015 por el programador Vitalik Buterin, con la intención de impulsar un instrumento para aplicaciones descentralizadas y colaborativas



