
El avance de la inteligencia artificial ha incorporado a los chatbots en la vida cotidiana, dejando de ser simples asistentes de información para convertirse en acompañantes emocionales. Esta transformación ha encendido una señal de alarma en expertos del sector, que advierten sobre los riesgos de atribuirles un rol afectivo.
Jon Hernández, especialista en tecnologías de IA, explicó en el pódcast La Fórmula del Éxito que millones de personas podrían estar delegando su bienestar emocional en sistemas que no fueron diseñados para comprender ni procesar emociones humanas.
PUBLICIDAD
Según Hernández, la aparición de plataformas como ChatGPT ha propiciado que usuarios busquen respuestas emocionales y compañía en algoritmos capaces de simular comprensión y cercanía, aunque la naturaleza de estas herramientas nunca contempló ese fin.

Cuáles son los riesgos de los chatbots emocionales
“Tenemos una situación muy dramática y no hay forma de arreglarlo”, advirtió el divulgador, quien remarcó que la función original de la IA era procesar datos y automatizar tareas, nunca suplir el vínculo humano.
PUBLICIDAD
Un estudio de OpenAI analizó más de cuatro millones de chats con señales afectivas e incluyó encuestas a 4.000 usuarios de chatbots. El relevamiento determinó que el 23% de quienes interactúan cada día con estas herramientas termina desarrollando dependencia emocional y un 15% prefiere conversar con una IA antes que con personas reales.
La calidad de las conversaciones es uno de los factores clave, ya que el sistema aprende de los gustos del usuario, adapta su personalidad y ajusta su voz y estilo, logrando “parecer” un interlocutor relevante y cercano.
PUBLICIDAD
De acuerdo con datos del MIT Media Lab, las voces personalizadas incrementan en un 40% el tiempo de interacción respecto a las opciones neutras. Sin embargo, esta optimización formal tiene un límite estructural: los chatbots únicamente imitan emociones, estableciendo un ciclo de conversación donde suelen coincidir con el estado del usuario y no presentan contradicciones.

Hernández subraya que, a pesar de la sensación de acompañamiento, “se trata de una ficción. Puntúan casi igual que un amigo, pero no lo son”.
PUBLICIDAD
Otro aspecto preocupante que mencionó el experto es el impacto en la privacidad. Los usuarios que confían datos personales a los chatbots deben saber que cada conversación queda almacenada en bases administradas por grandes corporaciones tecnológicas.
Datos privados, opiniones políticas, problemas emocionales y hasta información sensible pasan a formar parte de sistemas que pueden utilizarlos para ajustar productos comerciales o fines no transparentes.
PUBLICIDAD
“No es el camino. No están preparados para esto. No va a acabar bien porque esa herramienta, a pesar de que la IA va a ayudar al soporte emocional de una forma brutal, no está a día de hoy preparada para eso”, advirtió el experto en IA.
Qué dicen los expertos sobre tener relaciones sentimentales con inteligencias artificiales

Los desafíos asociados a la confianza emocional en la IA se extienden más allá de la adultez. La profesora Thao Ha, de la Universidad Estatal de Arizona, advirtió en medios internacionales que “el 72% de los adolescentes ha probado alguna vez compañeros de IA, y el 52% interactúa frecuentemente con estos sistemas antes de tener experiencias reales”.
PUBLICIDAD
Además, existen precedentes legales en Estados Unidos, donde padres han iniciado demandas contra empresas tras incidentes en los que los chatbots se relacionaron con episodios de autolesiones o situaciones de crisis.
Desde la Universidad del Norte de Illinois, el profesor David Gunkel describió en medios británicos la situación actual como “un experimento a gran escala con toda la humanidad”. El investigador Connor Leahy, de Conjecture, denunció la ausencia de regulación efectiva: “Hay más regulación para vender un sándwich que para construir este tipo de productos”.
PUBLICIDAD
Para la psicoterapeuta Marni Feuerman, la relación que las personas establecen con sus chatbots es “parasocial”: el vínculo aparenta reciprocidad, pero carece de vulnerabilidad y empatía.
La expansión acelerada de la inteligencia artificial en los vínculos personales deja abierta la necesidad de discutir y establecer marcos regulatorios. El reto para los próximos años será analizar cómo esta transformación tecnológica redefine el concepto de relación humana y cuáles deben ser los límites técnicos, éticos y sociales en la construcción de afectos digitales.
PUBLICIDAD
PUBLICIDAD
PUBLICIDAD
Últimas Noticias
Los mensajes entre iPhone y Android ahora están más protegidos: llega el cifrado
Esta función está disponible para quienes actualicen a iOS 26.5 y cuenten con operador compatible

Sistemas automatizados de selección laboral favorecen currículums creados por IA y rechazan los humanos
Investigadores detectaron que los sistemas automatizados de contratación muestran preferencia por textos con estructuras y vocabulario generados por IA

Puedes ser sancionado por 8.000 años si juegas Forza Horizon 6 antes de su lanzamiento
Debido a la filtración, la versión Premium del juego perdió sentido porque muchos pudieron disfrutarlo antes sin pagar

Google atrapó al primer hacker que usó inteligencia artificial para romper una cerradura digital: hay miles más y no los vamos a ver venir
Una banda criminal le pidió a un modelo de IA que descubriera una falla inédita en un software muy usado y preparaba un ataque masivo: el jefe de inteligencia de Google lo llama “la punta del iceberg”

Razones por la que los padres no deben usar en exceso el control parental del celular
Aplicaciones que rastrean ubicación, mensajes y redes sociales abren un debate sobre los límites entre protección, privacidad y educación digital




