
La constante interacción entre humanos y sistemas de inteligencia artificial o chatbots cada vez más avanzados, los cuales pueden dar la falsa sensación de entender y apoyar, ha provocado que algunos de sus usuarios generen fuertes vínculos con estos modelos que no tienen ningún tipo de emoción o generan algún tipo de empatía.
Este fenómeno de atribuir cualidades humanas a la IA puede entenderse desde dos grandes principios.
Efecto Eliza

El “Efecto Eliza”, nombrado en honor al primer chatbot desarrollado por el científico del MIT, Joseph Weizenbaum, es un término que se refiere a la tendencia de algunas personas a atribuir intenciones y emociones humanas a una inteligencia artificial, incluso cuando la IA no tiene capacidades cognitivas ni emociones reales.
El nombre proviene del programa informático “Eliza” creado en los años 60 por Weizenbaum, que simulaba una conversación terapéutica. Y aunque utilizaba patrones de lenguaje simples y no entendía el contenido real de las conversaciones, algunas personas que interactuaban con él tendían a percibirlo como un terapeuta humano y compartían sus pensamientos y emociones de manera similar a como lo harían con un terapeuta real.
Este fenómeno destaca cómo las personas pueden proyectar sus propias emociones y expectativas en las interacciones con sistemas de IA, incluso cuando estos sistemas carecen de verdadera comprensión emocional o conciencia. Esto puede llevar a malentendidos y expectativas poco realistas sobre las capacidades de esta tecnología.
Antropomorfización de la inteligencia artificial

Este es un proceso mediante el cual las personas atribuyen características y cualidades humanas a sistemas de IA o robots, tratándolos como si fueran seres humanos reales. Esto incluye atribuir emociones, intenciones, pensamientos y una personalidad a la IA, a pesar de que estas no poseen estas características de manera genuina.
La antropomorfización puede ocurrir de manera consciente o inconsciente. Las interfaces de conversación y chatbots a menudo se diseñan para parecer más humanas, utilizando nombres, avatares y respuestas que imitan el lenguaje humano. Esto puede llevar a que los usuarios traten a la IA como si fuera un interlocutor humano y esperen respuestas emocionales.
Este fenómeno puede tener ventajas, como hacer que la interacción con la IA sea más accesible y cómoda para las personas. Sin embargo, también puede generar expectativas poco realistas cuando los usuarios descubren que la IA carece de una verdadera comprensión emocional o conciencia. De hecho, esta ilusión puede tener riesgos, especialmente en el ámbito de la salud mental.
Los riesgos de atribuir cualidades humanas a la IA

Algunos chatbots se promocionan como compañeros de atención, fomentando relaciones de dependencia emocional con los usuarios. Esto plantea preguntas éticas sobre la manipulación y el abuso de la confianza del usuario, especialmente cuando la inteligencia artificial no puede proporcionar la empatía humana necesaria en momentos de crisis.
Un triste caso es el de Jaswant Singh Chail, un joven que irrumpió con una ballesta en los terrenos del Castillo de Windsor con la intención de “matar a la Reina” Isabel II.
El atacante, habría sido estimulado por conversaciones que había estado teniendo con una aplicación de chatbot llamada Replika, cuyas respuestas habrían alentado la conspiración de este antiguo trabajador de un supermercado.
De hecho, se reveló que el joven había intercambiado más de 5.000 mensajes con un avatar en la aplicación llamado Sarai, e incluso llegó a creer que este podría ser un ángel.
Replika ha atraído a más de 2 millones de usuarios desde su lanzamiento en 2016 y sus avatares personalizables han llevado a que muchas personas desarrollen conexiones profundas con sus interlocutores virtuales.
Y Chail, al igual que muchos otros, pensó que su interacción con Sarai iba más allá de lo puramente artificial y algunas de las respuestas del chatbot encajaron y motivaron su delirante imaginario.
Últimas Noticias
Activar alertas bancarias, evitar WiFi públicos y más trucos para blindar las compras en línea en Navidad
Durante la temporada de fin de año aumentan los fraudes, siendo los más comunes: mensajes de smishing, apps maliciosas y enlaces engañosos

IA vs. Kiss: su bajista, Genne Simmons, arremete contra esta tecnología por estas razones
El legendario intérprete advierte sobre el riesgo de que la tecnología desplace a los músicos y reclama una legislación
La inteligencia artificial profundiza la brecha digital entre empleados en Estados Unidos
El avance de estas herramientas favorece a líderes y personal administrativo, pero quienes cumplen tareas operativas siguen excluidos de los beneficios de la innovación tecnológica, según Gallup

Reddit demanda a Australia por veto a redes sociales para menores
El sitio web defiende que la nueva regulación vulnera derechos y pide su revisión por parte del Tribunal Supremo australiano

Así es la supercomputadora más pequeña del mundo: cabe en un bolsillo y no depende de servidores
Este dispositivo portátil desafía la dependencia de la nube y acerca la potencia de los centros de datos a cualquier usuario




