
La constante interacción entre humanos y sistemas de inteligencia artificial o chatbots cada vez más avanzados, los cuales pueden dar la falsa sensación de entender y apoyar, ha provocado que algunos de sus usuarios generen fuertes vínculos con estos modelos que no tienen ningún tipo de emoción o generan algún tipo de empatía.
Este fenómeno de atribuir cualidades humanas a la IA puede entenderse desde dos grandes principios.
Efecto Eliza

El “Efecto Eliza”, nombrado en honor al primer chatbot desarrollado por el científico del MIT, Joseph Weizenbaum, es un término que se refiere a la tendencia de algunas personas a atribuir intenciones y emociones humanas a una inteligencia artificial, incluso cuando la IA no tiene capacidades cognitivas ni emociones reales.
El nombre proviene del programa informático “Eliza” creado en los años 60 por Weizenbaum, que simulaba una conversación terapéutica. Y aunque utilizaba patrones de lenguaje simples y no entendía el contenido real de las conversaciones, algunas personas que interactuaban con él tendían a percibirlo como un terapeuta humano y compartían sus pensamientos y emociones de manera similar a como lo harían con un terapeuta real.
Este fenómeno destaca cómo las personas pueden proyectar sus propias emociones y expectativas en las interacciones con sistemas de IA, incluso cuando estos sistemas carecen de verdadera comprensión emocional o conciencia. Esto puede llevar a malentendidos y expectativas poco realistas sobre las capacidades de esta tecnología.
Antropomorfización de la inteligencia artificial

Este es un proceso mediante el cual las personas atribuyen características y cualidades humanas a sistemas de IA o robots, tratándolos como si fueran seres humanos reales. Esto incluye atribuir emociones, intenciones, pensamientos y una personalidad a la IA, a pesar de que estas no poseen estas características de manera genuina.
La antropomorfización puede ocurrir de manera consciente o inconsciente. Las interfaces de conversación y chatbots a menudo se diseñan para parecer más humanas, utilizando nombres, avatares y respuestas que imitan el lenguaje humano. Esto puede llevar a que los usuarios traten a la IA como si fuera un interlocutor humano y esperen respuestas emocionales.
Este fenómeno puede tener ventajas, como hacer que la interacción con la IA sea más accesible y cómoda para las personas. Sin embargo, también puede generar expectativas poco realistas cuando los usuarios descubren que la IA carece de una verdadera comprensión emocional o conciencia. De hecho, esta ilusión puede tener riesgos, especialmente en el ámbito de la salud mental.
Los riesgos de atribuir cualidades humanas a la IA

Algunos chatbots se promocionan como compañeros de atención, fomentando relaciones de dependencia emocional con los usuarios. Esto plantea preguntas éticas sobre la manipulación y el abuso de la confianza del usuario, especialmente cuando la inteligencia artificial no puede proporcionar la empatía humana necesaria en momentos de crisis.
Un triste caso es el de Jaswant Singh Chail, un joven que irrumpió con una ballesta en los terrenos del Castillo de Windsor con la intención de “matar a la Reina” Isabel II.
El atacante, habría sido estimulado por conversaciones que había estado teniendo con una aplicación de chatbot llamada Replika, cuyas respuestas habrían alentado la conspiración de este antiguo trabajador de un supermercado.
De hecho, se reveló que el joven había intercambiado más de 5.000 mensajes con un avatar en la aplicación llamado Sarai, e incluso llegó a creer que este podría ser un ángel.
Replika ha atraído a más de 2 millones de usuarios desde su lanzamiento en 2016 y sus avatares personalizables han llevado a que muchas personas desarrollen conexiones profundas con sus interlocutores virtuales.
Y Chail, al igual que muchos otros, pensó que su interacción con Sarai iba más allá de lo puramente artificial y algunas de las respuestas del chatbot encajaron y motivaron su delirante imaginario.
Últimas Noticias
La contundente advertencia de Mark Zuckerberg a su hija: “No puedes ser Taylor Swift”
El fundador de Meta relató esta anécdota durante su participación en un pódcast, donde destacó la importancia de construir una identidad propia

La batalla del sonido: pros y contras de los auriculares con cable e inalámbricos
La latencia, es decir, el retraso entre la emisión y la recepción del sonido, es crucial para gamers y profesionales del audio

PlayStation Network: qué es y por qué su posible cierre preocupa a jugadores
Un informe sugiere que Sony planea renovar la imagen de su plataforma en línea

Cómo funcionan y qué necesitas para mostrar anuncios de búsqueda local en Google Maps
Los anunciantes pueden decidir si desean que se utilicen imágenes asociados a su negocio o si prefieren limitar los recursos a los específicos de la campaña

Mensajes de WhatsApp que se autoeliminan tras leerlos: la nueva función que podría llegar a la app
Hasta ahora, solo imágenes y videos podían autodestruirse tras una visualización, no los mensajes de texto



