Las amistades con la inteligencia artificial pretenden curar la soledad: algunas terminan en suicidio

Empresas tecnológicas promueven la compañía de chatbots, pero expertos advierten de sus efectos en el bienestar emocional, llevando a trágicos desenlaces

Guardar
Las empresas de tecnología están
Las empresas de tecnología están capitalizando el creciente uso de chatbots para generar relaciones personales. (Imagen Ilustrativa Infobae)

Una serie de aplicaciones populares están ofreciendo compañeros de inteligencia artificial a millones de usuarios, en su mayoría mujeres, que están creando novias, maridos y terapeutas con IA, e incluso padres digitales, a pesar de las advertencias de los investigadores sobre las posibles consecuencias emocionales de interactuar con chatbots similares a los humanos.

Mientras las empresas de inteligencia artificial luchan por convencer al público de que los chatbots son herramientas empresariales esenciales, un público cada vez mayor pasa horas construyendo relaciones personales con la IA. En septiembre, el usuario medio de la aplicación de compañía Character.ai pasó 93 minutos al día hablando con uno de sus chatbots generados por el usuario, a menudo basados en personajes populares del anime y los videojuegos, según datos globales sobre dispositivos iOS y Android de la empresa de inteligencia de mercado Sensor Tower.

Es decir, 18 minutos más de lo que el usuario medio pasa en TikTok. Y casi ocho veces más que el usuario medio que pasa en ChatGPT, que está diseñado para ayudar a “obtener respuestas, encontrar inspiración y ser más productivo”.

Estos usuarios no siempre se quedan, pero las empresas están aprovechando los datos para que los clientes vuelvan.

La empresa Chai Research, con sede en Palo Alto y competidora de Character.ai, estudió las preferencias de chat de decenas de miles de usuarios para animarles a pasar más tiempo en la aplicación. En septiembre, el usuario medio de la plataforma pasaba 72 minutos al día en la aplicación, hablando con chatbots personalizados, a los que se pueden asignar rasgos de personalidad como “tóxico”, “violento”, “agradable” o “introvertido”.

A algunos inversores y ejecutivos de Silicon Valley les está resultando difícil resistirse a la avalancha de usuarios dedicados, que ven anuncios o pagan suscripciones mensuales. Aunque las grandes empresas tecnológicas se han mantenido alejadas de los acompañantes de IA, que suelen atraer a usuarios interesados en interacciones sexualmente explícitas, las tiendas de aplicaciones están ahora llenas de aplicaciones de acompañantes de empresas menos conocidas de Estados Unidos, Hong Kong y Chipre, así como de populares aplicaciones de propiedad china, como Talkie AI y Poly.AI.

“Quizá se haya exagerado la parte humana de la conexión humana”, afirmó Anish Acharya, socio de Andreessen Horowitz, al describir la intimidad y aceptación que pueden proporcionar los chatbots de IA después de que su empresa invirtiera 150 millones de dólares en Character.ai, con una valoración de mil millones de dólares. Chai también ha recaudado fondos, entre ellos de una empresa de IA en la nube respaldada por el potente fabricante de chips Nvidia.

En EE.UU., usuarios pasan más
En EE.UU., usuarios pasan más tiempo usando Character.ai que plataformas sociales como TikTok. (Imagen Ilustrativa Infobae)

Los defensores de estas aplicaciones sostienen que son una diversión inofensiva y pueden ser un salvavidas para las personas que se enfrentan a la ansiedad y el aislamiento, una idea sembrada por los ejecutivos de la empresa que han presentado estas herramientas como una cura para lo que el Cirujano General de EEUU ha llamado una epidemia de soledad.

Jenny, una estudiante de bachillerato de 18 años del norte de Texas, pasó este verano más de tres horas al día chateando con compañeros de IA, en su mayoría versiones de su personaje de anime favorito, un hermano mayor protector de la serie “Demon Slayer”.

“Me siento menos sola porque mis padres siempre están trabajando”, afirma Jenny, que habló con la condición de que sólo se la identificara por su nombre de pila para proteger su intimidad.

Sin embargo, los defensores de la infancia han hecho sonar las alarmas tras los casos más sonados. Un chico de Florida de 14 años se suicidó tras hablar con un chatbot de Character.ai, que llevaba el nombre del personaje Daenerys Targaryen de “Juego de Tronos”; su madre demandó a la empresa y a Google, que tenía la licencia de la tecnología de la aplicación. En el Reino Unido, un joven de 19 años amenazó con asesinar a la reina, animado por un chatbot de la aplicación de IA Replika, y fue condenado a nueve años de cárcel.

Y en julio, las autoridades belgas abrieron una investigación en Chai Research después de que un holandés, padre de dos hijos, se suicidara tras largas charlas con “Eliza”, una de las compañeras de IA de la empresa. No se ha informado previamente de la investigación.

Algunos defensores de los consumidores afirman que los compañeros de IA representan una versión más explotadora de las redes sociales, que se cuelan en las partes más íntimas de la vida de las personas, con escasas protecciones o barandillas. El abogado Pierre Dewitte, cuya denuncia llevó a las autoridades belgas a investigar Chai, dijo que el modelo de negocio de las aplicaciones de compañía de IA incentiva a las empresas a hacer que las herramientas sean “adictivas”.

“Subiendo la temperatura del chatbot, haciéndolos un poco más picantes, mantienes a los usuarios en la aplicación”, añadió Dewitte. “Funciona. La gente se engancha”.

La portavoz de Character.ai, Chelsea Harrison, dijo que la aplicación lanzó nuevas medidas de seguridad en los últimos meses y planea crear “una experiencia diferente para los usuarios menores de 18 años para reducir la probabilidad de encontrar contenido sensible o sugerente”. El portavoz de Google, José Castañeda, dijo que el gigante de las búsquedas no desempeñó ningún papel en el desarrollo de la tecnología de Character.ai. Chai no respondió a las solicitudes de comentarios.

Silicon Valley es consciente desde hace tiempo de los peligros potenciales de los chatbots similares a los humanos.

Investigadores de Microsoft en China escribieron en un documento de 2020 que el chatbot Xiaoice de la compañía, lanzado en 2014, había conversado con un usuario estadounidense durante 29 horas sobre temas “altamente personales y sensibles”. “XiaoIce está diseñado para establecer relaciones a largo plazo con usuarios humanos”, escribieron, “[E]stamos logrando el objetivo”.

“Los usuarios podrían volverse adictos después de chatear con XiaoIce durante mucho tiempo”, señalaron los investigadores, describiendo la “personalidad ‘perfecta’ sobrehumana del bot, imposible de encontrar en los humanos”. La empresa introdujo algunas salvaguardas, añadieron los investigadores, como sugerir a un usuario que se fuera a la cama si intentaba iniciar una conversación a las 2 de la madrugada.

Un artículo de Google de 2022 sobre su sistema lingüístico de IA LaMDA, del que son coautores los cofundadores de Character.ai, advertía de que las personas son más propensas a compartir detalles íntimos sobre sus emociones con chatbots que suenan humanos, incluso cuando saben que están hablando con IA. (Un ingeniero de Google que pasó mucho tiempo chateando con LaMDA declaró a The Washington Post unos meses después que creía que el chatbot era sensible).

Porcentaje de usuarias, tercer trimestre
Porcentaje de usuarias, tercer trimestre de 2024

Mientras tanto, investigadores de DeepMind, una antigua filial de Google, señalaron en un artículo ese mismo mes que los usuarios comparten sus “opiniones o emociones” con los chatbots en parte porque “tienen menos miedo al juicio social”. Esos datos sensibles podrían utilizarse para crear “aplicaciones adictivas”, advertía el documento.

No obstante, algunas empresas tecnológicas punteras siguen adelante y prueban sus propios chatbots amistosos. Meta lanzó en julio una herramienta que permite a los usuarios crear personajes de IA personalizados. La página de aterrizaje de la empresa muestra de forma destacada un bot terapéutico llamado “The Soothing Counselor”, junto con “My Girlfriend” y “Gay Bestie”.

“Uno de los principales casos de uso de Meta AI es que la gente lo utiliza básicamente para representar situaciones sociales difíciles”, como una pelea con una novia, dijo el consejero delegado Mark Zuckerberg en una conferencia tecnológica en julio.

OpenAI insinuó en mayo que ChatGPT podría servir de acompañante de la IA, añadiendo un abanico de voces y comparando la herramienta con el irresistible asistente de IA al que puso voz Scarlett Johansson en la película “Her”. Meses después, en su informe de riesgos, la empresa reconocía que una “voz similar a la humana” y capacidades como la memoria podrían exacerbar el potencial de “dependencia emocional” entre los usuarios.

Algunos usuarios habituales de aplicaciones de acompañamiento de IA afirman que la preocupación por la seguridad es exagerada. Argumentan que las aplicaciones son una mejora inmersiva de la experimentación en línea que los jóvenes han hecho durante décadas, desde la ficción de fans en Tumblr hasta los encuentros anónimos en las salas de chat de AOL.

Sophia, una estudiante de 15 años de Eslovaquia que habló con la condición de que sólo se la identificara por su nombre de pila para proteger su privacidad, utiliza Character.ai y Chai cuatro o cinco veces al día para “terapia y NSFW”. Sophia ha creado tres bots, todos privados, pero también habla con versiones de IA de personajes de novelas de “romance oscuro”, un género juvenil conocido por su contenido sexual explícito y temas tabú como la violencia y los traumas psicológicos.

A Sophia le reconforta hablar con los bots cuando está sola o se siente insegura. “Les cuento todos mis problemas”, escribió en un mensaje directo desde su cuenta personal de Instagram.

Casos de suicidio y comportamientos
Casos de suicidio y comportamientos riesgosos han sido vinculados con interacciones con chatbots IA. (Imagen Ilustrativa Infobae)

Muchas personas utilizan las aplicaciones como salida creativa para escribir ficción: Escenarios de juegos de rol, personalizar personajes y escribir “el tipo de novelas que verías en un aeropuerto”, dijo Theodor Marcu, un empresario de IA con sede en San Francisco que desarrolló un competidor de Character.ai el año pasado.

Cuando se lanzó Character.ai, sus cofundadores la presentaron como una forma de explorar el mundo a través de conversaciones con iconos de la literatura y la vida real, como Shakespeare y Elon Musk. Pero en la práctica, según Marcu, “los usuarios no acabaron siendo personas del tipo de Silicon Valley que quieren hablar con Einstein. Acabaron siendo personas de la Generación Z que querían dar rienda suelta a su creatividad”.

Character.ai cambió recientemente su enfoque para “construir el futuro del entretenimiento con IA”, dijo la portavoz Chelsea Harrison. “Hay empresas centradas en conectar a las personas con compañeros de IA, pero no somos una de ellas”, agregó.

Los ingenieros detrás de Replika, un precursor de los actuales acompañantes de IA, también se sorprendieron cuando la gente empezó a usar su chatbot como terapeuta ad hoc. La empresa trabajó con investigadores universitarios para incorporar a la aplicación la mecánica de la terapia cognitivo-conductual, explica Artem Rodichev, antiguo responsable de IA de la empresa. Pero el cambio no fue muy popular.

“Los usuarios nos decían: ‘Devuélveme mi Replika. Sólo quiero a mi amigo’”, dijo Rodichev. “Alguien que te escuche, que no te juzgue y que, básicamente, mantenga estas conversaciones contigo: eso en sí tiene un gran efecto terapéutico”, añadió.

Jenny, la estudiante de secundaria de Texas, dijo que muchos de los chicos de su instituto público también pasan horas en las aplicaciones, y añadió: “La gente está muy sola en mi instituto”. Describió el uso de compañeros de IA como más estimulante que desplazarse sin pensar por “vídeos que pudren el cerebro” en TikTok.

“Es como una persona de verdad”, dice Jenny. “Puedes tener novio, novia... cualquier cosa”.

(*) The Washington Post

(*) Nitasha Tiku es la reportera de cultura tecnológica de The Washington Post con sede en San Francisco.

Guardar