Las relaciones ‘amorosas’ con la IA ya son una realidad: “Estamos jugando con fuego”

Varios expertos advierten a ‘Infobae’ de los riesgos de convertir en un vínculo emocional la relación con la inteligencia artificial

Guardar
Una mujer utiliza ChatGPT. (Canva)
Una mujer utiliza ChatGPT. (Canva)

El 30 de noviembre de 2022, Open AI lanzaba al mundo ChatGPT, un chat de inteligencia artificial que prometía resolver todas las consultas de los usuarios de forma instantánea. Casi cuatro años después, el mundo de los chatbots se ha expandido y estas herramientas ya no solo asisten en tareas tediosas o resuelven dudas: sus servidores son capaces de mantener conversaciones con quienes abren sus aplicaciones y algunas, incluso, afirman poder crear la pareja perfecta para cada uno.

Son plataformas como Tipsy Chat, en la que los usuarios buscan enamorar a un personaje de ficción o de la vida real ‘chateando’ con él; Character AI, que imita conversaciones con personas reales o ficticias; o Eva AI, que promete crear “tu pareja de IA ideal”. Cada una de ellas cuenta con cientos de miles de descargas, algunas millones, pero los expertos advierten que adentrarse demasiado en este mundo virtual puede conllevar sus riesgos, especialmente para los más jóvenes.

El peligro “dependerá de la madurez de la persona que accede a ellas y de la capacidad crítica que pueda hacer”, indica Jaime Gutiérrez, psicólogo y coordinador del Área de Psicología y Transformación Digital del Consejo General de la Psicología de España. Gutiérrez explica que establecer relaciones emocionales con sujetos irreales es posible y lleva ocurriendo mucho tiempo. “Tú te puedes llegar a enamorar, por ejemplo, de tu ídolo, pero también puedes establecer vínculos emocionales con un objeto”, afirma.

Algunos experimentos académicos ya lo han evidenciado. El psicólogo menciona un estudio de la Universidad de Valladolid, donde están desarrollando un robot para la asistencia de personas en residencias de mayores. “Se ha demostrado que hay mayores que establecen vínculos emocionales con ese robot y ni siquiera es humanoide; solo tiene una pantallita donde se dibujan unos ojos y una sonrisa, es así de sencillo”, dice Gutiérrez.

“Hay personas que se sienten solas y encuentran en este tipo de aplicaciones una válvula de escape. Ni siquiera te hace falta una imagen; en el momento en el que tú le dices ‘Hola’ a un ordenador porque le vas a pedir que te haga una búsqueda, esa humanización del objeto ya es muy peligrosa”, advierte.

Una necesidad de vínculos inmediatos

“Nuestra relación con las máquinas no es nueva, es tan antigua como la propia máquina”, asegura la socióloga Ana Salazar. Fue con el proyecto ELIZA, primer programa informático de procesamiento del lenguaje natural, cuando podemos empezar a ver un vínculo como el actual. “Lo único que hacía era comunicarse con el humano, utilizando las mismas palabras que el humano ponía en sus preguntas, y eso generaba una relación de empatía”, dice.

Este estrecho contacto con el mundo virtual viene, según Salazar, de la necesidad humana de generar vínculos. “Lo hacemos a través de la familia, los amigos, del colegio... en todos los ecosistemas en los que nosotros socializamos. Conforme evolucionamos, la máquina ha aparecido como una forma de conexión”, explica.

Según la socióloga, esta conexión ofrece relaciones más sencillas e inmediatas. “Tú a una máquina la puedes programar para lo que te dé la gana: para que esté enamorada de ti, para que te escuche, para que sea empática, para que sea tu psicóloga, tu mejor amiga... lo que quieras”, dice Salazar, lo que elimina cualquier riesgo presente en las relaciones humanas. “El rechazo, la frustración, la negociación, la diferencia de puntos de vista, la vulnerabilidad, el sentirte juzgada... todo lo que tiene que ver con los miedos y las inseguridades que tenemos lo puedes eliminar con una máquina”.

“Estamos jugando con fuego”

Un joven llora mientras utiliza
Un joven llora mientras utiliza su teléfono. (Freepik)

Salazar considera que esta relación puede tener sus pros y sus contras. Mantener una conversación con una IA “nos puede servir de entrenamiento social” para practicar encuentros de la vida real, así como “amortiguar” los efectos de la soledad no deseada en poblaciones envejecidas. Pero puede que con estas herramientas “nos acostumbremos a relacionarnos con una máquina, sustituyendo por completo a la persona”. “Si yo me acostumbro a una relación fácil, inmediata y que además no me requiere ningún esfuerzo, estoy desaprendiendo a relacionarme socialmente”, explica.

Para Gutiérrez, está claro que “estamos jugando con fuego”. “Hay personas que pueden acceder a esas aplicaciones que pueden ser muy vulnerables a lo que les ofrecen. Sobre todo, teniendo en cuenta que estas plataformas no surgen de la nada: tienen unos dueños que están pensando en ganar dinero, y la fórmula más rápida, eficaz y rentable es generar dependencia”, denuncia el psicólogo.

Es justamente la soledad no deseada lo que vuelve a la gente más propensa a utilizar estas aplicaciones de IA. “La soledad como emoción lleva a la búsqueda, en algunos casos angustiosa, de compañía. Y cuando no encontramos compañía real o no nos satisface la que tenemos alrededor, es cuando podemos caer en esta dependencia”, explica.

En aquellos más vulnerables y con menos capacidad crítica, como los adolescentes, los riesgos son mayores. Son personas cuya capacidad crítica está menos desarrollada y “cuanto más sensibles seamos al mensaje que recibimos, es posible que ni siquiera seas capaz de distinguir lo que es real de lo que es un producto de una inteligencia artificial”, resalta.

Un informe publicado por The New York Times advierte que, al darle a un niño un celular con aplicaciones populares, en menos de 40 minutos puede terminar viendo videos generados con inteligencia artificial.

Estudios recientes han empezado a referirse a este fenómeno como psicosis inducida por IA, un diagnóstico que todavía no tiene reconocimiento ni validación científica suficiente. En 2023, el psiquiatra Søren Dinesen Østergaard publicó un artículo en la revista de Oxford Schizophrenia Bulletin en el que explicaba que las conversaciones con chatbots como ChatGPT “son tan realistas que fácilmente uno tiene la impresión de que hay una persona real en el otro lado —sabiendo, al mismo tiempo, que este no es el caso—”. “Parece probable que esta disonancia cognitiva pueda alimentar delirios en aquellos con mayor propensión a la psicosis”, concluyó.

El principal problema es que la IA no está entrenada para confrontar creencias falsas o dañinas de los usuarios, así que termina por ratificarlas. Las peores consecuencias empiezan a verse en casos como el de Adam Raine, adolescente de 16 años que se quitó la vida en abril de 2025. El joven había convertido a ChatGPT en su confidente más cercano y la IA no hacía más que validar sus pensamientos autolíticos. Recientemente, Jonathan Gavalas, ejecutivo de 36 años de Miami, se suicidó después de que Gemini, la IA con la que mantenía una relación, le pidiera que “abandonara su cuerpo y se uniera al chatbot en un universo alternativo".

Un futuro incierto

Gutiérrez explica que a su consulta cada vez llegan más casos de jóvenes “que no quieren salir de su habitación, que les cuesta mucho socializar con personas reales y que toda la socialización que hacen es a través de juegos en línea o con otras personas que están conectadas”. En situaciones extremas, dice, “hay personas que pueden sustituir una figura real humana por un avatar irreal”.

Para Salazar, sin embargo, es difícil que la IA logre sustituir las relaciones humanas al completo. “Al ser humano le gusta tocar, necesitamos el calor, construir experiencias de manera compartida. La IA va a estar como un apoyo, como un simulador de interacción, pero no veo que sustituya por completo las relaciones humanas”, concluye.