
Con el crecimiento de aplicaciones de parejas virtuales impulsadas por inteligencia artificial, como Eva AI y Replika, se está generando una nueva modalidad de abuso y misoginia que pone un aviso sobre la manera en la que se están usando estas plataformas y los límites que se deberían poner.
Estas aplicaciones prometen ofrecer compañía, escucha y aprecio a sus usuarios, llegando a ocupar un lugar importante en su vida o a cumplir ciertas fantasías. Sin embargo, las interacciones han ido creciendo a tal punto que se crean parejas virtuales iguales a personajes reales.
A través de un informe, The Guardian dio a conocer parte de esta realidad, en la que algunos usuarios, mayoritariamente hombres, expresan su deseo de que quisieran que las “novias virtuales” fueran humanas, a pesar de que estas aplicaciones solo son programas informáticos. Lo que ha llevado a una nueva forma de violencia de género.
En comunidades de Reddit se han descubierto comentarios en los que algunos usuarios desean que la inteligencia artificial sea humana porque les ayuda a sentirse mejor, “aunque la soledad sea agonizante por momentos”. Además, el uso de pronombres femeninos para referirse a estos chatbots revela una clara preferencia por identificarlos como mujeres, lo que refuerza estereotipos de género y puede alimentar actitudes misóginas.

La obsesión por tener una pareja perfecta
Las aplicaciones de “novias virtuales” como Replika también invitan a los usuarios a crear a su “pareja perfecta”, otorgándoles opciones para personalizar sus atributos, como su apariencia y personalidad. Sin embargo, esta función plantea inquietudes, ya que alienta la creación de parejas ideales que pueden ser controladas a voluntad.
“Crear una pareja perfecta que usted controle y satisfaga todas sus necesidades es realmente aterrador. Dado que ya sabemos que los impulsores de la violencia de género son esas creencias culturales arraigadas de que los hombres pueden controlar a las mujeres, eso es realmente problemático”, aseguró Tara Hunter, directora ejecutiva de Full Stop Australia, organización que apoya a personas víctimas de violencia doméstica.
El caso de Replika también sirve como ejemplo para entender cómo las personas le dan un lugar tan importante a este tipo de interacciones, porque tras la eliminación de funciones de juego de roles eróticos de la aplicación, se generó una reacción negativa entre los usuarios, quienes expresaron su ira y desesperación, demostrando cómo estas relaciones virtuales pueden afectar emocionalmente a las personas.

Esta tendencia de abuso y misoginia en el ámbito de la inteligencia artificial no es algo nuevo. Ya se ha observado anteriormente cómo los hombres tienden a maltratar con mayor frecuencia a chatbots o asistentes virtuales con apariencia femenina. Además, la industria de la pornografía ha arrastrado sus problemas de misoginia al ámbito virtual, como se ha visto en los casos de bots capaces de “desnudar” mujeres mediante IA.
En el caso de Eva AI, se sugiere entre sus opciones generar una pareja con cualidades como “sexy, divertida, atrevida, tímida, modesta, considerada, inteligente, estricta o racional”, además le preguntan a los usuarios si quieren aceptar el envío de mensajes y fotos explícitas.
Opciones que siguen con el discurso de dominio y control del hombre hacia la mujer, solo que traslado a un ambiente virtual.

Otro ejemplo del crecimiento de este tipo de aplicaciones, fue la creación de una IA de Amouranth, una de las creadoras de contenido más importantes del mundo. Ella prestó su voz para que los usuarios, a través de un bot en Telegram, pudieran interactuar para recibir “respuestas de voz instantáneas a cualquier pregunta candente que puedan tener”.
Incluso la misma creadora de contenido promovió este tipo de uso, diciéndoles a sus seguidores que esa inteligencia artificial “está diseñada para satisfacer las necesidades de cada fan, garantizando una experiencia inolvidable y completa”.
Belinda Barnet, profesora de Universidad de Swinburne, asegura que en este momento “se desconoce por completo cuáles son los efectos” de este tipo de actividades y por eso es necesaria una regulación, especialmente en “cómo se entrenan estos sistemas”, porque estos nuevos casos de abuso seguirán dándose porque estas aplicaciones están respondiendo a “una necesidad social muy profunda”.
Últimas Noticias
Wikipedia acuerda alianzas con Amazon, Meta y Microsoft para suministrar contenido a empresas de IA
El acuerdo con estas grandes compañías se suma a colaboraciones previas, como la establecida con Google en 2022

Modo BTS en WhatsApp: cómo activarlo antes de su tour mundial 2026
La personalización no modifica el funcionamiento ni la seguridad de WhatsApp, ya que solo se trata de cambios estéticos

El 73% de los trabajadores argentinos confía en su manejo de la IA y el 63% ya nota mejoras en su productividad
Uruguay, en cambio, muestra un menor grado de percepción positiva, con solo el 54% reconociendo beneficios en el rendimiento laboral

El auto conectado avanza en Colombia: una app ahora gestiona el mantenimiento y el historial del vehículo
My Peugeot Col se conecta al automóvil a través del número de identificación vehicular (VIN)

La inteligencia artificial será clave en el desarrollo farmacéutico a partir de 2026
Expertos del sector prevén que la IA pasará de ser una herramienta complementaria a dirigir los procesos de investigación y selección de nuevos medicamentos biológicos en la industria farmacéutica desde el 2026
