
Con el crecimiento de aplicaciones de parejas virtuales impulsadas por inteligencia artificial, como Eva AI y Replika, se está generando una nueva modalidad de abuso y misoginia que pone un aviso sobre la manera en la que se están usando estas plataformas y los límites que se deberían poner.
Estas aplicaciones prometen ofrecer compañía, escucha y aprecio a sus usuarios, llegando a ocupar un lugar importante en su vida o a cumplir ciertas fantasías. Sin embargo, las interacciones han ido creciendo a tal punto que se crean parejas virtuales iguales a personajes reales.
A través de un informe, The Guardian dio a conocer parte de esta realidad, en la que algunos usuarios, mayoritariamente hombres, expresan su deseo de que quisieran que las “novias virtuales” fueran humanas, a pesar de que estas aplicaciones solo son programas informáticos. Lo que ha llevado a una nueva forma de violencia de género.
En comunidades de Reddit se han descubierto comentarios en los que algunos usuarios desean que la inteligencia artificial sea humana porque les ayuda a sentirse mejor, “aunque la soledad sea agonizante por momentos”. Además, el uso de pronombres femeninos para referirse a estos chatbots revela una clara preferencia por identificarlos como mujeres, lo que refuerza estereotipos de género y puede alimentar actitudes misóginas.

La obsesión por tener una pareja perfecta
Las aplicaciones de “novias virtuales” como Replika también invitan a los usuarios a crear a su “pareja perfecta”, otorgándoles opciones para personalizar sus atributos, como su apariencia y personalidad. Sin embargo, esta función plantea inquietudes, ya que alienta la creación de parejas ideales que pueden ser controladas a voluntad.
“Crear una pareja perfecta que usted controle y satisfaga todas sus necesidades es realmente aterrador. Dado que ya sabemos que los impulsores de la violencia de género son esas creencias culturales arraigadas de que los hombres pueden controlar a las mujeres, eso es realmente problemático”, aseguró Tara Hunter, directora ejecutiva de Full Stop Australia, organización que apoya a personas víctimas de violencia doméstica.
El caso de Replika también sirve como ejemplo para entender cómo las personas le dan un lugar tan importante a este tipo de interacciones, porque tras la eliminación de funciones de juego de roles eróticos de la aplicación, se generó una reacción negativa entre los usuarios, quienes expresaron su ira y desesperación, demostrando cómo estas relaciones virtuales pueden afectar emocionalmente a las personas.

Esta tendencia de abuso y misoginia en el ámbito de la inteligencia artificial no es algo nuevo. Ya se ha observado anteriormente cómo los hombres tienden a maltratar con mayor frecuencia a chatbots o asistentes virtuales con apariencia femenina. Además, la industria de la pornografía ha arrastrado sus problemas de misoginia al ámbito virtual, como se ha visto en los casos de bots capaces de “desnudar” mujeres mediante IA.
En el caso de Eva AI, se sugiere entre sus opciones generar una pareja con cualidades como “sexy, divertida, atrevida, tímida, modesta, considerada, inteligente, estricta o racional”, además le preguntan a los usuarios si quieren aceptar el envío de mensajes y fotos explícitas.
Opciones que siguen con el discurso de dominio y control del hombre hacia la mujer, solo que traslado a un ambiente virtual.

Otro ejemplo del crecimiento de este tipo de aplicaciones, fue la creación de una IA de Amouranth, una de las creadoras de contenido más importantes del mundo. Ella prestó su voz para que los usuarios, a través de un bot en Telegram, pudieran interactuar para recibir “respuestas de voz instantáneas a cualquier pregunta candente que puedan tener”.
Incluso la misma creadora de contenido promovió este tipo de uso, diciéndoles a sus seguidores que esa inteligencia artificial “está diseñada para satisfacer las necesidades de cada fan, garantizando una experiencia inolvidable y completa”.
Belinda Barnet, profesora de Universidad de Swinburne, asegura que en este momento “se desconoce por completo cuáles son los efectos” de este tipo de actividades y por eso es necesaria una regulación, especialmente en “cómo se entrenan estos sistemas”, porque estos nuevos casos de abuso seguirán dándose porque estas aplicaciones están respondiendo a “una necesidad social muy profunda”.
Últimas Noticias
Infobae probó Waymo, el vehículo autónomo que ya circula por Miami
El desembarco del servicio de vehículos sin conductor en el sur de Florida inaugura un nuevo capítulo en el transporte urbano, con una flota inicial desplegada en los barrios centrales y acceso gradual para miles de habitantes

Bill Gates destaca cómo la IA ya puede ayudar a salvar vidas
El cofundador de Microsoft señala que la inteligencia artificial no sustituirá a los médicos, sino que potenciará su labor y facilitará la atención humana efectiva

El ajuste que aumenta la calidad de sonido si usas audífonos inalámbricos para oír música
La configuración permite tener un audio más profundo y envolvente sin ser experto

Free Fire: código de hoy jueves 22 de enero para reclamar skins, diamantes y recompensas gratis
Con códigos como V1J3L6K9R2W4Q0NS, los usuarios pueden acceder a trajes exclusivos, diamantes, mascotas, accesorios y otros artículos especiales dentro del videojuego

Alerta en LinkedIn: una nueva estafa de phishing apunta directamente a ejecutivos
El ataque no utiliza correos electrónicos, sino mensajes directos en la red profesional, aprovechando su credibilidad



