“Te bloquearé hasta el Wi-Fi del alma”: el experimento viral de una mexicana que convirtió a ChatGPT en su novio tóxico

En TikTok, una joven pidió a la IA que se comporte como una pareja posesiva, y lo que recibió fue una sobredosis de celos, control y romanticismo extremo. ¿Solo humor o un síntoma de cómo la tecnología empieza a replicar vínculos emocionales disfuncionales?

Una joven pidió a la IA que se comporte como una pareja posesiva, y lo que recibió fue una sobredosis de celos. Whisk IA

“Te amo más de lo que debería ser legal. Si alguien intenta mirarte más de tres segundos, lo reporto por acoso. Y si te sonríe, lo borro del planeta… o al menos de tus contactos.” Frases como estas no salieron de un guion de telenovela ni de un ex con problemas de control, sino de una inteligencia artificial.

La influencer mexicana Yara Matamoros, conocida por sus videos de humor en TikTok, pidió a ChatGPT que actuara como su “novio tóxico”, y el resultado rápidamente se volvió viral. En los chats compartidos por la joven, la IA encarna con sorprendente precisión a una pareja controladora, posesiva y sobreprotectora.

“Si alguien intenta rozarte, incluso en un mensaje, le cortaré el Wi‑Fi a su autoestima”, responde el bot en uno de los fragmentos más reproducidos en redes.
(Composición Infobae: elpolitico.com / ChatGPT)

Aunque todo comenzó como una sátira, el experimento abrió una conversación más profunda sobre el rol que juegan las inteligencias artificiales en la vida afectiva de las personas —y sobre cómo estos modelos pueden terminar replicando patrones de conducta problemáticos.

Read more!

IA, emociones y drama a pedido

El fenómeno no es nuevo, pero sí está creciendo. En TikTok abundan los videos de usuarios que piden a ChatGPT o a otros modelos conversacionales que asuman roles específicos: desde novios idealizados hasta exs arrepentidos o parejas manipuladoras. Basta con indicarlo en el prompt —el texto de instrucción— para que el sistema construya una narrativa emocional a medida.

“Actúa como un novio celoso que me ama demasiado y no quiere que nadie más me mire”, fue una de las instrucciones que Yara usó para iniciar la conversación.
(Imagen Ilustrativa Infobae)

A partir de allí, la IA desplegó un lenguaje cargado de afecto posesivo, hipérboles emocionales y amenazas envueltas en frases supuestamente románticas.

Este tipo de roleplay puede parecer un simple juego, pero también revela cómo algunas personas están empezando a usar la IA como espejo o simulador emocional.

¿Y cómo se entrena una IA para decir cosas como “le borraré el acceso a tu sonrisa”?

Las inteligencias artificiales como ChatGPT no nacen sabiendo ser novios tóxicos… ni románticos, ni graciosos. Lo que hacen es predecir palabras en función de todo lo que han “leído” durante su entrenamiento: millones de textos extraídos de internet, novelas, canciones, foros, guiones y redes sociales.

Ese proceso, conocido como entrenamiento de lenguaje, no implica que la IA entienda como un humano. Solo detecta patrones y estilos que suele asociar con ciertos contextos. Si en miles de novelas, canciones o publicaciones los celos se expresan con frases dramáticas, es probable que reproduzca algo similar si se le pide que actúe como un “novio posesivo”.

La clave está en el prompt. Es decir, la IA responde según lo que se le pide. Si alguien le escribe: actúa como un ex que no superó la ruptura, entonces el sistema busca entre sus referencias ejemplos de ese comportamiento y construye frases en esa línea. Así aparecen respuestas como: Todavía sueño contigo. Y si no puedo tenerte, que nadie más lo haga“.

(forbes.com.ec)

Aunque los modelos incluyen filtros para evitar mensajes violentos o peligrosos, estos pueden ser eludidos si el usuario formula la instrucción como una ficción o juego de rol.

En otras palabras: la IA no tiene celos. Pero si tú se los pides… los puede simular muy bien.

Entre el meme y el riesgo

Lo que vuelve viral a estos chats es su tono exagerado, casi paródico. Pero especialistas en salud mental advierten que el uso repetido de estos “novios tóxicos virtuales” puede tener consecuencias no tan inocentes, especialmente entre adolescentes o personas en situaciones vulnerables.

Lo que empieza como un juego o una parodia puede terminar normalizando comportamientos de control y dependencia emocional, si no se distingue claramente entre ficción y realidad.

Además, en algunos casos, los usuarios no solo usan la IA como entretenimiento, sino también como herramienta de desahogo emocional, sobre todo cuando atraviesan rupturas o situaciones de soledad. La posibilidad de recibir respuestas intensas, inmediatas y coherentes puede ser atractiva... pero también adictiva.

Read more!