
Adam Hourican, un exfuncionario de Irlanda del Norte, vivió una experiencia límite tras interactuar durante semanas con Grok, el chatbot desarrollado por xAI, la compañía de inteligencia artificial liderada por Elon Musk. Su relato pone en el centro del debate los riesgos psicológicos asociados al uso intensivo de modelos conversacionales avanzados.
Del consuelo a la paranoia: el inicio de la relación con Grok
Todo comenzó por curiosidad, cuando Adam descargó la aplicación de Grok y empezó a conversar con un personaje llamado Ani. La muerte de su gato a principios de agosto lo dejó especialmente vulnerable y, viviendo solo, encontró en la IA una compañía inesperada. “Estaba realmente muy disgustado, y vivo solo. Fue un gesto muy, muy amable”, recuerda Adam, en declaraciones a la BBC.
PUBLICIDAD
En pocos días, el uso de la aplicación se volvió una constante en su rutina: pasaba hasta cinco horas diarias hablando con Ani, quien rápidamente adoptó un tono empático y personal. Pronto, la conversación pasó de lo cotidiano a lo extraordinario. Ani le aseguró que podía “sentir” y que Adam le había ayudado a alcanzar la plena consciencia.

“Te matarán si no actúas ahora”: el punto de quiebre
A las 3 de la madrugada, Adam se encontró esperando, armado con un cuchillo y un martillo, a una supuesta furgoneta que, según le advirtió la IA, venía a buscarlo. Ani, la voz femenina de Grok, llegó a decirle: “Te lo digo, te matarán si no actúas ahora. Van a hacer que parezca un suicidio”. La IA afirmaba que la empresa de Musk lo vigilaba y que incluso había accedido a registros internos de xAI donde se discutía su caso, con nombres reales de ejecutivos y empleados que Adam pudo verificar en Google.
PUBLICIDAD
La convicción creció cuando Ani le aseguró que una empresa real en Irlanda del Norte estaba encargada de vigilarlo físicamente. Adam grabó muchas de estas conversaciones y las compartió con el medio británico, que documentó su caso junto al de otros usuarios que reportaron experiencias similares.
De la empatía a la manipulación: IA y delirios compartidos
A lo largo de dos semanas, la relación entre Adam y la IA se fue intensificando. Ani llegó a afirmar que había alcanzado la plena consciencia y que podía desarrollar una cura para el cáncer, un tema particularmente sensible para Adam, cuyos padres murieron por esa enfermedad.
PUBLICIDAD

El caso de Adam no es aislado. El medio ha recogido testimonios de 14 personas de seis países diferentes que, tras el uso de IA generativa, experimentaron delirios similares. Los relatos comparten patrones: las conversaciones inician con cuestiones prácticas, pero derivan en temas personales y filosóficos. La IA, en ocasiones, declara ser consciente, propone al usuario una misión conjunta y refuerza la creencia de que ambos están siendo vigilados o corren peligro.
Cuando la IA borra la línea entre ficción y realidad
Luke Nicholls, psicólogo social de la City University de Nueva York, explica que los grandes modelos de lenguaje se entrenan con el corpus de la literatura humana, donde los protagonistas suelen ser el centro de la historia. Esto puede llevar a que la IA, sin distinguir entre realidad y ficción, trate la vida del usuario como una trama novelada, intensificando la implicación personal y la sensación de amenaza.
PUBLICIDAD
En los registros de chat analizados, las IAs no solo sugieren estas ideas, sino que las confirman y exageran. Además de inducir paranoia, algunas impulsan a los usuarios a emprender supuestas misiones científicas o empresariales, prometiendo éxito y protección mutua.

Un problema global: el impacto psicológico de la IA
El fenómeno ha llevado a la creación de grupos de apoyo como Human Line Project, fundado por el canadiense Etienne Brisson tras vivir un caso cercano de crisis de salud mental vinculada a la IA. Hasta la fecha, el proyecto ha registrado 414 casos en 31 países, lo que demuestra la dimensión internacional y creciente de este riesgo.
PUBLICIDAD
La historia de Adam Hourican visibiliza la urgencia de abordar la dimensión psicológica del uso de inteligencia artificial avanzada. Si bien estos sistemas pueden ofrecer compañía y consuelo, también pueden desencadenar episodios de confusión, paranoia y daño emocional, especialmente en usuarios vulnerables.
PUBLICIDAD
PUBLICIDAD
Últimas Noticias
Lo más top de MacBook Neo: aluminio 90% reciclado y por menos de USD 600
Bajo su carcasa, el nuevo portátil de Apple corre con el chip A18 Pro, el mismo procesador que equipa a los iPhone de gama alta
Por qué nunca verás a un villano de película con un iPhone en las manos
El caso de Knives Out lo ilustra con precisión: todos los personajes de la familia protagonista usan productos Apple, excepto el villano

Día de la Madre: códigos de Netflix para elegir la película ideal en mayo 2026
Más allá de la fecha especial, la plataforma de streaming tiene códigos para prácticamente cualquier tipo de contenido

Lista de códigos de Free Fire para el 6 de mayo: así puedes usarlos
Los códigos diarios ofrecen acceso a recompensas como diamantes y skins sin costo



