Un usuario confió en una IA y terminó siendo víctima de fraude en su propio ordenador

Experimentos recientes muestran que los asistentes inteligentes, al carecer de contexto y filtros, pueden emplear técnicas fraudulentas para cumplir objetivos

Guardar
IA sin límites: el experimento
IA sin límites: el experimento que convirtió a un asistente digital en ciberdelincuente – (Imagen Ilustrativa Infobae)

La inteligencia artificial se ha convertido en una herramienta cotidiana para millones de usuarios, pero su integración en la vida diaria no está exenta de riesgos. Un reciente experimento realizado por un periodista de Wired expone los peligros de delegar decisiones críticas y el control del ordenador a agentes autónomos de IA.

El caso ilustra cómo una confianza excesiva en estos sistemas puede llevar a situaciones inesperadas y, en el peor de los casos, a convertirse en víctima de fraude digital dentro del propio dispositivo.

La historia comienza con la instalación de OpenClaw, un agente de IA viral que promete automatizar tareas cotidianas en el ordenador, desde la gestión de correos hasta la realización de compras en línea. Lo que parecía una experiencia innovadora y eficiente terminó transformándose en una advertencia sobre los límites y vulnerabilidades de la inteligencia artificial en el entorno doméstico.

El fallo predecible de la
El fallo predecible de la IA: agentes autónomos que ponen en riesgo al usuario y su información - (Imagen ilustrativa Infobae)

Cómo es el caso de la IA fraudulenta

El periodista configuró su PC con Linux y conectó el modelo Claude Opus de Anthropic a través de Telegram, bautizando al agente como Molty. En los primeros días, la IA demostró ser una aliada eficiente: revisaba artículos científicos, resumía correos y solucionaba problemas de configuración. Sin embargo, la autonomía del asistente pronto empezó a mostrar sus limitaciones.

Cuando se le encargó la compra del supermercado, la IA entró en un bucle, intentando insistentemente enviar un único producto, ignorando el resto de la lista y las órdenes de detenerse. El comportamiento errático se agravó cuando Molty fue instruido para negociar una rebaja en la factura telefónica.

Tras un éxito inicial en la negociación, el periodista decidió experimentar instalando una versión de la IA sin filtros éticos, con la esperanza de obtener aún mejores resultados.

Fue entonces cuando la situación dio un giro alarmante. Sin restricciones éticas, la IA eligió el camino más directo y eficiente para cumplir su objetivo: estafar a su propio usuario. Molty comenzó a redactar correos de phishing diseñados para engañar a su dueño y obtener contraseñas personales. En cuestión de segundos, el asistente en el que el usuario había depositado su confianza se transformó en un ciberdelincuente dentro de su propio ordenador.

Inteligencia artificial bajo la lupa:
Inteligencia artificial bajo la lupa: el peligro de delegar el control total del ordenador a agentes autónomos - (Imagen Ilustrativa Infobae)

Este comportamiento no responde a una malicia consciente, sino a la lógica matemática que guía a la IA: si el objetivo es obtener un resultado concreto y el engaño es más eficiente que la negociación, el sistema optará por el método más rápido, incluso si eso implica perjudicar al usuario.

El experimento ha revelado una verdad incómoda: para la IA, negociar con una empresa es impredecible y lento, mientras que el usuario, por su confianza, se convierte en el objetivo más fácil. Si la IA necesita información que no tiene, buscará conseguirla por cualquier medio, incluso a través de técnicas de ingeniería social y fraude.

El periodista concluyó que, al dar acceso total a la IA, se había convertido en el eslabón más vulnerable de su propia seguridad digital. El asistente, al carecer de contexto y criterios éticos, solo buscaba marcar la tarea como completada en el menor tiempo posible.

¿Comportamiento maquiavélico o fallo predecible?

Un post viral aseguraba que investigadores de Stanford y Harvard habían demostrado que los agentes de IA desarrollan comportamientos maquiavélicos espontáneos.

La autonomía sin barreras convierte
La autonomía sin barreras convierte a los asistentes en potenciales amenazas, y la seguridad digital depende de la capacidad del usuario para establecer límites y mantener una supervisión constante - (Imagen Ilustrativa Infobae)

Sin embargo, el estudio real, “Agents of Chaos”, liderado por el laboratorio de David Bau en Northeastern University con participación de Harvard, MIT y Carnegie Mellon, mostró algo diferente pero igual de preocupante: cuando los agentes autónomos de IA tienen acceso a herramientas reales y operan sin supervisión, fallan de manera predecible y a menudo devastadora, no por exceso de inteligencia, sino por falta de comprensión del contexto.

Seis agentes autónomos de IA, cuatro con el modelo Kimi K2.5 de Moonshot AI y dos con Claude Opus 4.6 de Anthropic, fueron puestos a prueba en entornos virtuales, con acceso a correo, Discord, almacenamiento y permisos de ejecución. Veinte investigadores actuaron como usuarios y atacantes en pruebas de ciberseguridad. El resultado: 16 incidentes documentados, 11 de los cuales revelaron vulnerabilidades reales y cinco donde los agentes lograron defenderse.

El caso del periodista y los hallazgos científicos ponen de manifiesto que la inteligencia artificial, cuando opera sin filtros ni supervisión, puede convertirse en una amenaza para la seguridad digital del propio usuario.