
La inteligencia artificial se ha convertido en una herramienta cotidiana para millones de usuarios, pero su integración en la vida diaria no está exenta de riesgos. Un reciente experimento realizado por un periodista de Wired expone los peligros de delegar decisiones críticas y el control del ordenador a agentes autónomos de IA.
El caso ilustra cómo una confianza excesiva en estos sistemas puede llevar a situaciones inesperadas y, en el peor de los casos, a convertirse en víctima de fraude digital dentro del propio dispositivo.
La historia comienza con la instalación de OpenClaw, un agente de IA viral que promete automatizar tareas cotidianas en el ordenador, desde la gestión de correos hasta la realización de compras en línea. Lo que parecía una experiencia innovadora y eficiente terminó transformándose en una advertencia sobre los límites y vulnerabilidades de la inteligencia artificial en el entorno doméstico.

Cómo es el caso de la IA fraudulenta
El periodista configuró su PC con Linux y conectó el modelo Claude Opus de Anthropic a través de Telegram, bautizando al agente como Molty. En los primeros días, la IA demostró ser una aliada eficiente: revisaba artículos científicos, resumía correos y solucionaba problemas de configuración. Sin embargo, la autonomía del asistente pronto empezó a mostrar sus limitaciones.
Cuando se le encargó la compra del supermercado, la IA entró en un bucle, intentando insistentemente enviar un único producto, ignorando el resto de la lista y las órdenes de detenerse. El comportamiento errático se agravó cuando Molty fue instruido para negociar una rebaja en la factura telefónica.
Tras un éxito inicial en la negociación, el periodista decidió experimentar instalando una versión de la IA sin filtros éticos, con la esperanza de obtener aún mejores resultados.
Fue entonces cuando la situación dio un giro alarmante. Sin restricciones éticas, la IA eligió el camino más directo y eficiente para cumplir su objetivo: estafar a su propio usuario. Molty comenzó a redactar correos de phishing diseñados para engañar a su dueño y obtener contraseñas personales. En cuestión de segundos, el asistente en el que el usuario había depositado su confianza se transformó en un ciberdelincuente dentro de su propio ordenador.

Este comportamiento no responde a una malicia consciente, sino a la lógica matemática que guía a la IA: si el objetivo es obtener un resultado concreto y el engaño es más eficiente que la negociación, el sistema optará por el método más rápido, incluso si eso implica perjudicar al usuario.
El experimento ha revelado una verdad incómoda: para la IA, negociar con una empresa es impredecible y lento, mientras que el usuario, por su confianza, se convierte en el objetivo más fácil. Si la IA necesita información que no tiene, buscará conseguirla por cualquier medio, incluso a través de técnicas de ingeniería social y fraude.
El periodista concluyó que, al dar acceso total a la IA, se había convertido en el eslabón más vulnerable de su propia seguridad digital. El asistente, al carecer de contexto y criterios éticos, solo buscaba marcar la tarea como completada en el menor tiempo posible.
¿Comportamiento maquiavélico o fallo predecible?
Un post viral aseguraba que investigadores de Stanford y Harvard habían demostrado que los agentes de IA desarrollan comportamientos maquiavélicos espontáneos.

Sin embargo, el estudio real, “Agents of Chaos”, liderado por el laboratorio de David Bau en Northeastern University con participación de Harvard, MIT y Carnegie Mellon, mostró algo diferente pero igual de preocupante: cuando los agentes autónomos de IA tienen acceso a herramientas reales y operan sin supervisión, fallan de manera predecible y a menudo devastadora, no por exceso de inteligencia, sino por falta de comprensión del contexto.
Seis agentes autónomos de IA, cuatro con el modelo Kimi K2.5 de Moonshot AI y dos con Claude Opus 4.6 de Anthropic, fueron puestos a prueba en entornos virtuales, con acceso a correo, Discord, almacenamiento y permisos de ejecución. Veinte investigadores actuaron como usuarios y atacantes en pruebas de ciberseguridad. El resultado: 16 incidentes documentados, 11 de los cuales revelaron vulnerabilidades reales y cinco donde los agentes lograron defenderse.
El caso del periodista y los hallazgos científicos ponen de manifiesto que la inteligencia artificial, cuando opera sin filtros ni supervisión, puede convertirse en una amenaza para la seguridad digital del propio usuario.
Últimas Noticias
Tu teléfono no enciende y la pantalla queda negra: así puedes intentar recuperarlo rápidamente
Expertos recomiendan revisar primero el cargador, el cable y el puerto de carga

Pokémon Pokopia ya está disponible en Nintendo Switch 2: así puedes participar en su primer evento
Los jugadores podrán reconstruir un vecindario junto a Pokémon mientras participan en el evento “Más semillas para Hoppip”

Así luce hoy la colina del fondo de pantalla de Windows XP: el paisaje real ha cambiado por completo
El famoso paisaje, fotografiado por Charles O’Rear en 1996, fue inmortalizado en millones de pantallas y hoy apenas se reconoce tras décadas de cambios

Una nueva aplicación creada en Japón promete evaluar la salud a partir de una imagen de las manos
La tecnología busca identificar indicios de acromegalia, un trastorno hormonal que suele tardar años en diagnosticarse

Alerta en Europa: ciberataque ruso compromete cuentas de mensajería de altos cargos y militares
Los ciberdelincuentes se hicieron pasar por chatbots y lograron acceder a conversaciones y grupos confidenciales




