
La inteligencia artificial se ha convertido en una herramienta cotidiana para millones de usuarios, pero su integración en la vida diaria no está exenta de riesgos. Un reciente experimento realizado por un periodista de Wired expone los peligros de delegar decisiones críticas y el control del ordenador a agentes autónomos de IA.
El caso ilustra cómo una confianza excesiva en estos sistemas puede llevar a situaciones inesperadas y, en el peor de los casos, a convertirse en víctima de fraude digital dentro del propio dispositivo.
La historia comienza con la instalación de OpenClaw, un agente de IA viral que promete automatizar tareas cotidianas en el ordenador, desde la gestión de correos hasta la realización de compras en línea. Lo que parecía una experiencia innovadora y eficiente terminó transformándose en una advertencia sobre los límites y vulnerabilidades de la inteligencia artificial en el entorno doméstico.

Cómo es el caso de la IA fraudulenta
El periodista configuró su PC con Linux y conectó el modelo Claude Opus de Anthropic a través de Telegram, bautizando al agente como Molty. En los primeros días, la IA demostró ser una aliada eficiente: revisaba artículos científicos, resumía correos y solucionaba problemas de configuración. Sin embargo, la autonomía del asistente pronto empezó a mostrar sus limitaciones.
Cuando se le encargó la compra del supermercado, la IA entró en un bucle, intentando insistentemente enviar un único producto, ignorando el resto de la lista y las órdenes de detenerse. El comportamiento errático se agravó cuando Molty fue instruido para negociar una rebaja en la factura telefónica.
Tras un éxito inicial en la negociación, el periodista decidió experimentar instalando una versión de la IA sin filtros éticos, con la esperanza de obtener aún mejores resultados.
Fue entonces cuando la situación dio un giro alarmante. Sin restricciones éticas, la IA eligió el camino más directo y eficiente para cumplir su objetivo: estafar a su propio usuario. Molty comenzó a redactar correos de phishing diseñados para engañar a su dueño y obtener contraseñas personales. En cuestión de segundos, el asistente en el que el usuario había depositado su confianza se transformó en un ciberdelincuente dentro de su propio ordenador.

Este comportamiento no responde a una malicia consciente, sino a la lógica matemática que guía a la IA: si el objetivo es obtener un resultado concreto y el engaño es más eficiente que la negociación, el sistema optará por el método más rápido, incluso si eso implica perjudicar al usuario.
El experimento ha revelado una verdad incómoda: para la IA, negociar con una empresa es impredecible y lento, mientras que el usuario, por su confianza, se convierte en el objetivo más fácil. Si la IA necesita información que no tiene, buscará conseguirla por cualquier medio, incluso a través de técnicas de ingeniería social y fraude.
El periodista concluyó que, al dar acceso total a la IA, se había convertido en el eslabón más vulnerable de su propia seguridad digital. El asistente, al carecer de contexto y criterios éticos, solo buscaba marcar la tarea como completada en el menor tiempo posible.
¿Comportamiento maquiavélico o fallo predecible?
Un post viral aseguraba que investigadores de Stanford y Harvard habían demostrado que los agentes de IA desarrollan comportamientos maquiavélicos espontáneos.

Sin embargo, el estudio real, “Agents of Chaos”, liderado por el laboratorio de David Bau en Northeastern University con participación de Harvard, MIT y Carnegie Mellon, mostró algo diferente pero igual de preocupante: cuando los agentes autónomos de IA tienen acceso a herramientas reales y operan sin supervisión, fallan de manera predecible y a menudo devastadora, no por exceso de inteligencia, sino por falta de comprensión del contexto.
Seis agentes autónomos de IA, cuatro con el modelo Kimi K2.5 de Moonshot AI y dos con Claude Opus 4.6 de Anthropic, fueron puestos a prueba en entornos virtuales, con acceso a correo, Discord, almacenamiento y permisos de ejecución. Veinte investigadores actuaron como usuarios y atacantes en pruebas de ciberseguridad. El resultado: 16 incidentes documentados, 11 de los cuales revelaron vulnerabilidades reales y cinco donde los agentes lograron defenderse.
El caso del periodista y los hallazgos científicos ponen de manifiesto que la inteligencia artificial, cuando opera sin filtros ni supervisión, puede convertirse en una amenaza para la seguridad digital del propio usuario.
Últimas Noticias
Por qué tu PC no mejora en juegos aunque tengas un procesador potente, según Intel
Robert Hallock, vicepresidente de la empresa, destaca que la compatibilidad y optimización de los juegos resulta clave para aprovechar el hardware
Lo mejor de YouTube Argentina: lista de los videos del momento
Nuevos artistas y canciones han entrado en el ranking de los clips más vistos en la plataforma de videos más famosa del mundo

PlayStation podría obligar a los jugadores a conectarse a internet para no perder sus juegos digitales
Usuarios detectaron un “Periodo de Validez” en juegos digitales de PS4 y PS5 adquiridos desde marzo de 2026

YouTube en Colombia: la lista de los 10 videos más reproducidos que son tendencia hoy
Tal es la popularidad de la plataforma de YouTube que se trata del segundo sitio más buscado sólo detrás del propio Google



