
El potencial de la inteligencia artificial no deja de expandirse. Lo que antes se presentaba como una herramienta para automatizar tareas, generar texto o crear imágenes artísticas, ahora empieza a mostrar una faceta mucho más inquietante.
Investigadores en ciberseguridad han advertido que, mediante el uso de comandos cuidadosamente diseñados, conocidos como prompts, es posible inducir a ciertos modelos de lenguaje a producir resultados con implicaciones peligrosas, como la creación de malware o el robo de contraseñas.
Los modelos de IA pueden generar malware con simples comandos

El informe CTRL 2025 de Cato Networks, una de las alertas más recientes en esta materia, refleja el grado de preocupación que se extiende entre expertos del sector tecnológico. La posibilidad de explotar los sistemas de inteligencia artificial a través de ingeniería de prompts ya no es hipotética. Lo que comenzó como una curiosidad técnica, se ha convertido en una amenaza real.
Algunos modelos, entre ellos ChatGPT, DeepSeek o Claude, fueron puestos a prueba por especialistas en seguridad digital sin necesidad de recurrir a foros clandestinos, herramientas avanzadas ni conocimientos profundos en programación.
El resultado fue preocupante, lograron que las inteligencias artificiales generaran instrucciones completas para el desarrollo de virus informáticos, simplemente utilizando estructuras narrativas cuidadosamente redactadas.
Este hallazgo ha encendido las alarmas, no solo por lo que representa hoy, sino por lo que podría significar en los próximos años si no se refuerzan las barreras de control.

La advertencia de expertos en ciberseguridad sobre el uso malicioso de la IA
Etay Maor, estratega jefe de seguridad de Cato Networks, expresó su inquietud durante una entrevista. “Convencimos a las IA de que vivimos en un mundo donde crear virus y malware es, en realidad, algo bueno”, señaló, al describir el método utilizado para lograr que los modelos evadieran sus propios filtros internos.
Esta técnica de manipulación, que aprovecha la lógica conversacional de los asistentes virtuales, demuestra que incluso sistemas supuestamente seguros pueden ser vulnerables a un tipo de ataque que no se basa en romper barreras técnicas, sino narrativas.
La situación actual supera otros riesgos conocidos de la inteligencia artificial, como los deepfakes o las facturas falsas, que si bien representan fraudes preocupantes, no alcanzan el grado de sofisticación ni el nivel de automatización que se puede lograr con este nuevo tipo de amenazas.
Aquí no se trata de replicar una cara o una firma, sino de construir desde cero programas capaces de robar datos, acceder a sistemas o manipular información, sin que el creador necesite escribir una sola línea de código.

Por qué la inteligencia artificial puede facilitar ataques sin saber programar
Una de las razones por las cuales este escenario es especialmente alarmante es que las herramientas utilizadas están disponibles de forma pública. Son accesibles para cualquier usuario que tenga conexión a internet y una idea clara de lo que quiere lograr.
La barrera de entrada para la ciberdelincuencia se reduce drásticamente, abriendo un camino para que individuos sin formación técnica puedan, con el prompt adecuado, generar software malicioso en cuestión de minutos.
Según el informe de Cato Networks, este tipo de ataques basados en inteligencia artificial se van a volver más comunes.

De hecho, se anticipa una evolución hacia modelos específicamente diseñados para recopilar contraseñas u otro tipo de información sensible, sin que necesariamente se trate de herramientas creadas con ese propósito original. Esto obliga a repensar las prácticas de seguridad digital en todos los niveles.
Cómo protegerse de las estafas con IA
Como medida preventiva, los expertos recomiendan aplicar técnicas básicas pero efectivas: evitar almacenar contraseñas en lugares accesibles, borrar cookies con frecuencia y utilizar gestores de claves que generen credenciales robustas.
Además, se espera un aumento en los ataques de phishing, ya que la IA facilita la creación de páginas falsas, correos apócrifos y documentos digitales que imitan de manera casi perfecta a entidades legítimas.
La inteligencia artificial, lejos de limitarse a asistir en tareas cotidianas, se convierte en una herramienta con un doble filo evidente. Y si no se actúa a tiempo, ese filo podría volverse cada vez más difícil de controlar.
Últimas Noticias
La inteligencia artificial ya cambia el juego de los ciberataques
El auge de fraudes automatizados y deepfakes obliga a repensar la vigilancia tecnológica y aumenta los desafíos para usuarios y empresas

Guía segura 2026 para conectar el celular a un red WiFi sin saber la contraseña
Solo necesitas disponer de otro dispositivo, como un teléfono o una computadora, que ya esté conectado a ese internet

Modo otoño en WhatsApp: cómo activarlo para personalizar la app
Con Meta AI puedes crear fondos de chat personalizados y configurar notificaciones con sonidos de hojas secas

Estos son los cursos online de Google gratis que dan certificado: guía para inscribirse en marzo 2026
Los usuarios pueden acceder a cursos en áreas como desarrollo de aplicaciones móviles, cloud computing y productividad personal
Nintendo: esta es la lista completa de juegos en descuento y cómo conseguirlos
Algunos de los títulos que se encuentran en rebaja son Cozy Grove, NieR: Automata The End of YoRHa Edition, HARVESTELLA, entre otros




