
La creciente popularidad de los modelos de inteligencia artificial (IA) de código abierto ha permitido que miles de usuarios descarguen y ejecuten versiones gratuitas en sus computadoras personales o servidores. Sin embargo, esta accesibilidad trae consigo riesgos de seguridad significativos.
Una investigación conjunta de las empresas de ciberseguridad SentinelOne y Censys, difundida por Reuters, revela que los hackers pueden tomar el control de equipos que operan modelos de lenguaje de código abierto y utilizarlos para actividades ilícitas.
Los expertos advierten que, al ejecutar modelos de IA fuera de las plataformas oficiales y sin las restricciones de seguridad implementadas por los grandes desarrolladores, los usuarios exponen sus dispositivos a la manipulación remota. Los ciberdelincuentes aprovechan estas vulnerabilidades para transformar computadoras ajenas en herramientas para enviar spam, crear campañas de phishing, diseminar desinformación y llevar a cabo fraudes, entre otros delitos.

Cómo los hackers explotan las IAs de código abierto
El estudio, realizado a lo largo de 293 días, analizó miles de implementaciones públicas de modelos de lenguaje abiertos a través de Ollama, una herramienta que facilita la ejecución local de diferentes tipos de IA. Los investigadores identificaron que muchos de estos modelos, incluyendo variantes de Llama (Meta) y Gemma (Google DeepMind), funcionaban en servidores sin controles de seguridad apropiados, e incluso varios habían eliminado deliberadamente sus limitaciones integradas.
Según SentinelOne y Censys, alrededor de un 7,5% de los modelos analizados podrían habilitar actividades dañinas, y aproximadamente el 30% de los servidores detectados operan desde China, mientras que un 20% lo hace desde Estados Unidos. El alcance de los riesgos abarca desde el robo de datos personales, la difusión de discursos de odio y acoso, la generación de contenido violento o ilegal, hasta la facilitación de fraudes y estafas online.
Juan Andres Guerrero-Saade, director ejecutivo de inteligencia y seguridad en SentinelOne, comparó la situación con un “iceberg” del que solo se percibe una pequeña parte, mientras que la mayor parte del problema permanece oculta y sin control suficiente por parte de la industria y la comunidad open source. “Las conversaciones sobre controles de seguridad en el sector de la IA están ignorando este exceso de capacidad, que claramente se utiliza para todo tipo de propósitos, algunos legítimos y otros evidentemente criminales”, advirtió.

Los investigadores pudieron observar los prompts de sistema —las instrucciones que guían el comportamiento del modelo— en una cuarta parte de las implementaciones públicas. Descubrieron que en muchos casos estos prompts permitían o facilitaban el desarrollo de conductas dañinas, desde la generación de spam hasta la creación de materiales ilegales.
El desafío de la responsabilidad y la necesidad de mayores controles
La apertura de los modelos de IA ha generado un debate sobre la responsabilidad de quienes los desarrollan y los riesgos que implica su libre distribución. Rachel Adams, directora del Global Center on AI Governance, señaló que la responsabilidad sobre los mal usos de los modelos abiertos es compartida entre los laboratorios de origen, los desarrolladores y los usuarios.
Si bien los laboratorios no pueden prever todos los posibles abusos, tienen la obligación de anticipar riesgos, documentarlos y proporcionar herramientas y guías para mitigarlos, especialmente en un contexto donde la aplicación de la ley es desigual a nivel global.

Meta, desarrolladora de Llama, dispone de herramientas de protección y guías para promover el uso responsable de sus modelos, aunque evita pronunciarse sobre la responsabilidad de los desarrolladores externos frente a los abusos.
Por su parte, Microsoft afirma que los modelos de código abierto tienen un papel importante en la innovación, pero reconoce que pueden ser manipulados por actores maliciosos si no se implementan salvaguardas adecuadas. La empresa evalúa los riesgos antes de lanzar un modelo y monitorea activamente las amenazas emergentes.
El caso pone de manifiesto que descargar y ejecutar una IA gratuita en una computadora personal sin las debidas precauciones puede abrir la puerta a ataques y usos ilícitos. La rápida expansión de estos modelos exige un compromiso de toda la cadena de creación, despliegue y uso para fortalecer los controles y minimizar los riesgos en el ecosistema de la inteligencia artificial.
Últimas Noticias
La inteligencia artificial ya cambia el juego de los ciberataques
El auge de fraudes automatizados y deepfakes obliga a repensar la vigilancia tecnológica y aumenta los desafíos para usuarios y empresas

Guía segura 2026 para conectar el celular a un red WiFi sin saber la contraseña
Solo necesitas disponer de otro dispositivo, como un teléfono o una computadora, que ya esté conectado a ese internet

Modo otoño en WhatsApp: cómo activarlo para personalizar la app
Con Meta AI puedes crear fondos de chat personalizados y configurar notificaciones con sonidos de hojas secas

Estos son los cursos online de Google gratis que dan certificado: guía para inscribirse en marzo 2026
Los usuarios pueden acceder a cursos en áreas como desarrollo de aplicaciones móviles, cloud computing y productividad personal
Nintendo: esta es la lista completa de juegos en descuento y cómo conseguirlos
Algunos de los títulos que se encuentran en rebaja son Cozy Grove, NieR: Automata The End of YoRHa Edition, HARVESTELLA, entre otros




