
La creciente popularidad de los modelos de inteligencia artificial (IA) de código abierto ha permitido que miles de usuarios descarguen y ejecuten versiones gratuitas en sus computadoras personales o servidores. Sin embargo, esta accesibilidad trae consigo riesgos de seguridad significativos.
Una investigación conjunta de las empresas de ciberseguridad SentinelOne y Censys, difundida por Reuters, revela que los hackers pueden tomar el control de equipos que operan modelos de lenguaje de código abierto y utilizarlos para actividades ilícitas.
Los expertos advierten que, al ejecutar modelos de IA fuera de las plataformas oficiales y sin las restricciones de seguridad implementadas por los grandes desarrolladores, los usuarios exponen sus dispositivos a la manipulación remota. Los ciberdelincuentes aprovechan estas vulnerabilidades para transformar computadoras ajenas en herramientas para enviar spam, crear campañas de phishing, diseminar desinformación y llevar a cabo fraudes, entre otros delitos.

Cómo los hackers explotan las IAs de código abierto
El estudio, realizado a lo largo de 293 días, analizó miles de implementaciones públicas de modelos de lenguaje abiertos a través de Ollama, una herramienta que facilita la ejecución local de diferentes tipos de IA. Los investigadores identificaron que muchos de estos modelos, incluyendo variantes de Llama (Meta) y Gemma (Google DeepMind), funcionaban en servidores sin controles de seguridad apropiados, e incluso varios habían eliminado deliberadamente sus limitaciones integradas.
Según SentinelOne y Censys, alrededor de un 7,5% de los modelos analizados podrían habilitar actividades dañinas, y aproximadamente el 30% de los servidores detectados operan desde China, mientras que un 20% lo hace desde Estados Unidos. El alcance de los riesgos abarca desde el robo de datos personales, la difusión de discursos de odio y acoso, la generación de contenido violento o ilegal, hasta la facilitación de fraudes y estafas online.
Juan Andres Guerrero-Saade, director ejecutivo de inteligencia y seguridad en SentinelOne, comparó la situación con un “iceberg” del que solo se percibe una pequeña parte, mientras que la mayor parte del problema permanece oculta y sin control suficiente por parte de la industria y la comunidad open source. “Las conversaciones sobre controles de seguridad en el sector de la IA están ignorando este exceso de capacidad, que claramente se utiliza para todo tipo de propósitos, algunos legítimos y otros evidentemente criminales”, advirtió.

Los investigadores pudieron observar los prompts de sistema —las instrucciones que guían el comportamiento del modelo— en una cuarta parte de las implementaciones públicas. Descubrieron que en muchos casos estos prompts permitían o facilitaban el desarrollo de conductas dañinas, desde la generación de spam hasta la creación de materiales ilegales.
El desafío de la responsabilidad y la necesidad de mayores controles
La apertura de los modelos de IA ha generado un debate sobre la responsabilidad de quienes los desarrollan y los riesgos que implica su libre distribución. Rachel Adams, directora del Global Center on AI Governance, señaló que la responsabilidad sobre los mal usos de los modelos abiertos es compartida entre los laboratorios de origen, los desarrolladores y los usuarios.
Si bien los laboratorios no pueden prever todos los posibles abusos, tienen la obligación de anticipar riesgos, documentarlos y proporcionar herramientas y guías para mitigarlos, especialmente en un contexto donde la aplicación de la ley es desigual a nivel global.

Meta, desarrolladora de Llama, dispone de herramientas de protección y guías para promover el uso responsable de sus modelos, aunque evita pronunciarse sobre la responsabilidad de los desarrolladores externos frente a los abusos.
Por su parte, Microsoft afirma que los modelos de código abierto tienen un papel importante en la innovación, pero reconoce que pueden ser manipulados por actores maliciosos si no se implementan salvaguardas adecuadas. La empresa evalúa los riesgos antes de lanzar un modelo y monitorea activamente las amenazas emergentes.
El caso pone de manifiesto que descargar y ejecutar una IA gratuita en una computadora personal sin las debidas precauciones puede abrir la puerta a ataques y usos ilícitos. La rápida expansión de estos modelos exige un compromiso de toda la cadena de creación, despliegue y uso para fortalecer los controles y minimizar los riesgos en el ecosistema de la inteligencia artificial.
Últimas Noticias
El secreto para limpiar la pantalla del televisor y lograr un resultado perfecto
Las pantallas LED y LCD, por su composición de placas yuxtapuestas y sensibles, deben tratarse con delicadeza para evitar presión excesiva o rayaduras

Jensen Huang, CEO de Nvidia, calcula las cuantiosas sumas que se pagarían a robots cada año
El directivo subraya que el mundo enfrentará un déficit de al menos 50 millones de trabajadores humanos para finales de esta década
Google DeepMind presenta una nueva IA para detectar las fallas genéticas que causan enfermedades
Este modelo avanzado de inteligencia artificial ha sido entrenado con datos de humanos y ratones

Estas son las habilidades que Sam Altman recomienda para dominar en la era de la IA
El director ejecutivo de OpenAI señala que la capacidad de tener iniciativa y ser bueno generando ideas es altamente valorada en estos momentos

Universal Music demanda a Anthropic: acusan a la IA Claude de piratear a los Rolling Stones y Elton John
La editorial musical reclama a la empresa tecnológica una indemnización superior a USD 3.000 millones por posibles daños legales




