¿Descargaste una IA gratis en tu PC? Este fallo de seguridad deja la puerta abierta a los hackers

El uso de modelos de inteligencia artificial de código abierto sin controles adecuados expone a miles de usuarios a riesgos de seguridad

Guardar
Hackers pueden transformar computadoras con
Hackers pueden transformar computadoras con IA abierta en plataformas para fraudes y campañas de desinformación. (Imagen Ilustrativa Infobae)

La creciente popularidad de los modelos de inteligencia artificial (IA) de código abierto ha permitido que miles de usuarios descarguen y ejecuten versiones gratuitas en sus computadoras personales o servidores. Sin embargo, esta accesibilidad trae consigo riesgos de seguridad significativos.

Una investigación conjunta de las empresas de ciberseguridad SentinelOne y Censys, difundida por Reuters, revela que los hackers pueden tomar el control de equipos que operan modelos de lenguaje de código abierto y utilizarlos para actividades ilícitas.

Los expertos advierten que, al ejecutar modelos de IA fuera de las plataformas oficiales y sin las restricciones de seguridad implementadas por los grandes desarrolladores, los usuarios exponen sus dispositivos a la manipulación remota. Los ciberdelincuentes aprovechan estas vulnerabilidades para transformar computadoras ajenas en herramientas para enviar spam, crear campañas de phishing, diseminar desinformación y llevar a cabo fraudes, entre otros delitos.

SentinelOne y Censys detectaron vulnerabilidades
SentinelOne y Censys detectaron vulnerabilidades en modelos de IA de código abierto ejecutados sin protección. (Imagen Ilustrativa Infobae)

Cómo los hackers explotan las IAs de código abierto

El estudio, realizado a lo largo de 293 días, analizó miles de implementaciones públicas de modelos de lenguaje abiertos a través de Ollama, una herramienta que facilita la ejecución local de diferentes tipos de IA. Los investigadores identificaron que muchos de estos modelos, incluyendo variantes de Llama (Meta) y Gemma (Google DeepMind), funcionaban en servidores sin controles de seguridad apropiados, e incluso varios habían eliminado deliberadamente sus limitaciones integradas.

Según SentinelOne y Censys, alrededor de un 7,5% de los modelos analizados podrían habilitar actividades dañinas, y aproximadamente el 30% de los servidores detectados operan desde China, mientras que un 20% lo hace desde Estados Unidos. El alcance de los riesgos abarca desde el robo de datos personales, la difusión de discursos de odio y acoso, la generación de contenido violento o ilegal, hasta la facilitación de fraudes y estafas online.

Juan Andres Guerrero-Saade, director ejecutivo de inteligencia y seguridad en SentinelOne, comparó la situación con un “iceberg” del que solo se percibe una pequeña parte, mientras que la mayor parte del problema permanece oculta y sin control suficiente por parte de la industria y la comunidad open source. “Las conversaciones sobre controles de seguridad en el sector de la IA están ignorando este exceso de capacidad, que claramente se utiliza para todo tipo de propósitos, algunos legítimos y otros evidentemente criminales”, advirtió.

El 7,5% de los modelos
El 7,5% de los modelos analizados permitiría actividades dañinas, según el estudio. (Imagen Ilustrativa Infobae)

Los investigadores pudieron observar los prompts de sistema —las instrucciones que guían el comportamiento del modelo— en una cuarta parte de las implementaciones públicas. Descubrieron que en muchos casos estos prompts permitían o facilitaban el desarrollo de conductas dañinas, desde la generación de spam hasta la creación de materiales ilegales.

El desafío de la responsabilidad y la necesidad de mayores controles

La apertura de los modelos de IA ha generado un debate sobre la responsabilidad de quienes los desarrollan y los riesgos que implica su libre distribución. Rachel Adams, directora del Global Center on AI Governance, señaló que la responsabilidad sobre los mal usos de los modelos abiertos es compartida entre los laboratorios de origen, los desarrolladores y los usuarios.

Si bien los laboratorios no pueden prever todos los posibles abusos, tienen la obligación de anticipar riesgos, documentarlos y proporcionar herramientas y guías para mitigarlos, especialmente en un contexto donde la aplicación de la ley es desigual a nivel global.

Prompts de sistema inseguros facilitan
Prompts de sistema inseguros facilitan la generación de contenido ilegal y spam. (Imagen Ilustrativa Infobae)

Meta, desarrolladora de Llama, dispone de herramientas de protección y guías para promover el uso responsable de sus modelos, aunque evita pronunciarse sobre la responsabilidad de los desarrolladores externos frente a los abusos.

Por su parte, Microsoft afirma que los modelos de código abierto tienen un papel importante en la innovación, pero reconoce que pueden ser manipulados por actores maliciosos si no se implementan salvaguardas adecuadas. La empresa evalúa los riesgos antes de lanzar un modelo y monitorea activamente las amenazas emergentes.

El caso pone de manifiesto que descargar y ejecutar una IA gratuita en una computadora personal sin las debidas precauciones puede abrir la puerta a ataques y usos ilícitos. La rápida expansión de estos modelos exige un compromiso de toda la cadena de creación, despliegue y uso para fortalecer los controles y minimizar los riesgos en el ecosistema de la inteligencia artificial.