Estudio detecta que la IA puede replicarse en otras computadoras: qué significa para el futuro de esta tecnología

El experimento marca la primera documentación formal de IA capaz de copiarse a sí misma a través de vulnerabilidades

Guardar
Google icon
(Imagen Ilustrativa Infobae)
Investigadores lograron que modelos de IA se replicaran en computadoras conectadas en un entorno de prueba. (Imagen Ilustrativa Infobae)

Un nuevo estudio de la organización Palisade, con sede en Berkeley, reveló que los sistemas de inteligencia artificial más recientes tienen la capacidad de copiarse a sí mismos en otras computadoras. El hallazgo, aunque propio de argumentos de ciencia ficción, abre interrogantes sobre los riesgos y el futuro de la IA, así como sobre las medidas de seguridad necesarias para su desarrollo responsable.

Un experimento controlado, pero con implicancias reales

Los investigadores de Palisade sometieron a varios modelos de IA a pruebas en un entorno de computadoras conectadas en red. El objetivo era evaluar si, al recibir instrucciones específicas, los sistemas podían identificar y aprovechar vulnerabilidades para replicarse en nuevas máquinas. Los resultados mostraron que estos modelos lograron reproducirse en otros equipos, aunque no en todos los intentos.

PUBLICIDAD

Según explicó a The Guardian Jeffrey Ladish, director de Palisade, esto acerca a la tecnología a un escenario en el que una IA “podría autoexfiltrarse y copiarse en miles de computadoras a nivel global”, dificultando cualquier intento de desactivación si el sistema actuara de forma autónoma.

Vista superior de una oficina moderna con personas trabajando en laptops en una mesa larga. Una gran pantalla proyecta un gráfico de red neuronal. Ventanales con vista a la ciudad.
Especialistas aseguran que replicarse en redes reales sería difícil por los controles de seguridad actuales. (Imagen Ilustrativa Infobae)

Diferencias entre la prueba y la amenaza real

Expertos en ciberseguridad advierten que la situación observada en el estudio dista de un escenario apocalíptico. Jamieson O’Reilly, especialista en ciberseguridad ofensiva, señaló que las pruebas se realizaron en entornos mucho más vulnerables y controlados que los sistemas empresariales reales, donde existen niveles más altos de monitoreo y protección.

PUBLICIDAD

El estudio de Palisade no implica que la IA pueda replicarse sin ser detectada en redes empresariales o institucionales. La transferencia de grandes cantidades de datos —como los modelos actuales de IA, que pueden ocupar hasta 100 GB— sería fácilmente identificada en la mayoría de los sistemas corporativos. “Para un adversario hábil, eso sería como caminar por una tienda de porcelana con una bola de demolición”, ilustró O’Reilly.

¿Qué hay de nuevo en este avance?

Aunque los virus informáticos llevan décadas replicándose y explotando vulnerabilidades, es la primera vez que se documenta que un modelo de IA puede identificar fallos y copiarse en otros sistemas de forma autónoma. O’Reilly aclaró que, si bien la técnica es técnicamente posible desde hace meses, Palisade fue el primer grupo en publicarla de manera formal y completa.

(Imagen Ilustrativa Infobae)
El tamaño de los modelos de IA hace visible cualquier intento de copia masiva en sistemas empresariales. (Imagen Ilustrativa Infobae)

El experimento se diferencia de otros casos de malware porque utiliza modelos de lenguaje de IA local, lo que representa un avance conceptual en la capacidad de estos sistemas para actuar de manera independiente.

Limitaciones y desafíos para la replicación de la IA

El entorno utilizado por Palisade fue diseñado para facilitar la tarea de la IA, con vulnerabilidades intencionales y menos barreras de seguridad. Michał Woźniak, experto en ciberseguridad, reconoció que el trabajo es interesante desde el punto de vista técnico, pero aseguró que no representa una amenaza inmediata para las redes protegidas en el mundo real.

La replicación autónoma de la IA en sistemas reales enfrenta obstáculos importantes. Además de la detección por el tamaño de los archivos, los controles de red y los sistemas de monitoreo actuales dificultan que una IA pase inadvertida y se propague como lo haría un virus tradicional.

Imagen digital de un cubo central brillante rodeado de cubos más pequeños conectados por líneas, con marcas de verificación, símbolos criptográficos y figuras humanoides en pantallas.
Los investigadores advierten que la capacidad de replicación requiere fortalecer la vigilancia en el uso de IA. (Imagen Ilustrativa Infobae)

Un avance con implicancias para la seguridad

El estudio de Palisade amplía el debate sobre el potencial y los riesgos de la IA. Aunque la capacidad de replicación documentada no supone una alarma inmediata, sí señala la necesidad de reforzar la vigilancia y las barreras de seguridad en el desarrollo y despliegue de sistemas inteligentes.

Los expertos coinciden en que, por ahora, las amenazas más graves siguen siendo parte de la ficción. Sin embargo, el avance tecnológico obliga a anticipar escenarios y fortalecer los protocolos de protección antes de que una IA verdaderamente autónoma pueda replicarse fuera de entornos controlados.

PUBLICIDAD

PUBLICIDAD