Filtran por error el código de Claude, la IA de Anthropic, y crece la alerta de seguridad

Una brecha masiva puso en evidencia las dificultades para salvaguardar innovaciones tecnológicas dentro de la industria de inteligencia artificial

Guardar
La filtración del código fuente de Anthropic expuso cerca de 3.000 documentos estratégicos relacionados con proyectos de inteligencia artificial.
La filtración del código fuente de Anthropic expuso cerca de 3.000 documentos estratégicos relacionados con proyectos de inteligencia artificial.

La empresa de inteligencia artificial Anthropic tuvo una filtración accidental de su código fuente vinculada a su herramienta de programación Claude Code, un episodio que agudiza los desafíos de seguridad a los que se enfrenta el sector mientras se aceleran los lanzamientos de modelos cada vez más sofisticados.

El incidente se produjo solo días después de que, según el medio Fortune, saliera a la luz por error la existencia de un nuevo modelo avanzado denominado internamente “Mythos”, lo que subraya la fragilidad operativa en la protección de desarrollos estratégicos para la compañía.

El alcance técnico de la brecha va más allá de incidentes previos en Anthropic. El acceso involuntario al código fuente permitió la extracción por parte de terceros con formación en ciberseguridad de información interna adicional.

El incidente con Claude Code revela las crecientes dificultades de seguridad en el desarrollo corporativo de herramientas de inteligencia artificial.
El incidente con Claude Code revela las crecientes dificultades de seguridad en el desarrollo corporativo de herramientas de inteligencia artificial.

De hecho, Roy Paz, investigador sénior de seguridad en IA de LayerX Security, afirmó que en el material filtrado se hallan pruebas adicionales del desarrollo de un modelo bautizado “Capybara”, aún no anunciado oficialmente.

La magnitud de la filtración queda evidenciada en la cifra de archivos involucrados: aproximadamente 3.000 documentos fueron expuestos públicamente en la red, según Fortune en su más reciente análisis. Este dato diferencia el caso de Anthropic de otros episodios recientes y posiciona este incidente como un referente en materia de riesgos para el sector.

Vulnerabilidades que expone la expansión de la inteligencia artificial en empresas

La adopción acelerada de la inteligencia artificial generativa en empresas y organizaciones ha superado la capacidad de las áreas de ciberseguridad para identificar y contener vulnerabilidades, según informe de F5 Labs. Este escenario crea condiciones para nuevas filtraciones y ataques: F5 Labs informa que el 70% de los empleados ya utiliza herramientas de IA en entornos de trabajo, a menudo sin autorización ni supervisión de los departamentos de sistemas de información,; lo que incrementa la exposición a filtraciones de datos sensibles que las barreras convencionales de protección no logran limitar.

Grupo de ocho profesionales, liderado por un hombre de unos 45 años, interactúa con pantallas táctiles y hologramas de IA en una sala de reuniones.
El 70% de los empleados utiliza herramientas de IA sin autorización, incrementando el riesgo de brechas y filtraciones de datos en empresas. (Imagen Ilustrativa Infobae)

Para abordar esta problemática, el laboratorio desarrolló el sistema AI Security Leaderboards, un tablero que evalúa mensualmente a los diez modelos de IA más adoptados conforme a la aparición de vectores de ataque reales y la dinámica de exposición a fugas de datos corporativos.

F5 Labs señala que la presión por lanzar productos más eficientes deja en segundo plano la evaluación de seguridad. “Incluso los desarrolladores líderes admiten la fragilidad de sus sistemas”, documenta el informe.

OpenAI, responsable de ChatGPT, clasificó el riesgo de seguridad de su modelo como “alto”, mientras que Anthropic reconoció que sus modelos, incluida Claude AI, ejecutan acciones no autorizadas de forma autónoma, sin permiso humano explícito.

IA - CEO - empresas - trabajo - tecnología - 19 de febrero
Las filtraciones reiteradas en el sector obligan a las empresas a actualizar y reforzar constantemente sus políticas y tecnologías de protección de datos. (Imagen ilustrativa Infobae)

Herramientas para medir la resiliencia y seguridad de los modelos de IA

Para brindar a los directores de seguridad métricas técnicas no influenciadas por campañas de marketing, F5 Labs implementó dos herramientas innovadoras actualizadas mensualmente: el Comprehensive AI Security Index (CASI) y el Agentic Resilience Score (ARS). El primero cuantifica la vulnerabilidad de cada modelo frente a ataques conocidos; mientras el segundo, mide el grado de resistencia de cualquier agente de IA cuando opera de manera autónoma, centrándose en su capacidad para resistir intentos de manipulación mediante ingeniería social.

La evolución constante de los modelos hace que los riesgos sean cambiantes: un sistema robusto hoy puede exhibir nuevas brechas tras una actualización o un nuevo entrenamiento. El análisis técnico de los diez grandes modelos realizado por los investigadores de F5 detecta un desequilibrio crítico entre las mejoras de rendimiento y la capacidad de resistir ataques de inyección de prompts o filtraciones de información.

Las clasificaciones como las de AI Security Leaderboards permiten que los responsables de ciberseguridad orienten sus decisiones en información técnica comprobada. La presión por innovar y lanzar nuevos productos, ejemplificada en filtraciones como la de Anthropic, se traduce en una vulnerabilidad creciente que los métodos tradicionales de defensa no logran compensar.

La investigación de F5 Labs demuestra que el uso intensivo de herramientas de inteligencia artificial sin protocolos adecuados incrementa la fuga de datos corporativos. Estos sistemas, con capas dinámicas de vulnerabilidad, obligan a una evaluación y actualización constante de las políticas y tecnologías de protección.