
La empresa de inteligencia artificial Anthropic tuvo una filtración accidental de su código fuente vinculada a su herramienta de programación Claude Code, un episodio que agudiza los desafíos de seguridad a los que se enfrenta el sector mientras se aceleran los lanzamientos de modelos cada vez más sofisticados.
El incidente se produjo solo días después de que, según el medio Fortune, saliera a la luz por error la existencia de un nuevo modelo avanzado denominado internamente “Mythos”, lo que subraya la fragilidad operativa en la protección de desarrollos estratégicos para la compañía.
El alcance técnico de la brecha va más allá de incidentes previos en Anthropic. El acceso involuntario al código fuente permitió la extracción por parte de terceros con formación en ciberseguridad de información interna adicional.

De hecho, Roy Paz, investigador sénior de seguridad en IA de LayerX Security, afirmó que en el material filtrado se hallan pruebas adicionales del desarrollo de un modelo bautizado “Capybara”, aún no anunciado oficialmente.
La magnitud de la filtración queda evidenciada en la cifra de archivos involucrados: aproximadamente 3.000 documentos fueron expuestos públicamente en la red, según Fortune en su más reciente análisis. Este dato diferencia el caso de Anthropic de otros episodios recientes y posiciona este incidente como un referente en materia de riesgos para el sector.
Vulnerabilidades que expone la expansión de la inteligencia artificial en empresas
La adopción acelerada de la inteligencia artificial generativa en empresas y organizaciones ha superado la capacidad de las áreas de ciberseguridad para identificar y contener vulnerabilidades, según informe de F5 Labs. Este escenario crea condiciones para nuevas filtraciones y ataques: F5 Labs informa que el 70% de los empleados ya utiliza herramientas de IA en entornos de trabajo, a menudo sin autorización ni supervisión de los departamentos de sistemas de información,; lo que incrementa la exposición a filtraciones de datos sensibles que las barreras convencionales de protección no logran limitar.

Para abordar esta problemática, el laboratorio desarrolló el sistema AI Security Leaderboards, un tablero que evalúa mensualmente a los diez modelos de IA más adoptados conforme a la aparición de vectores de ataque reales y la dinámica de exposición a fugas de datos corporativos.
F5 Labs señala que la presión por lanzar productos más eficientes deja en segundo plano la evaluación de seguridad. “Incluso los desarrolladores líderes admiten la fragilidad de sus sistemas”, documenta el informe.
OpenAI, responsable de ChatGPT, clasificó el riesgo de seguridad de su modelo como “alto”, mientras que Anthropic reconoció que sus modelos, incluida Claude AI, ejecutan acciones no autorizadas de forma autónoma, sin permiso humano explícito.

Herramientas para medir la resiliencia y seguridad de los modelos de IA
Para brindar a los directores de seguridad métricas técnicas no influenciadas por campañas de marketing, F5 Labs implementó dos herramientas innovadoras actualizadas mensualmente: el Comprehensive AI Security Index (CASI) y el Agentic Resilience Score (ARS). El primero cuantifica la vulnerabilidad de cada modelo frente a ataques conocidos; mientras el segundo, mide el grado de resistencia de cualquier agente de IA cuando opera de manera autónoma, centrándose en su capacidad para resistir intentos de manipulación mediante ingeniería social.
La evolución constante de los modelos hace que los riesgos sean cambiantes: un sistema robusto hoy puede exhibir nuevas brechas tras una actualización o un nuevo entrenamiento. El análisis técnico de los diez grandes modelos realizado por los investigadores de F5 detecta un desequilibrio crítico entre las mejoras de rendimiento y la capacidad de resistir ataques de inyección de prompts o filtraciones de información.
Las clasificaciones como las de AI Security Leaderboards permiten que los responsables de ciberseguridad orienten sus decisiones en información técnica comprobada. La presión por innovar y lanzar nuevos productos, ejemplificada en filtraciones como la de Anthropic, se traduce en una vulnerabilidad creciente que los métodos tradicionales de defensa no logran compensar.
La investigación de F5 Labs demuestra que el uso intensivo de herramientas de inteligencia artificial sin protocolos adecuados incrementa la fuga de datos corporativos. Estos sistemas, con capas dinámicas de vulnerabilidad, obligan a una evaluación y actualización constante de las políticas y tecnologías de protección.
Últimas Noticias
Sigue estos pasos para ver los satélites Starlink en el cielo nocturno
Aplicaciones móviles permiten predecir cuándo y dónde ver los satélites Starlink
El truco del puerto USB en tu router Wi-Fi: convierte tu disco duro en almacenamiento en red
Este puerto permite conectar discos duros externos para compartir archivos entre todos los dispositivos conectados a la misma red inalámbrica

Microsoft actualiza su agente de investigación para trabajar con múltiples modelos de IA en paralelo
La nueva función Critique de Microsoft 365 Copilot divide el proceso entre generación y revisión de contenido

Estudiantes utilizan gafas con inteligencia artificial para copiar en exámenes: las alquilan por hora
Estos dispositivos, que pueden alquilarse por entre 6 y 12 dólares diarios, imitan la apariencia de unas gafas convencionales



