Anthropic acusa a tres empresas chinas de realizar ataques de destilación contra Claude para mejorar sus modelos

La firma estadounidense denuncia que firmas asiáticas especializadas en inteligencia artificial replicaron comportamientos de su sistema mediante millones de accesos fraudulentos, lo que permitió transferir conocimiento exclusivo y cuestiona la seguridad en la competencia global tecnológica

Guardar

El análisis de la Red de direcciones IP, las solicitudes de metadatos y la comparación de patrones permitieron a Anthropic detectar un incremento sustancial en los intentos de reproducción ilícita de modelos de inteligencia artificial. Según informó Anthropic en un comunicado reproducido por diversos medios, la compañía ha identificado que DeepSeek, Moonshot y MiniMax, empresas con sede en China especializadas en IA, realizaron más de 16 millones de interacciones con el chatbot Claude utilizando 24.000 cuentas fraudulentas, presuntamente con el objetivo de mejorar sus propios modelos a través de prácticas conocidas como “ataques de destilación”.

De acuerdo con la información publicada por Anthropic, los “ataques de destilación” consisten en la utilización de un modelo avanzado –en este caso, Claude– para alimentar con sus resultados a otros modelos más pequeños, conocidos como modelos alumno. Esta técnica, fundamental en el aprendizaje automático, posibilita que el modelo alumno aprenda de las predicciones y datos generados por el modelo original, llamada red neuronal “profesor”. Si bien esta técnica se emplea de manera legítima en muchos laboratorios, Anthropic advierte que su uso indebido permite eludir partes significativas del trabajo y los recursos necesarios en el desarrollo de algoritmos propios, traspasando ventajas tecnológicas sin autorización.

Anthropic detalló que el comportamiento de las empresas señaladas difería notablemente de los patrones regulares de uso, mostrando una automatización y planificación orientadas a extraer sistemáticamente información de Claude. En el caso de DeepSeek, la investigación encontró una sincronización entre cuentas, el empleo de patrones idénticos en las solicitudes y métodos de pago en común. Estos indicios llevaron a concluir que existía una acción coordinada para solicitar al modelo exposiciones detalladas de razonamientos internos, que luego se destinarían al entrenamiento de los modelos propios de la firma asiática.

Por parte de MiniMax, el número de interacciones superó los 13 millones y se focalizó en la comprensión de técnicas de codificación agéntica, así como en la exploración del uso y coordinación de herramientas vinculadas a la inteligencia artificial. Moonshot registró más de 3,4 millones de interacciones, con objetivos centrados en examinar la lógica aplicada por Claude en tareas de agente, el manejo de datos y el diseño de agentes orientados a computadores.

Según consignó Anthropic en su sitio web, la compañía ha reforzado los controles para detectar conductas similares a las descritas implementando herramientas basadas en clasificadores y sistemas de huellas de uso, lo que aumenta la capacidad de identificar tráfico sospechoso en los sistemas de interfaz de programación de aplicaciones (API). Además, la empresa ha fortalecido la verificación de cuentas, en particular las educativas y las vinculadas a proyectos de seguridad o empresas emergentes, detectadas como las vías más frecuentemente explotadas en la creación de cuentas fraudulentas.

El medio especializado en tecnología también destacó que estas denuncias de Anthropic se producen en un contexto donde la rivalidad global por el desarrollo de IA es creciente. En enero de 2025, OpenAI reportó públicamente hechos similares, acusando a DeepSeek de entrenar modelos propios con datos extraídos mediante destilación de ChatGPT. Anthropic sostiene que estos ataques “socavan los controles de exportación” estadounidenses, diseñados para proteger la ventaja competitiva del país en materia de inteligencia artificial y evitar la transferencia no autorizada de capacidades tecnológicas.

Entre las medidas aportadas por Anthropic se incluye el desarrollo de salvaguardas específicas en niveles de producto, API y modelo, orientadas a hacer menos efectiva la extracción de conocimiento mediante destilación ilícita. La compañía subrayó que el volumen y la sofisticación documentados en los ataques recientes reflejan una tendencia al incremento de estas prácticas y recalca la importancia del monitoreo informado y del fortalecimiento de los sistemas de seguridad orientados a la protección de la propiedad intelectual.

Anthropic afirmó su compromiso con el apoyo a las regulaciones que buscan mantener la supremacía tecnológica estadounidense, señalando que estos incidentes ponen en riesgo la equidad en la competencia y la sostenibilidad en la investigación y desarrollo en el sector. Los ataques de destilación no solo implican una transferencia de conocimiento no autorizado, sino que también pueden impactar en la capacidad de las empresas afectadas para mantener su posicionamiento en la cúpula de la innovación global, según reportó la compañía.