
El análisis de la Red de direcciones IP, las solicitudes de metadatos y la comparación de patrones permitieron a Anthropic detectar un incremento sustancial en los intentos de reproducción ilícita de modelos de inteligencia artificial. Según informó Anthropic en un comunicado reproducido por diversos medios, la compañía ha identificado que DeepSeek, Moonshot y MiniMax, empresas con sede en China especializadas en IA, realizaron más de 16 millones de interacciones con el chatbot Claude utilizando 24.000 cuentas fraudulentas, presuntamente con el objetivo de mejorar sus propios modelos a través de prácticas conocidas como “ataques de destilación”.
De acuerdo con la información publicada por Anthropic, los “ataques de destilación” consisten en la utilización de un modelo avanzado –en este caso, Claude– para alimentar con sus resultados a otros modelos más pequeños, conocidos como modelos alumno. Esta técnica, fundamental en el aprendizaje automático, posibilita que el modelo alumno aprenda de las predicciones y datos generados por el modelo original, llamada red neuronal “profesor”. Si bien esta técnica se emplea de manera legítima en muchos laboratorios, Anthropic advierte que su uso indebido permite eludir partes significativas del trabajo y los recursos necesarios en el desarrollo de algoritmos propios, traspasando ventajas tecnológicas sin autorización.
Anthropic detalló que el comportamiento de las empresas señaladas difería notablemente de los patrones regulares de uso, mostrando una automatización y planificación orientadas a extraer sistemáticamente información de Claude. En el caso de DeepSeek, la investigación encontró una sincronización entre cuentas, el empleo de patrones idénticos en las solicitudes y métodos de pago en común. Estos indicios llevaron a concluir que existía una acción coordinada para solicitar al modelo exposiciones detalladas de razonamientos internos, que luego se destinarían al entrenamiento de los modelos propios de la firma asiática.
Por parte de MiniMax, el número de interacciones superó los 13 millones y se focalizó en la comprensión de técnicas de codificación agéntica, así como en la exploración del uso y coordinación de herramientas vinculadas a la inteligencia artificial. Moonshot registró más de 3,4 millones de interacciones, con objetivos centrados en examinar la lógica aplicada por Claude en tareas de agente, el manejo de datos y el diseño de agentes orientados a computadores.
Según consignó Anthropic en su sitio web, la compañía ha reforzado los controles para detectar conductas similares a las descritas implementando herramientas basadas en clasificadores y sistemas de huellas de uso, lo que aumenta la capacidad de identificar tráfico sospechoso en los sistemas de interfaz de programación de aplicaciones (API). Además, la empresa ha fortalecido la verificación de cuentas, en particular las educativas y las vinculadas a proyectos de seguridad o empresas emergentes, detectadas como las vías más frecuentemente explotadas en la creación de cuentas fraudulentas.
El medio especializado en tecnología también destacó que estas denuncias de Anthropic se producen en un contexto donde la rivalidad global por el desarrollo de IA es creciente. En enero de 2025, OpenAI reportó públicamente hechos similares, acusando a DeepSeek de entrenar modelos propios con datos extraídos mediante destilación de ChatGPT. Anthropic sostiene que estos ataques “socavan los controles de exportación” estadounidenses, diseñados para proteger la ventaja competitiva del país en materia de inteligencia artificial y evitar la transferencia no autorizada de capacidades tecnológicas.
Entre las medidas aportadas por Anthropic se incluye el desarrollo de salvaguardas específicas en niveles de producto, API y modelo, orientadas a hacer menos efectiva la extracción de conocimiento mediante destilación ilícita. La compañía subrayó que el volumen y la sofisticación documentados en los ataques recientes reflejan una tendencia al incremento de estas prácticas y recalca la importancia del monitoreo informado y del fortalecimiento de los sistemas de seguridad orientados a la protección de la propiedad intelectual.
Anthropic afirmó su compromiso con el apoyo a las regulaciones que buscan mantener la supremacía tecnológica estadounidense, señalando que estos incidentes ponen en riesgo la equidad en la competencia y la sostenibilidad en la investigación y desarrollo en el sector. Los ataques de destilación no solo implican una transferencia de conocimiento no autorizado, sino que también pueden impactar en la capacidad de las empresas afectadas para mantener su posicionamiento en la cúpula de la innovación global, según reportó la compañía.
Últimas Noticias
El malware PromptSpy incorpora el uso de la IA Gemini para lograr persistencia y mantenerse activo
Investigadores de ESET detectaron una sofisticada amenaza que aprovecha capacidades automatizadas para dificultar su eliminación en dispositivos Android, preocupando a expertos por el salto evolutivo que supone la integración de técnicas innovadoras en ataques móviles recientes
China pide "diálogo y negociaciones" como "la única vía viable" para el fin de la invasión rusa de Ucrania

López (RTVE) aboga por reformar los estatutos de la UER para que países en conflicto no participen en Eurovisión

Tamara Gorro revela su revés de salud tras su fin de semana en Sevilla con Cayetano: "Reposo absoluto"
Tras varios días sin actividad digital, la influencer preocupó a su comunidad al aparecer en un video desde su casa y explicar que, tras consultar en el hospital, recibió la indicación médica de realizar reposo completo para recuperarse plenamente

El Gobierno desclasificará la información sobre el golpe del 23F en documentos de texto, sin audio ni vídeo
