Anthropic presentó demanda contra el Departamento de Defensa de EE. UU. por designarla “riesgo para la cadena de suministro”

El origen del conflicto se sitúa en la negativa de la empresa a permitir que su modelo de IA sea utilizado para vigilancia masiva o sistemas autónomos letales

Guardar
El enfrentamiento entre Anthropic y
El enfrentamiento entre Anthropic y el Departamento de Defensa sienta un precedente para futuras controversias en el sector. (Composición Infobae: REUTERS/Dado Ruvic / AP Foto/Alex Brandon)

La empresa estadounidense de inteligencia artificial Anthropic ha iniciado una batalla legal contra el Departamento de Defensa de Estados Unidos y otras agencias federales, luego de ser catalogada oficialmente como “riesgo para la cadena de suministro”.

Esta clasificación, inusual para una compañía, podría dejarla fuera de contratos y proyectos militares clave, afectando su posición en el mercado de tecnología de defensa.

Disputa por la etiqueta de “riesgo para la cadena de suministro” y sus consecuencias

El origen del conflicto se sitúa en la negativa de Anthropic a permitir que su modelo de IA, Claude, sea utilizado para vigilancia masiva o sistemas autónomos letales. Esta postura chocó frontalmente con las expectativas del Pentágono, que respondió con la polémica designación.

Anthropic entra en la lista
Anthropic entra en la lista negra del Pentágono por negarse a colaborar en vigilancia ciudadana y armamento autónomo. REUTERS/Dado Ruvic

Habitualmente, la etiqueta de “riesgo para la cadena de suministro” se aplica a empresas extranjeras consideradas amenazas para la seguridad nacional, no a compañías estadounidenses.

Esta decisión impide que contratistas gubernamentales empleen la tecnología de Anthropic en proyectos vinculados a Defensa, una medida que la empresa califica de ilegal y sin precedentes. Anthropic argumenta que la clasificación vulnera sus derechos constitucionales, ya que penaliza su posición ética respecto al uso militar de la inteligencia artificial.

Debate sobre los límites éticos y el uso militar de la IA

El caso de Anthropic abre una discusión más amplia sobre el grado de control que pueden ejercer las empresas tecnológicas en la definición de los usos militares de sus sistemas de inteligencia artificial.

Hasta hace poco, el Pentágono
Hasta hace poco, el Pentágono empleaba el modelo de IA Claude de Anthropic para gestionar información clasificada. REUTERS/Jason Reed

Mientras la empresa defiende su derecho a establecer límites éticos, el Pentágono sostiene que no puede permitir que sus proveedores restrinjan el desarrollo de capacidades consideradas estratégicas para la seguridad nacional.

La disputa también pone en primer plano la tensión entre la innovación tecnológica privada y los intereses gubernamentales en el contexto de la seguridad nacional. A medida que la inteligencia artificial gana peso en la estructura militar, el enfrentamiento entre Anthropic y el Departamento de Defensa sienta un precedente para futuras controversias en el sector.

Impacto económico y reacción de otros actores del sector tecnológico

La decisión del Pentágono representa un riesgo financiero considerable para Anthropic, que podría perder contratos gubernamentales valorados en cientos de millones de dólares. La medida, además, podría incentivar a otros proveedores tecnológicos a buscar alternativas para mantener sus relaciones comerciales con el Gobierno de Estados Unidos.

OpenAI firma un convenio con
OpenAI firma un convenio con el Departamento de Defensa de EE. UU. para utilizar sus sistemas de IA en proyectos militares. (AP Foto/Michael Dwyer)

En este contexto, OpenAI ha aprovechado la coyuntura para ocupar el espacio dejado por Anthropic, firmando recientemente un acuerdo para suministrar su tecnología al Pentágono.

Esta maniobra evidencia la competitividad del sector y la rapidez con la que otros actores buscan capitalizar oportunidades derivadas de disputas regulatorias o éticas.

Dimisión en OpenAI y dilemas éticos en el desarrollo de IA militar

El acuerdo de OpenAI con el Departamento de Defensa no ha estado exento de polémica interna. Caitlin Kalinowski, responsable de hardware y robótica en la compañía, presentó su renuncia tras el anuncio del acuerdo, citando motivos éticos.

El acuerdo de OpenAI con
El acuerdo de OpenAI con el Departamento de Defensa no ha estado exento de polémica interna. REUTERS/Dado Ruvic

Kalinowski, que se unió a OpenAI en 2024 procedente de Meta, argumentó públicamente que la inteligencia artificial puede jugar un papel relevante en la seguridad nacional, pero advirtió sobre los riesgos de la vigilancia sin supervisión judicial y el uso de sistemas autónomos letales sin autorización humana.

En sus palabras: “La IA tiene un papel importante en la seguridad nacional. Pero la vigilancia de estadounidenses sin supervisión judicial y la autonomía letal sin autorización humana son líneas que merecían más deliberación de la que tuvieron”.

Kalinowski enfatizó que su decisión se basó en principios y no en desacuerdos personales, subrayando la complejidad de los debates éticos que rodean la integración de la inteligencia artificial en el ámbito militar.