Trump ordena a las agencias federales dejar de utilizar el software de Anthropic, incluyendo su modelo de IA

Tras el rechazo de Anthropic a eliminar límites para fines militares y vigilancia interna, la administración estadounidense anuncia una salida escalonada de su tecnología y advierte sanciones severas si la compañía obstaculiza la directiva presidencial en curso

Guardar

Dario Amodei, consejero delegado de Anthropic, declaró que la compañía prefería no colaborar con el Pentágono antes que aceptar una ampliación de los usos de su tecnología de inteligencia artificial que, en su opinión, podrían “socavar, en lugar de defender, los valores democráticos”. Con esta postura, Amodei señaló su oposición a incorporar en los contratos funciones como la vigilancia masiva a nivel nacional o el desarrollo de armamento autónomo, temas que enfrentaron directamente a la empresa tecnológica con el Gobierno de Estados Unidos. A partir de este desacuerdo, el presidente Donald Trump anunció el inicio de un proceso de desvinculación progresiva de seis meses, que afectará a las agencias federales que utilizan productos de Anthropic, incluida su plataforma de IA Claude, según publicó el medio The Wall Street Journal.

Según consignó The Wall Street Journal, Trump comunicó a través de sus redes sociales que “no los necesitamos, no los queremos, y no haremos negocios con ellos de nuevo”, en referencia a Anthropic. El presidente estadounidense notificó que el periodo de transición será de medio año e involucrará particularmente a agencias como el Departamento de Defensa —también denominado Departamento de Guerra— que actualmente emplean los sistemas desarrollados por la empresa. Trump advirtió que si la compañía de IA interfiere con la directiva, la Administración recurrirá a “todo su poder” para asegurar el cumplimiento, lo que podría traducirse en sanciones civiles o penales de considerable gravedad.

En el mensaje difundido, Trump calificó la negativa de Anthropic de atender las directrices exigidas desde el Gobierno como un acto que, bajo su perspectiva, compromete “vidas estadounidenses, a nuestras tropas y también nuestra Seguridad Nacional”. La reacción oficial surge después de la insistencia gubernamental para que la empresa elimine cláusulas en sus contratos que limitan expresamente los usos militares y de vigilancia interna de sus productos. Según publicó el medio, esta presión culminó tras el rechazo de Anthropic a suprimir dichas restricciones y permitir su tecnología en escenarios de vigilancia doméstica masiva o la promoción de armas completamente autónomas.

El medio The Wall Street Journal indicó que el Pentágono había cerrado en julio un contrato de 200 millones de dólares con varias firmas, entre ellas Anthropic, Google, OpenAI y xAI, destinado al desarrollo de inteligencia artificial aplicada al Ejército. A pesar de la política de Anthropic de evitar usos violentos o ligados al desarrollo armamentístico, así como prohibir expresamente la vigilancia civil, el diario estadounidense reportó que la IA Claude fue integrada en una operación militar cuyo objetivo era la captura del presidente de Venezuela, Nicolás Maduro.

Por su parte, la postura de Anthropic enfatizó que solo colaboraría en el desarrollo de tecnologías enfocadas en la fiabilidad de sistemas inteligentes, pero excluyendo propósitos que, según la empresa, supongan un “riesgo grave” para las “libertades fundamentales”. El comunicado emitido por Amodei recalcó que la compañía apoya emplear IA en áreas como la inteligencia extranjera y la contrainteligencia, aunque rechazó terminantemente su utilización para vigilancia masiva dentro del país o para acciones que pongan en peligro tanto a combatientes como a civiles estadounidenses. En la declaración, el responsable de Anthropic puntualizó: “Hemos ofrecido trabajar directamente con el Departamento de Guerra en I+D para mejorar la fiabilidad de estos sistemas, pero no han aceptado esta oferta”. Agregó que el Departamento de Guerra ha dejado claro que solo contratará empresas que “eliminen las salvaguardas en los casos mencionados anteriormente y accedan a cualquier uso legal”.

El portavoz del Pentágono, Sean Parnell, aseguró en redes sociales que el Departamento no tenía intención de realizar vigilancia masiva interna ni desplegar armas autónomas, según reportó The Wall Street Journal, pero sostuvo que resultaba imprescindible eliminar ciertas limitaciones contractuales para permitir al Gobierno utilizar estas herramientas en cualquier objetivo legal. Parnell remarcó la postura oficial de que las empresas privadas no deben definir las condiciones bajo las cuales el Gobierno puede usar dichos servicios, respaldando la exigencia gubernamental de plena flexibilidad en la explotación de la tecnología contratada.

Además de la medida de desvinculación, el gobierno de Donald Trump había amenazado con declarar a Anthropic un riesgo para la cadena de suministro nacional, ejercicio de presión que, según The Wall Street Journal, se mantuvo activo durante las negociaciones contractuales. Las decisiones y declaraciones expuestas por ambos bandos exponen el trasfondo de la controversia sobre los límites éticos y legales en la aplicación de tecnologías de inteligencia artificial en el ámbito del gobierno y la defensa de Estados Unidos, cuestión cuyo desenlace podría incidir sobre los términos de futuras colaboraciones entre el sector público y empresas tecnológicas.