Sam Altman admite que OpenAI no puede controlar lo que hace su IA en manos del Pentágono

El reciente acuerdo entre OpenAI y el Departamento de Defensa reaviva preocupaciones sobre la autonomía de las tecnológicas y el poder del gobierno

Guardar
Sam Altman admitió ante empleados
Sam Altman admitió ante empleados que OpenAI no interviene en las decisiones operativas del Pentágono respecto al uso de su IA. (Reuters)

Sam Altman, director ejecutivo de OpenAI, ha admitido que la compañía no tiene control sobre el uso que el Pentágono da a su tecnología de inteligencia artificial, incluso en contextos militares y operaciones secretas.

Según informaron medios estadounidenses, Altman transmitió a los empleados que las decisiones operativas sobre el despliegue de la IA quedan exclusivamente en manos de las autoridades militares estadounidenses.

Tensión entre ética y uso militar de la inteligencia artificial

El anuncio de Altman se produce en medio de un debate creciente sobre los límites éticos en la aplicación de la inteligencia artificial en la esfera militar. OpenAI y otras empresas tecnológicas han recibido presiones del Departamento de Defensa de Estados Unidos (actualmente denominado “Department of War” tras una orden ejecutiva) para flexibilizar las restricciones de seguridad de sus modelos, con el objetivo de ampliar su uso en operaciones de defensa.

El acuerdo entre OpenAI y
El acuerdo entre OpenAI y el Departamento de Defensa generó preocupación sobre los límites éticos de la inteligencia artificial en el ámbito militar. (Reuters)

De acuerdo con Bloomberg, Altman subrayó ante su equipo: “Ustedes no pueden tomar decisiones operativas”, y ejemplificó la situación diciendo: “Quizá piensen que el ataque en Irán fue acertado y la invasión a Venezuela fue negativa. No les corresponde opinar al respecto”. Estas afirmaciones reflejan la distancia entre los desarrolladores de IA y las decisiones estratégicas sobre su uso real en conflictos.

Rivalidad empresarial y dilemas éticos

El contexto de estas declaraciones incluye una disputa directa entre OpenAI y Anthropic, su principal competidor, por contratos con el gobierno estadounidense. Anthropic, dirigida por Dario Amodei, rechazó recientemente un acuerdo con el Pentágono debido a preocupaciones sobre el posible uso de su IA para vigilancia interna masiva o el desarrollo de sistemas autónomos de armas.

Esta negativa provocó que el secretario de Defensa, Pete Hegseth, calificara a Anthropic como un “riesgo en la cadena de suministro”, una designación inédita para una empresa estadounidense y con graves implicaciones económicas si se oficializa.

El Pentágono busca ampliar el
El Pentágono busca ampliar el uso de sistemas de inteligencia artificial en operaciones clasificadas y zonas de conflicto. (Reuters)

Pocas horas después de la ruptura del acuerdo con Anthropic, el Pentágono anunció públicamente un convenio con OpenAI para reemplazar la tecnología de su rival en aplicaciones militares. The Information y ABC detallaron que esta decisión generó críticas tanto internas como externas hacia OpenAI, y desencadenó reacciones de empleados preocupados por el cruce de líneas éticas que Anthropic había decidido no atravesar.

Cambios y promesas tras la polémica

Ante la ola de cuestionamientos, Altman reconoció que el acuerdo con el Pentágono se firmó apresuradamente, lo que dio una imagen “oportunista y descuidada” de la compañía. En un intento de mitigar el daño reputacional, el CEO de OpenAI anunció la revisión del contrato para incluir garantías adicionales: la tecnología no se empleará para vigilancia interna de ciudadanos estadounidenses ni será usada por agencias como la NSA sin un nuevo acuerdo específico.

En declaraciones recogidas por CNBC, Altman afirmó: “Dos de nuestros principios de seguridad más importantes son la prohibición de la vigilancia masiva doméstica y la exigencia de responsabilidad humana en el uso de la fuerza, incluso en sistemas autónomos de armas”. El Departamento de Defensa respaldó públicamente estos compromisos, asegurando que la colaboración se limitará a usos legales y que cualquier excepción requerirá un acuerdo adicional.

La polémica por el contrato
La polémica por el contrato con el gobierno forzó a OpenAI a reforzar sus garantías contra la vigilancia interna en Estados Unidos. (Reuters)

Por su parte, Anthropic, tras ser apartada de los contratos gubernamentales, cuestionó la integridad de Altman y de la cúpula de OpenAI. En un comunicado interno divulgado por The Information, Amodei acusó a Altman de “falta de honestidad” y de intentar ofrecer “teatro de seguridad” para calmar a sus empleados, mientras cedía a presiones políticas y económicas.

El futuro de la IA en la defensa estadounidense

El choque entre las tecnológicas y el Departamento de Defensa expuso las dificultades para definir límites claros en el uso militar de la inteligencia artificial. Mientras Altman admite que OpenAI carece de control sobre la aplicación final de sus sistemas, el gobierno insiste en que solo busca utilizar la tecnología para fines legales y bajo supervisión.

La controversia deja abierta la discusión sobre quién debe establecer las líneas rojas en el avance de la IA militar: si corresponde a las empresas proveedoras o si la última palabra debe quedar del lado de los organismos estatales y de defensa.