
Sam Altman, director ejecutivo de OpenAI, ha admitido que la compañía no tiene control sobre el uso que el Pentágono da a su tecnología de inteligencia artificial, incluso en contextos militares y operaciones secretas.
Según informaron medios estadounidenses, Altman transmitió a los empleados que las decisiones operativas sobre el despliegue de la IA quedan exclusivamente en manos de las autoridades militares estadounidenses.
Tensión entre ética y uso militar de la inteligencia artificial
El anuncio de Altman se produce en medio de un debate creciente sobre los límites éticos en la aplicación de la inteligencia artificial en la esfera militar. OpenAI y otras empresas tecnológicas han recibido presiones del Departamento de Defensa de Estados Unidos (actualmente denominado “Department of War” tras una orden ejecutiva) para flexibilizar las restricciones de seguridad de sus modelos, con el objetivo de ampliar su uso en operaciones de defensa.
De acuerdo con Bloomberg, Altman subrayó ante su equipo: “Ustedes no pueden tomar decisiones operativas”, y ejemplificó la situación diciendo: “Quizá piensen que el ataque en Irán fue acertado y la invasión a Venezuela fue negativa. No les corresponde opinar al respecto”. Estas afirmaciones reflejan la distancia entre los desarrolladores de IA y las decisiones estratégicas sobre su uso real en conflictos.
Rivalidad empresarial y dilemas éticos
El contexto de estas declaraciones incluye una disputa directa entre OpenAI y Anthropic, su principal competidor, por contratos con el gobierno estadounidense. Anthropic, dirigida por Dario Amodei, rechazó recientemente un acuerdo con el Pentágono debido a preocupaciones sobre el posible uso de su IA para vigilancia interna masiva o el desarrollo de sistemas autónomos de armas.
Esta negativa provocó que el secretario de Defensa, Pete Hegseth, calificara a Anthropic como un “riesgo en la cadena de suministro”, una designación inédita para una empresa estadounidense y con graves implicaciones económicas si se oficializa.
Pocas horas después de la ruptura del acuerdo con Anthropic, el Pentágono anunció públicamente un convenio con OpenAI para reemplazar la tecnología de su rival en aplicaciones militares. The Information y ABC detallaron que esta decisión generó críticas tanto internas como externas hacia OpenAI, y desencadenó reacciones de empleados preocupados por el cruce de líneas éticas que Anthropic había decidido no atravesar.
Cambios y promesas tras la polémica
Ante la ola de cuestionamientos, Altman reconoció que el acuerdo con el Pentágono se firmó apresuradamente, lo que dio una imagen “oportunista y descuidada” de la compañía. En un intento de mitigar el daño reputacional, el CEO de OpenAI anunció la revisión del contrato para incluir garantías adicionales: la tecnología no se empleará para vigilancia interna de ciudadanos estadounidenses ni será usada por agencias como la NSA sin un nuevo acuerdo específico.
En declaraciones recogidas por CNBC, Altman afirmó: “Dos de nuestros principios de seguridad más importantes son la prohibición de la vigilancia masiva doméstica y la exigencia de responsabilidad humana en el uso de la fuerza, incluso en sistemas autónomos de armas”. El Departamento de Defensa respaldó públicamente estos compromisos, asegurando que la colaboración se limitará a usos legales y que cualquier excepción requerirá un acuerdo adicional.
Por su parte, Anthropic, tras ser apartada de los contratos gubernamentales, cuestionó la integridad de Altman y de la cúpula de OpenAI. En un comunicado interno divulgado por The Information, Amodei acusó a Altman de “falta de honestidad” y de intentar ofrecer “teatro de seguridad” para calmar a sus empleados, mientras cedía a presiones políticas y económicas.
El futuro de la IA en la defensa estadounidense
El choque entre las tecnológicas y el Departamento de Defensa expuso las dificultades para definir límites claros en el uso militar de la inteligencia artificial. Mientras Altman admite que OpenAI carece de control sobre la aplicación final de sus sistemas, el gobierno insiste en que solo busca utilizar la tecnología para fines legales y bajo supervisión.
La controversia deja abierta la discusión sobre quién debe establecer las líneas rojas en el avance de la IA militar: si corresponde a las empresas proveedoras o si la última palabra debe quedar del lado de los organismos estatales y de defensa.
Últimas Noticias
Gana hasta 10.000 euros con esta convocatoria de Microsoft: quiénes pueden acceder y requisitos
La compañía lanza una convocatoria del Fondo Comunitario de Madrid para impulsar el impacto social en la región a través del desarrollo de proyectos

Cómo conseguir audio de alta calidad en YouTube Music en minutos
Para lograr la mejor calidad de sonido en la app de música de YouTube, es necesario acceder a las opciones avanzadas de la aplicación

Oracle planearía miles de despidos por gasto masivo en sus centros de datos de IA
Un ambicioso giro hacia la computación en la nube y el uso extensivo de inteligencia artificial lleva a Oracle a eliminar puestos que considera obsoletos
Roblox usará IA para reemplazar las palabras inapropiadas del chat en tiempo real
La herramienta analiza y reforma expresiones inapropiadas en múltiples idiomas. Una mejora pensada principalmente en los menores
Desarrollan piel electrónica que permite a los robots detectar humanos cercanos
El sistema alterna entre modos de detección de proximidad y sensibilidad al tacto. Así, emula la forma en la que la pupila regula la visión y amplía el rango operativo en más del 100%



