En abril, el vicepresidente JD Vance convocó una llamada con los cinco hombres que dirigen las empresas que dominan el desarrollo de inteligencia artificial en Estados Unidos: Sam Altman de OpenAI, Dario Amodei de Anthropic, Elon Musk de SpaceX, Sundar Pichai de Alphabet y Satya Nadella de Microsoft.
The Wall Street Journal informó que Vance les dijo que tenían que trabajar juntos sobre Mythos, el modelo de Anthropic capaz de descubrir vulnerabilidades de software sin intervención humana. La preocupación, según el reporte, era concreta: bancos comunitarios, hospitales y plantas de agua municipales no estarían en condiciones de defenderse de ataques lanzados con esa capacidad.
La Casa Blanca está evaluando una orden ejecutiva para crear un proceso formal de supervisión de los modelos más avanzados de IA, según informó The Wall Street Journal. Kevin Hassett, director del Consejo Económico Nacional, defendió la idea en Fox Business comparándola con el procedimiento que la Food and Drug Administration, la agencia que aprueba medicamentos en Estados Unidos, aplica antes de autorizar un fármaco. Es decir, una revisión federal previa al lanzamiento.
PUBLICIDAD
Susie Wiles, jefa de Gabinete, publicó en X que el gobierno seguirá un esfuerzo America First que empodere a los innovadores y no a la burocracia.
El director nacional de Ciberseguridad coordina la respuesta y limita el acceso al modelo
Sean Cairncross, director nacional de Ciberseguridad de la Casa Blanca, quedó a cargo de coordinar la respuesta. La administración le pidió a Anthropic que no extendiera Mythos a más empresas que gestionan infraestructura digital crítica. Scott Bessent, secretario del Tesoro, advirtió directamente a ejecutivos bancarios sobre el riesgo del modelo. Marco Rubio, secretario de Estado, también participó de la llamada de abril.
Es un cambio operativo concreto: el acceso a un modelo desarrollado por una empresa privada quedó condicionado por una solicitud directa del Poder Ejecutivo, sin orden ejecutiva ni ley de respaldo. Mientras se discute si formalizar el procedimiento, el procedimiento ya existe.
PUBLICIDAD
OpenAI consultó a la administración antes de previsualizar GPT-5.5-Cyber, su modelo con capacidades similares a las de Mythos, según declaró una vocera al WSJ. La empresa también está limitando el acceso. Anthropic directamente decidió no publicar Mythos. En el caso de las dos compañías que lideran el desarrollo de modelos en Estados Unidos, la coordinación con el gobierno apareció antes que el lanzamiento.
Anthropic apostó por la regulación que sus competidores rechazaron
El detalle financiero importa. Anthropic puso dinero en el grupo político que co-lidera Brad Carson, excongresista demócrata: Americans for Responsible Innovation, que aboga por reglas más estrictas para la IA. Mientras OpenAI, Google y Microsoft adoptaron en bloque el discurso desregulador del gobierno, Anthropic fue en sentido contrario.
La apuesta empieza a verse rentable. Dario Amodei se reunió el mes pasado con Bessent y Wiles para resolver una disputa de meses entre la empresa y la administración. La Casa Blanca evalúa hoy un esquema de supervisión que coincide con la decisión que Anthropic ya tomó por su cuenta: retener Mythos.
PUBLICIDAD
Beijing, además, entra en escena
Washington y Beijing estarían sopesando conversaciones oficiales sobre los riesgos de la inteligencia artificial antes de la cumbre Trump-Xi de la próxima semana en China, según el reporte del WSJ. Una vía bilateral con Beijing sobre los riesgos de los modelos de frontera marcaría un reposicionamiento sustantivo de Estados Unidos en la materia.
Lo que cambió en pocas semanas
Hace pocas semanas, la posición oficial era que la regulación frenaba la innovación y que Estados Unidos ganaba la carrera de IA al margen del Estado. Hoy, el director nacional de Ciberseguridad coordina la respuesta sobre un modelo privado, el secretario del Tesoro llama a banqueros, el director del Consejo Económico Nacional invoca el modelo de revisión farmacéutica y la Casa Blanca redacta una orden ejecutiva de supervisión.
La pregunta que define la industria de IA cambió de eje. Hace un año era cuánto más grande podía ser el próximo modelo. Hoy es cuáles van a estar disponibles, para quién y bajo qué condiciones.
PUBLICIDAD