Si tenés más de 65 años, probablemente recordás exactamente dónde estabas el 20 de julio de 1969. No hace falta haber entendido todo lo que pasaba: alcanzaba con estar frente a un televisor para ver la imagen en blanco y negro, cortada y casi ilegible, para sentir que algo en el mundo había cambiado para siempre.
Un hombre pisó la Luna. Esa imagen lleva más de medio siglo guardada en algún lugar preciso de tu memoria. La semana pasada, por primera vez desde entonces, una nave tripulada volvió a orbitar la Luna pero lo que hizo posible ese viaje es una historia que todavía no se contó del todo.
Los cuatro astronautas del Artemis II —cincuentones, como decimos en el barrio— volvieron a la Tierra la semana pasada después de completar la primera misión tripulada alrededor de la Luna en más de medio siglo: Reid Wiseman, Victor Glover, Christina Koch y Jeremy Hansen. Un ingeniero naval, un piloto con 3.000 horas de vuelo en 40 aeronaves y 400 aterrizajes en portaaviones, la mujer con el récord mundial de permanencia en el espacio y un coronel de combate canadiense.
Décadas de experiencia acumulada en entornos donde el error no se perdona — y aun así, para completar esta misión, los cuatro confiaron su vida a un quinto tripulante del que casi nadie habló: un sistema de inteligencia artificial sin el cual, según la empresa aeroespacial Lockheed Martin, la nave no hubiera despegado.
El quinto tripulante no imito a HAL 9000
Para entender el rol de la IA en Artemis II conviene empezar por una comparación. En 1969, la computadora del Apolo 11 tenía 64 KB de memoria (menos que un correo electrónico vacío hoy) y seis ingenieros en Houston rastreaban cada variable a mano. Los astronautas de Neil Armstrong no sabían programar esa computadora: confiaban en los ingenieros que la habían diseñado. El margen de error era enorme y aún así llegaron.
En Artemis II, Orión opera con sistemas de procesamiento redundantes capaces de gestionar millones de líneas de código por segundo. Los astronautas tampoco diseñaron los algoritmos de navegación autónoma: confiaron en los equipos que los construyeron y probaron. Lo que cambió no es la confianza sino la escala de lo que esa confianza hace posible.
Cada vez que alguien menciona una IA tomando decisiones a bordo de una nave espacial, algo en nuestro imaginario se activa: aparece HAL 9000, la computadora de 2001: Odisea del Espacio, diciendo “Lo siento, Dave, no puedo hacer eso” antes de dejar morir a los astronautas. Esa imagen lleva casi sesenta años instalada en el imaginario colectivo y no es inocente: moldea el miedo instintivo a delegar decisiones críticas en un sistema que no es humano. Lo que demostró Artemis II fue lo opuesto: la IA no bloqueó a los astronautas ni tomó el control de la misión sino que los mantuvo vivos cuando ningún ser humano, ni a bordo ni en Houston, podía intervenir.
La primera función que tuvo la IA en la misión fue la detección de anomalías. Durante el desarrollo y testeo de Orión, la empresa aeroespacial Lockheed Martin integró el sistema SIAT desarrollado por la tecnológica japonesa NEC Corporation, con la intención explícita de mantenerlo operativo en todas las misiones Artemis. En la fase de pruebas, esa herramienta procesó datos de más de 150.000 sensores distribuidos por toda la nave y mapeó más de 22.000 millones de relaciones lógicas entre sistemas, construyendo un motor de detección de anomalías capaz de identificar cambios sutiles de comportamiento en la distribución de energía, en el soporte vital, en la estructura mucho antes de que se convirtieran en problemas. El mismo sistema viajó en Orión durante Artemis II.
La segunda fue la navegación autónoma. Orión puso a prueba por primera vez su sistema de guiado, navegación y control en modo autónomo, con sensores inerciales (miden aceleraciones) y estelares (rastreadores de estrellas), tomando decisiones en milisegundos sin esperar instrucciones desde Houston. Once cámaras instaladas por la empresa Redwire alimentaban en tiempo real un sistema que calculaba de forma autónoma la posición y velocidad de la nave respecto a la Tierra.
La tercera fue el soporte vital. El sistema analizó en tiempo real variables vinculadas al soporte vital, energía, estructura y navegación, reduciendo el tiempo de respuesta frente a incidentes, y anticipó eventos de radiación solar activando protocolos de protección para la tripulación antes de que los astronautas siquiera los detectaran.
La cuarta área involucró la voz. A través del sistema Callisto, desarrollado en colaboración entre Lockheed Martin y Amazon, Alexa fue integrada directamente en la consola central de la cápsula Orión, conectada a la Red del Espacio Profundo, para permitir una interfaz de voz entre los astronautas y los operadores en el Centro Espacial Johnson. No es un detalle menor: significa que parte de la comunicación crítica entre tripulación y tierra pasó por la misma tecnología que millones de personas usan hoy para pedirle a un parlante que apague la luz.
El momento más exigente para todos estos sistemas llegó al final: el reingreso a la atmósfera. Cuando la nave perdió contacto temporal con el centro de control, la IA permitió una navegación autónoma, operando sin asistencia directa desde la Tierra. No había alternativa porque a esa distancia, una señal de radio tarda más de un segundo en llegar y, en una emergencia, ese segundo puede ser demasiado.
El quinto tripulante está invitado al directorio
Existe una manera de pensar el rol de la inteligencia artificial que va más allá de la metáfora de los tripulantes. Es exactamente la misma posición que comienzan a darle algunas grandes corporaciones. Un paper publicado recientemente en Harvard Business Review, la revista de gestión Harvard Business Review, basado en grupos de trabajo con más de 50 presidentes y vicepresidentes de directorios de empresas globales como Nestlé, Shell y Novo Nordisk, describe cómo la IA puede contribuir al trabajo de un board de tres maneras distintas: asistiendo a los miembros individuales, facilitando mejor información al conjunto, y participando activamente en las discusiones.
El caso más concreto hasta ahora es Aiden Insight, un sistema desarrollado por la empresa tecnológica G42 que en 2024 fue incorporado como observador formal en el directorio de International Holding Company, el conglomerado con sede en Abu Dabi, una de las principales corporaciones de los Emiratos árabes Unidos. Aiden analiza las discusiones en tiempo real, sus aportes quedan registrados en las actas de reunión, pero no tiene poder de voto.
Voz sin voto: el modelo que operó en Orión durante Artemis II. Lo que hizo la IA en la misión encaja perfectamente en ese esquema porque analizó información en tiempo real y contribuyó a las decisiones sin ser el último decisor. El comandante Wiseman seguía siendo el comandante, pero tenía a bordo un quinto tripulante que procesaba un caudal de datos que ningún ser humano puede procesar, y que en los momentos más críticos del viaje — sin señal, sin contacto con Houston, a 400.000 kilómetros — fue el único de todo ese gran board de científicos y técnicos que pudo actuar. Esa dinámica de colaboración llegó al espacio antes de que la mayoría de las empresas terrestres intentara probarla en sus propias salas de reuniones.