El 75 % del código de Google ya lo escribe una máquina, y la fábrica que lo entrena se vende al resto del mundo

En Google Cloud Next 2026, Thomas Kurian declaró cerrada la fase experimental de la inteligencia artificial corporativa y Sundar Pichai mostró el resultado: una red de agentes que ya escribe tres de cada cuatro líneas de código

Guardar
Sundar Pichai, CEO de Google, mirando al frente con gafas y cárdigan oscuro. A su derecha, el texto indica que el 75% del código de Google es IA
Sundar Pichai, CEO de Google, destaca que aproximadamente el 75% del nuevo código de la compañía es generado por inteligencia artificial y aprobado por ingenieros.

Estoy en el Mandalay Bay de Las Vegas. Acabo de salir del keynote de apertura de Google Cloud Next 2026. Thomas Kurian en el escenario, Sundar Pichai por video desde Mountain View. Lo que anunciaron no fue una nube más rápida. Fue el final de una era y el inicio de otra.

“Han superado el piloto. La fase experimental quedó atrás”, abrió Kurian. Durante tres años, el discurso corporativo sobre inteligencia artificial fue el mismo en todas partes: probamos, medimos, aprendemos. Google acaba de declarar ese discurso obsoleto. La pregunta ya no es si tu empresa va a usar IA. Es cuántos agentes autónomos va a tener corriendo adentro, y quién los va a gobernar.

El dato que soltó Pichai explica el tamaño del salto. El 75 % del código nuevo que se escribe dentro de Google ya lo genera una inteligencia artificial, revisado y aprobado por ingenieros. Hace un año era el 50 %. La curva no es lineal, es exponencial.

Pichai lo ilustró con un caso operativo. Una migración compleja de código, que hace un año requería equipos de ingenieros trabajando semanas, ahora se completó seis veces más rápido usando una red de agentes con tres roles: planificadores, orquestadores y programadores. No es un copiloto. Es una fuerza de trabajo digital operando junto a los humanos dentro de la empresa que está marcando el paso del sector.

Si Google escribe así su propio código, la pregunta es obvia. ¿Cómo escribe el tuyo tu empresa?

Primer plano de Sundar Pichai, un hombre de mediana edad con gafas, barba gris y pelo oscuro, vistiendo una chaqueta azul marino con cuello blanco
Sundar Pichai, CEO de Google, se dirige a la audiencia durante la conferencia Google Cloud Next 2026 celebrada en Las Vegas. (Sundar Pichai CEO of Google, Google Cloud Next 2026 , Las vegas)

La plataforma con la que Google escribe su propio código ahora se la venden al resto del mundo

Sundar Pichai en un escenario con una pantalla gigante mostrando el logo de Google y un diagrama de 'Unified Stack' con capas de texto y símbolos
Sundar Pichai, CEO de Google, presenta la visión de "Unified Stack" de la compañía en el escenario de Google Cloud Next 2026 en Las Vegas. (Sundar Pichai CEO of Google, Google Cloud Next 2026 , Las vegas)

Kurian la llamó “tejido conectivo”. Se llama Gemini Enterprise Agent Platform y es el corazón del anuncio. No compite con una herramienta. Compite con la idea de que tu empresa pueda armar su IA comprando piezas sueltas.

El mensaje al rival fue directo: les están entregando las piezas, no la plataforma. Traducción para el ejecutivo que evalúa presupuesto del próximo año: si estás integrando OpenAI por un lado, Claude por otro y agentes de tu consultora favorita, ese matrimonio mixto se rompe cuando necesites escalar. Google ofrece lo contrario, un stack único que va del chip al agente final.

Pero hicieron una concesión inteligente. El mismo día, Kurian anunció que la plataforma soporta Claude Opus 4.7 de Anthropic y abrió su infraestructura al Model Context Protocol. Abierto, pero curado. Es una postura más sofisticada que la de Microsoft con OpenAI.

Los números de adopción que mostraron en pantalla respaldan la tesis. KPMG alcanzó el 90 % de uso de Gemini Enterprise entre sus empleados, con más de cien agentes construidos en el primer mes.

La aseguradora alemana Signal Iduna entrega respuestas a sus clientes 37 % más rápido. Walmart entregó teléfonos con Gemini a sus líderes de tienda para que dejen la pantalla y vuelvan al piso de venta.

Google acaba de convertir a su investigador autónomo en un servicio que cualquiera puede llamar

Philipp Schmid presenta en un escenario con fondo azul y blanco. Viste camisa negra y pantalones oscuros, junto a un podio blanco con el logo de Google Cloud
Philipp Schmid presenta las innovaciones del agente Gemini Deep Research a través de API durante su sesión en Google Cloud Next 2026, destacando los avances en inteligencia artificial. (Opy Morales)

Más tarde entré a una sesión de Philipp Schmid, responsable de experiencia de desarrolladores en Google DeepMind. Mostró algo que no salió en los titulares, pero que va a mover el mercado regional.

Presentó la Interactions API, una forma nueva y unificada de llamar a modelos y a agentes completos con la misma simplicidad con la que hoy se consulta a un chatbot. El servidor guarda el estado de la conversación, las tareas pueden durar horas sin perderse y los procesos se reconectan solos si se cortan. Es un cambio técnico fino con consecuencia práctica: hace viables los agentes que trabajan durante horas sin supervisión humana.

El ejemplo que mostró fue contundente. Antes, construir un investigador autónomo capaz de leer internet, razonar, detectar huecos de información, buscar más y redactar un informe con citas inline requería meses de ingeniería.

Ahora Google expuso su propio Deep Research como una llamada de API con una sola línea de código. Lo que era un producto dentro de la app de Gemini, ahora cualquier empresa puede meterlo dentro de su propio software.

Pantalla de presentación en Google Cloud Next 2026 con diapositivas sobre "Building agents With Gemini and GDM", mostrando su arquitectura y diagrama de flujo
Durante la sesión de Philipp Schmid en Google Cloud Next 2026, se presenta en pantalla el funcionamiento y las capacidades del agente de investigación Gemini Deep Research mediante API, destacando su arquitectura y resultados de evaluación.

Para una empresa en Buenos Aires, Bogotá o Madrid, eso se traduce en algo concreto. El costo de sumar un investigador digital capaz de producir informes con fuentes dejó de medirse en meses de desarrollo y pasó a medirse en minutos de integración.

Mi top 5 de lo que importa

1— Los TPU de octava generación, separados por primera vez entre entrenamiento (TPU 8t) e inferencia (TPU 8i). Amin Vahdat presentó el TPU 8t con casi tres veces más rendimiento por pod que la generación anterior, y el TPU 8i con un salto de 9,8 veces sobre Ironwood, el chip previo. Traducción práctica: Cada consulta a un modelo de Google tiene desde hoy un costo unitario más bajo.

2— El Cross-Cloud Lakehouse. Karthik Narain lo presentó así: los datos de las empresas viven en AWS, en Azure y en SaaS de terceros, y ahora el motor analítico de Google puede razonar sobre ellos sin moverlos, usando el estándar abierto Apache Iceberg. Narain lo dijo sin eufemismos: el lakehouse tradicional, que exigía que el motor analítico y el almacenamiento vivan en la misma nube, está roto.

3— La llegada de Wiz al stack de seguridad. Francis D’Souza presentó la nueva AI Application Protection Platform (AI App), que automatiza descubrimiento, validación y remediación de riesgos en aplicaciones con IA. En el mismo bloque, D’Souza mostró un dato que retrata por qué la defensa manual quedó obsoleta: el tiempo de traspaso entre el acceso inicial de un atacante y un grupo secundario de amenaza cayó de ocho horas a 22 segundos. No existe un equipo humano que opere en esa ventana.

4— Apple eligió a Google Cloud como proveedor preferencial para desarrollar la próxima generación de sus modelos base. El Siri que viene corre sobre Gemini.

5— Workspace Intelligence y la nueva migración rápida desde Microsoft 365, ahora hasta cinco veces más veloz. Yulie Kwon Kim lo presentó así: “La inteligencia en el espacio de trabajo supone el fin del impuesto contextual”. Traducido: el fin de la carga de tiempo que pierde un empleado saltando entre pestañas y aplicaciones para armar un documento.

La foto que queda

Una gran multitud de personas vista desde atrás llena un pasillo interior. Se ven carteles de 'Google Cloud Next' y 'SOUTH CONVENTION CENTER'
Miles de asistentes de todo el mundo abarrotan los pasillos del centro de convenciones en Las Vegas para la conferencia Google Cloud Next. (Opy Morales)

El 75 % del código de Google lo escriben máquinas. La infraestructura que entrenó eso ahora está disponible como producto comercial. Y la tesis que Kurian repitió cuatro veces en el escenario es clara: la fase experimental terminó.

Lo que venga después ya no se va a medir en pilotos. Se va a medir en flotas de agentes autónomos, en identidad criptográfica por agente, en orquestación, en observabilidad. Todas cosas que hasta ayer sonaban a paper académico y hoy son productos con precio de lista.

Esto no es una actualización de producto. Es un cambio de régimen. Y Google acaba de ponerle precio de lista.