Estoy en el Mandalay Bay de Las Vegas. Acabo de salir del keynote de apertura de Google Cloud Next 2026. Thomas Kurian en el escenario, Sundar Pichai por video desde Mountain View. Lo que anunciaron no fue una nube más rápida. Fue el final de una era y el inicio de otra.
“Han superado el piloto. La fase experimental quedó atrás”, abrió Kurian. Durante tres años, el discurso corporativo sobre inteligencia artificial fue el mismo en todas partes: probamos, medimos, aprendemos. Google acaba de declarar ese discurso obsoleto. La pregunta ya no es si tu empresa va a usar IA. Es cuántos agentes autónomos va a tener corriendo adentro, y quién los va a gobernar.
El dato que soltó Pichai explica el tamaño del salto. El 75 % del código nuevo que se escribe dentro de Google ya lo genera una inteligencia artificial, revisado y aprobado por ingenieros. Hace un año era el 50 %. La curva no es lineal, es exponencial.
Pichai lo ilustró con un caso operativo. Una migración compleja de código, que hace un año requería equipos de ingenieros trabajando semanas, ahora se completó seis veces más rápido usando una red de agentes con tres roles: planificadores, orquestadores y programadores. No es un copiloto. Es una fuerza de trabajo digital operando junto a los humanos dentro de la empresa que está marcando el paso del sector.
Si Google escribe así su propio código, la pregunta es obvia. ¿Cómo escribe el tuyo tu empresa?
La plataforma con la que Google escribe su propio código ahora se la venden al resto del mundo
Kurian la llamó “tejido conectivo”. Se llama Gemini Enterprise Agent Platform y es el corazón del anuncio. No compite con una herramienta. Compite con la idea de que tu empresa pueda armar su IA comprando piezas sueltas.
El mensaje al rival fue directo: les están entregando las piezas, no la plataforma. Traducción para el ejecutivo que evalúa presupuesto del próximo año: si estás integrando OpenAI por un lado, Claude por otro y agentes de tu consultora favorita, ese matrimonio mixto se rompe cuando necesites escalar. Google ofrece lo contrario, un stack único que va del chip al agente final.
Pero hicieron una concesión inteligente. El mismo día, Kurian anunció que la plataforma soporta Claude Opus 4.7 de Anthropic y abrió su infraestructura al Model Context Protocol. Abierto, pero curado. Es una postura más sofisticada que la de Microsoft con OpenAI.
Los números de adopción que mostraron en pantalla respaldan la tesis. KPMG alcanzó el 90 % de uso de Gemini Enterprise entre sus empleados, con más de cien agentes construidos en el primer mes.
La aseguradora alemana Signal Iduna entrega respuestas a sus clientes 37 % más rápido. Walmart entregó teléfonos con Gemini a sus líderes de tienda para que dejen la pantalla y vuelvan al piso de venta.
Google acaba de convertir a su investigador autónomo en un servicio que cualquiera puede llamar
Más tarde entré a una sesión de Philipp Schmid, responsable de experiencia de desarrolladores en Google DeepMind. Mostró algo que no salió en los titulares, pero que va a mover el mercado regional.
Presentó la Interactions API, una forma nueva y unificada de llamar a modelos y a agentes completos con la misma simplicidad con la que hoy se consulta a un chatbot. El servidor guarda el estado de la conversación, las tareas pueden durar horas sin perderse y los procesos se reconectan solos si se cortan. Es un cambio técnico fino con consecuencia práctica: hace viables los agentes que trabajan durante horas sin supervisión humana.
El ejemplo que mostró fue contundente. Antes, construir un investigador autónomo capaz de leer internet, razonar, detectar huecos de información, buscar más y redactar un informe con citas inline requería meses de ingeniería.
Ahora Google expuso su propio Deep Research como una llamada de API con una sola línea de código. Lo que era un producto dentro de la app de Gemini, ahora cualquier empresa puede meterlo dentro de su propio software.
Para una empresa en Buenos Aires, Bogotá o Madrid, eso se traduce en algo concreto. El costo de sumar un investigador digital capaz de producir informes con fuentes dejó de medirse en meses de desarrollo y pasó a medirse en minutos de integración.
Mi top 5 de lo que importa
1— Los TPU de octava generación, separados por primera vez entre entrenamiento (TPU 8t) e inferencia (TPU 8i). Amin Vahdat presentó el TPU 8t con casi tres veces más rendimiento por pod que la generación anterior, y el TPU 8i con un salto de 9,8 veces sobre Ironwood, el chip previo. Traducción práctica: Cada consulta a un modelo de Google tiene desde hoy un costo unitario más bajo.
2— El Cross-Cloud Lakehouse. Karthik Narain lo presentó así: los datos de las empresas viven en AWS, en Azure y en SaaS de terceros, y ahora el motor analítico de Google puede razonar sobre ellos sin moverlos, usando el estándar abierto Apache Iceberg. Narain lo dijo sin eufemismos: el lakehouse tradicional, que exigía que el motor analítico y el almacenamiento vivan en la misma nube, está roto.
3— La llegada de Wiz al stack de seguridad. Francis D’Souza presentó la nueva AI Application Protection Platform (AI App), que automatiza descubrimiento, validación y remediación de riesgos en aplicaciones con IA. En el mismo bloque, D’Souza mostró un dato que retrata por qué la defensa manual quedó obsoleta: el tiempo de traspaso entre el acceso inicial de un atacante y un grupo secundario de amenaza cayó de ocho horas a 22 segundos. No existe un equipo humano que opere en esa ventana.
4— Apple eligió a Google Cloud como proveedor preferencial para desarrollar la próxima generación de sus modelos base. El Siri que viene corre sobre Gemini.
5— Workspace Intelligence y la nueva migración rápida desde Microsoft 365, ahora hasta cinco veces más veloz. Yulie Kwon Kim lo presentó así: “La inteligencia en el espacio de trabajo supone el fin del impuesto contextual”. Traducido: el fin de la carga de tiempo que pierde un empleado saltando entre pestañas y aplicaciones para armar un documento.
La foto que queda
El 75 % del código de Google lo escriben máquinas. La infraestructura que entrenó eso ahora está disponible como producto comercial. Y la tesis que Kurian repitió cuatro veces en el escenario es clara: la fase experimental terminó.
Lo que venga después ya no se va a medir en pilotos. Se va a medir en flotas de agentes autónomos, en identidad criptográfica por agente, en orquestación, en observabilidad. Todas cosas que hasta ayer sonaban a paper académico y hoy son productos con precio de lista.
Esto no es una actualización de producto. Es un cambio de régimen. Y Google acaba de ponerle precio de lista.