La inteligencia artificial vive un punto de inflexión en 2025 con el anuncio de Anthropic, desarrollador de los modelos Claude, que ampliará considerablemente su capacidad de cómputo a través de una alianza estratégica con Google Cloud, accediendo a hasta un millón de chips TPU y superando el gigavatio de potencia para 2026.
Cómo es la alianza entre Google y Anthropic
El acuerdo entre Anthropic y Google Cloud implicará una migración masiva de recursos hacia la infraestructura de la nube, con el acceso a grandes volúmenes de TPUs, la tecnología de aceleradores diseñada por Google para cargas específicas de inteligencia artificial.
De acuerdo con el comunicado oficial, la expansión representa una inversión de decenas de miles de millones de dólares y una escala inédita en la historia de la compañía, permitiendo superar el umbral del gigavatio de procesamiento en línea en apenas un año.

Esta capacidad favorecerá tanto el entrenamiento de modelos de lenguaje de última generación como la investigación en alineamiento y pruebas exhaustivas previas a los lanzamientos más ambiciosos.
La compañía tecnológica actualmente sirve a más de 300.000 clientes empresariales, cifra que incluye grandes cuentas corporativas cuyo volumen de ingresos recurrentes ha crecido casi siete veces en el último año.
De acuerdo con Krishna Rao, director financiero de Anthropic, el trato facilitará atender la demanda de grandes compañías y startups que ya confían en Claude para funciones críticas, mientras permite a la empresa posicionar sus modelos en la vanguardia de la industria.
Por parte de Google, Thomas Kurian, CEO de Google Cloud, recalcó que la elección de Anthropic subraya la eficiencia observada por sus equipos con las TPUs en los últimos años.
La séptima generación de estos chips, denominada Ironwood, representa la evolución más reciente del portafolio de aceleradores de Google y reafirma el compromiso del gigante tecnológico por mantener una oferta puntera y escalable para sus clientes de inteligencia artificial.

El enfoque computacional de Anthropic destaca frente a sus principales competidores, como OpenAI, que desarrolla centros de datos propios y trabaja en chips personalizados, o xAI de Elon Musk, cuyo clúster Colossus en Memphis marca otra estrategia de integración vertical.
Desde la compañía tecnológica han optado por no invertir directamente en la construcción de hardware propio, favoreciendo acuerdos flexibles con proveedores externos. Si bien esta táctica minimiza el riesgo financiero inmediato asociado a la infraestructura, también aumenta la dependencia respecto de la evolución de precios y contratos en la nube. Para la empresa de tecnología, esta decisión permite concentrarse en su especialidad: avanzar en los límites de la IA aplicada y comercial.
El modelo de Anthropic es, no obstante, diversificado. La compañía recurre no solo a las TPUs de Google, también a la plataforma Trainium de Amazon y a las GPUs de NVIDIA. Esta arquitectura multiplataforma posibilita ajustar cargas de trabajo, explorar distintas optimizaciones y evitar cuellos de botella en un entorno donde la competencia por recursos computacionales es cada día más feroz.
La compañía mantiene en paralelo una asociación estratégica con Amazon, su principal socio para el entrenamiento de modelos, y colabora en el desarrollo del Proyecto Rainier, que busca desplegar cientos de miles de chips de IA en varios centros de datos repartidos por Estados Unidos.
Qué son los TPUs y cuál es su importancia
Las TPUs (Tensor Processing Units) son chips desarrollados por Google y optimizados de forma exclusiva para acelerar tareas fundamentales en inteligencia artificial y aprendizaje profundo.
A diferencia de las CPUs convencionales o las GPUs tradicionales, las TPUs cuentan con una arquitectura centrada en la manipulación de tensores, estructuras de datos básicas de las redes neuronales.
Gracias a componentes como las matrices de multiplicadores (MXU), estos chips realizan cálculos de álgebra lineal y operaciones matriciales a una velocidad y eficiencia energética superiores, lo que reduce los tiempos de entrenamiento y permite desplegar modelos de escala cada vez mayor.
Hoy, las TPUs se ofrecen principalmente como servicio a través de Google Cloud. Las empresas y desarrolladores acceden virtualmente a una capacidad robusta sin requerir la compra directa de hardware, adaptándose así a escenarios de demanda variable y optimizando costos operativos.
El anuncio de Anthropic, que contempla utilizar hasta un millón de TPUs, refleja el avance acelerado de la industria de la IA y la intensificación de la competencia por recursos computacionales, en un momento en que la demanda de soluciones de inteligencia artificial de gran escala crece en todo el mundo.
Últimas Noticias
El día en que Gmail fue naranja: el correo electrónico que Garfield ofreció antes que Google
Gmail.garfield.com fue un recurso diseñado para interactuar con las diferentes secciones del sitio web del famoso gato anaranjado

Identifica con este mapa gratuito dónde hay mejor cobertura, operador y señal 5G en Colombia
DaTIC es el sistema actualizado de la Comisión de Regulación de Comunicaciones (CRC) que facilita la toma de decisiones en contratación, planeación e inversión en infraestructura digital en el país

No más mareo en un auto: Google prepara función para solucionarlo
‘Motion Cues’ estaría presente en Android 17 e introduce indicadores visuales de movimiento que ayudan a reducir la sensación de vértigo

Una IA puede predecir el riesgo de padecer cáncer de mama en los próximos 5 años con una mamografía
Este modelo, entrenado con cientos de miles de mamografías internacionales, identifica patrones invisibles para el ojo humano y sugiere pruebas adicionales solo a quienes realmente lo necesitan, ahorrando recursos y salvando vidas

Los 5 accesorios tecnológicos más buscados para Navidad 2025
Tecnología útil y adaptable encabeza la temporada de compras navideñas de 2025



