
Microsoft ha tomado una decisión estratégica para acelerar su desarrollo en inteligencia artificial al planificar la integración de semiconductores personalizados diseñados por OpenAI en su oferta de hardware. Gracias a su colaboración renovada con el creador de ChatGPT, la compañía obtendrá acceso exclusivo a los avances en chips, modelos y sistemas desarrollados para la compañía tecnológica especializada en IA.
Acuerdo entre Microsoft y OpenAI para acelerar la innovación en semiconductores IA
Según las declaraciones de Satya Nadella, CEO de Microsoft, en un reciente podcast, la empresa aprovechará la innovación de OpenAI “incluso a nivel de sistema” y “obtendrá acceso a todo eso”. La organización de Redmond planea “incorporar lo que crean [OpenAI] para ellos” y ampliar esas soluciones para fortalecer su propio hardware.
El acuerdo revisado entre ambas partes garantiza a Microsoft acceso a los modelos de OpenAI hasta el año 2032 y a la investigación de vanguardia hasta 2030 —o hasta la consecución de la inteligencia artificial general, según la evaluación de un panel de expertos—. Así lo dio a conocer Bloomberg.
Es pertinente señalar que el hardware de consumo de OpenAI queda fuera de los derechos de uso intelectual, según lo pactado.
OpenAI, por su parte, colabora con Broadcom en el diseño de chips y hardware de red optimizados para IA. Mientras tanto, aunque Microsoft ha dado algunos pasos en el desarrollo de sus propios chips, aún no ha igualado el éxito de empresas rivales en la nube, como Google.
Con este acuerdo, Microsoft busca cerrar esa brecha, aprovechando las innovaciones de la empresa de inteligencia artificial para aplicar los diseños de chips a sus propias necesidades en nube y fortificar su posición en IA.
Perspectiva de la colaboración Microsoft-OpenAI en el desarrollo de chips
La asociación con OpenAI representa una oportunidad clave para Microsoft: le permite no solo beneficiarse de la última tecnología en semiconductores, sino también adaptar estas soluciones a su infraestructura de nube, multiplicando el impacto comercial y la eficiencia operativa.
El respaldo de Broadcom en el proceso de diseño subraya la apuesta conjunta por la creación de hardware específicamente adaptado a los desafíos de la inteligencia artificial de próxima generación.
Este movimiento estratégico fortalece la posición de Microsoft en la competencia global por la supremacía de la IA, garantizándole acceso inmediato a los avances del laboratorio más innovador del sector y situándolo un paso por delante en la carrera por liderar los servicios y plataformas inteligentes del futuro.
Esta es la “superfábrica de IA” de Microsoft
La reciente integración de dos grandes centros de datos de Microsoft ubicados en Wisconsin y Atlanta ha dado como resultado la creación de lo que la empresa denomina su primera “superfábrica de IA”.
Esta infraestructura innovadora representa un salto en la eficiencia del entrenamiento de modelos de inteligencia artificial, logrando reducir procesos que solían tomar meses a apenas unas semanas, y posicionando a Microsoft a la vanguardia en la aceleración del desarrollo de IA a gran escala.
Esta superfábrica responde a la demanda creciente de recursos computacionales necesarios para entrenar modelos avanzados de inteligencia artificial. Basada en la arquitectura Fairwater, la instalación combina varios centros de datos distribuidos pero integrados como una sola unidad poderosa.

Así, tanto equipos de OpenAI como el grupo de Superinteligencia de Microsoft pueden acceder a recursos de procesamiento punteros para sus labores de entrenamiento.
El gerente general de infraestructura Azure, Alistair Speirs, señaló que el objetivo central es “construir una red distribuida que pueda actuar como un superordenador virtual para abordar los mayores desafíos del mundo de formas que no serían posibles en una sola instalación”.
Este sistema incorpora varias innovaciones técnicas clave. Utiliza sistemas NVIDIA GB200 NVL72 a nivel de rack, capaces de agrupar cientos de miles de GPUs NVIDIA Blackwell para ofrecer el rendimiento más alto por rack actualmente disponible en plataformas cloud.
El diseño en dos niveles maximiza la densidad de GPUs, y un sistema avanzado de refrigeración líquida garantiza mínimo consumo de agua. Además, una red dedicada de fibra óptica denominada AI Wide Area Network (AI WAN) enlaza los centros de datos, facilitando el tráfico de datos a gran velocidad.
Últimas Noticias
Investigadores de ciberseguridad detectan paquete falso de WhatsApp en npm que roba mensajes y contactos
El npm es un sistema de gestión de paquetes para JavaScript que permite instalar, compartir y administrar librerías y herramientas de software en proyectos de desarrollo

El fin de la luz LED: cómo es la nueva tecnología de iluminación que ahorra energía
La integración de materiales ultradelgados inaugura una nueva etapa de innovación en muebles, arquitectura y dispositivos, con beneficios en eficiencia y experiencias sensoriales que transforman la vida diaria

Los 10 regalos de tecnología que nunca debes dar en Navidad
Un celular que no reciba Android 16 o iOS 26 supone un riesgo, al quedar sin parches de seguridad ni nuevas funciones

Las 5 mejores papas navideñas para la cena de Nochebuena, según la IA: incluye gratinadas
Las papas gratinadas, al horno y en puré se mantienen como clásicos infaltables en las mesas navideñas.

Android Auto vuelve a renovarse con funciones que amarás en tu vehículo
El rediseño responde al lenguaje visual Material 3 y busca unificar la estética del sistema con el resto del ecosistema Android



