El debate sobre el impacto energético de la inteligencia artificial sumó una nueva voz relevante luego de que Sam Altman, director ejecutivo de OpenAI, defendiera el alto consumo eléctrico asociado al desarrollo de modelos avanzados.
El empresario sostuvo que el gasto energético necesario para entrenar sistemas de IA debe entenderse como parte del progreso tecnológico y lo comparó con la inversión de recursos que implica formar a una persona durante años.
“La gente habla de cuánta energía se necesita para entrenar un modelo de IA… Pero también cuesta mucha energía entrenar a un ser humano. Son como 20 años de vida y toda la comida que consumes en ese tiempo antes de que seas inteligente”, afirmó el ejecutivo al referirse al tema durante la cumbre India AI Impact 2026.
Sus declaraciones se producen en un contexto de creciente preocupación por la huella energética de los sistemas de inteligencia artificial, especialmente aquellos basados en grandes modelos de lenguaje y plataformas generativas.
El entrenamiento de estas tecnologías requiere enormes volúmenes de datos procesados en centros de cómputo especializados, que operan con miles de servidores de alto rendimiento y demandan un suministro eléctrico constante.
Especialistas en energía y computación coinciden en que el paralelismo con el desarrollo humano resulta llamativo, pero advierten que simplifica un fenómeno más complejo. El cerebro humano, por ejemplo, consume alrededor del 20% de la energía del cuerpo en reposo, y la formación de una persona implica décadas de inversión en alimentación, educación, infraestructura y recursos sociales. Sin embargo, esa demanda se distribuye a lo largo del tiempo y entre múltiples sistemas económicos.
En contraste, el entrenamiento de un modelo de inteligencia artificial concentra un consumo eléctrico muy elevado en periodos relativamente cortos. Este proceso puede extenderse durante semanas o meses, utilizando infraestructuras de cómputo intensivo cuya energía proviene, en muchos casos, de redes que todavía dependen parcialmente de combustibles fósiles.
El desafío no se limita al entrenamiento inicial. Una vez desplegados, los sistemas de IA continúan consumiendo energía en la fase conocida como “inferencia”, es decir, cada vez que responden a una consulta, generan una imagen, procesan datos o automatizan una tarea. Con millones de usuarios interactuando diariamente, la demanda energética se multiplica de forma sostenida.
Además, los centros de datos que alojan estos sistemas requieren refrigeración constante para evitar el sobrecalentamiento de los equipos, lo que incrementa aún más el consumo. Esta infraestructura, considerada la columna vertebral de la economía digital, se ha convertido en un foco de análisis para gobiernos y organizaciones ambientales que buscan medir su impacto en las emisiones globales.
El crecimiento acelerado de la inteligencia artificial plantea interrogantes a mediano plazo. Si la competencia por desarrollar modelos cada vez más grandes y complejos continúa, el consumo energético podría aumentar de forma significativa, presionando las redes eléctricas y dificultando el cumplimiento de metas climáticas internacionales.
En este escenario, el debate ya no gira únicamente en torno a si la inteligencia artificial es beneficiosa o no, sino a cómo hacerla sostenible. Investigadores y empresas del sector trabajan en mejorar la eficiencia de los algoritmos, optimizar el uso del hardware y trasladar la operación de los centros de datos hacia fuentes renovables, con el objetivo de reducir la huella ambiental sin frenar la innovación.
Las declaraciones de Altman reflejan una postura extendida dentro de la industria tecnológica: la idea de que cada gran avance histórico —desde la industrialización hasta la expansión de internet— ha requerido un aumento inicial en el consumo de energía antes de lograr procesos más eficientes. No obstante, el ritmo actual de adopción de la IA ha acelerado la necesidad de encontrar un equilibrio entre desarrollo tecnológico y sostenibilidad.