Cómo la computación analógica puede reducir mil veces el gasto energético de la inteligencia artificial

La propuesta impulsa una forma innovadora de operar sistemas, con el objetivo de reducir el consumo eléctrico en procesos de automatización y en el desarrollo de tecnologías robóticas avanzadas

La revolución de la inteligencia artificial plantea nuevos desafíos para la sostenibilidad tecnológica en el mundo actual (Imagen Ilustrativa Infobae)

El avance de la inteligencia artificial (IA) trajo consigo un crecimiento exponencial en su capacidad, pero también un gasto energético cada vez mayor. De acuerdo con diversas estimaciones, una consulta de máxima longitud en Chat GPT puede consumir aproximadamente el doble de energía que un hogar promedio de Estados Unidos en un minuto.

Al multiplicar este consumo por miles de millones de consultas diarias y sumar el intenso proceso de entrenamiento que requieren los modelos de IA, el impacto energético se vuelve considerable. Es por esto que, los investigadores buscan alternativas para que la IA sea más sostenible y reduzca su huella de carbono.

Un estudio reciente, liderado por Tianyi Chen, profesor asociado de ingeniería eléctrica e informática en Cornell Tech, junto a colaboradores de IBM y el Rensselaer Polytechnic Institute, explora una solución innovadora: la computación analógica en memoria (AIMC). Esta tecnología emplea chips analógicos para almacenar y procesar datos de manera eficiente. A diferencia de las arquitecturas tradicionales, que requieren transferir información de forma constante entre memoria y procesadores, la AIMC permite que los datos permanezcan en un solo lugar.

Read more!

“Esto aprovecha la física para realizar cálculos matemáticos de manera instantánea, sin necesidad de mover los datos, y podría reducir el consumo energético hasta mil veces, haciendo sostenible la próxima generación de IA”, explicó Chen, quien también forma parte de Cornell Engineering.

El funcionamiento masivo de los modelos de IA demanda recursos energéticos significativos, generando preocupación por su huella ambiental (Freepik)

Computación analógica en memoria: una alternativa prometedora

La computación analógica en memoria se presenta como una vía para disminuir drásticamente el gasto energético de la IA. Esta tecnología permite que los chips analógicos ejecuten modelos de IA con un consumo mucho menor, una vez que fueron entrenados.

Sin embargo, el proceso de entrenamiento fue una limitación importante. Chen indicó: “El hardware analógico funciona de manera imperfecta. Los pulsos eléctricos que actualizan los parámetros del modelo pueden ser desiguales o verse alterados por el ruido, lo que provoca gradientes inexactos y afecta el aprendizaje”.

Para superar este obstáculo, el equipo de Chen desarrolló una versión analógica de uno de los algoritmos más utilizados en el entrenamiento de IA: la “retropropagación”. El resultado es una variante llamada “Residual Learning”, que corrige de forma sistemática las imperfecciones del hardware y garantiza que el entrenamiento se mantenga en el camino correcto.

La introducción de chips analógicos promete una reducción drástica en el consumo de energía durante el procesamiento y entrenamiento de sistemas inteligentes (Imagen Ilustrativa Infobae)

Residual Learning añade una capa extra que monitorea y corrige las imperfecciones en tiempo real. De esta manera, es posible entrenar modelos de IA con precisión similar a los sistemas digitales, pero con un consumo energético significativamente inferior.

Chen afirmó: “Compensamos dinámicamente las imperfecciones naturales del hardware para que el modelo se entrene con una precisión comparable a la del hardware digital, pero a una fracción del costo energético”.

Esta innovación fue presentada por el equipo en una exposición oral en diciembre durante la Conferencia Anual sobre Sistemas de Procesamiento de Información Neural (NeurIPS) 2025. El método no solo aborda las fallas típicas del hardware analógico, sino que también introduce un enfoque sistemático para mantener la estabilidad y la imparcialidad durante el entrenamiento.

Innovaciones recientes abren el camino a desarrollos en IA que combinan potencia y eficiencia, facilitando su implementación en aplicaciones cotidianas con menor costo ambiental (Imagen Ilustrativa Infobae)

Hacia una inteligencia artificial más eficiente

El avance logrado por el equipo de Chen podría tener un impacto considerable en la forma en que se desarrolla y utiliza la IA. Permitiría entrenar y ajustar modelos de gran escala utilizando mucha menos energía y con costos reducidos.

Esto haría viables aplicaciones que actualmente resultan poco prácticas para sistemas con alto consumo, como dispositivos médicos, tecnología vestible, sensores industriales y robots autónomos. Además, la innovación podría allanar el camino para la creación de nuevas arquitecturas de modelos de IA específicamente diseñadas para hardware analógico.

Como próximos pasos, el equipo planea adaptar la metodología a modelos de código abierto y explorar colaboraciones con la industria para escalar la tecnología. Chen concluyó: “Esto abre la puerta a modelos mucho más eficientes energéticamente que los actuales. Nuestra investigación podría impulsar un cambio real en la construcción y utilización de la inteligencia artificial”.

Read more!