
El avance de la inteligencia artificial (IA) trajo consigo un crecimiento exponencial en su capacidad, pero también un gasto energético cada vez mayor. De acuerdo con diversas estimaciones, una consulta de máxima longitud en Chat GPT puede consumir aproximadamente el doble de energía que un hogar promedio de Estados Unidos en un minuto.
Al multiplicar este consumo por miles de millones de consultas diarias y sumar el intenso proceso de entrenamiento que requieren los modelos de IA, el impacto energético se vuelve considerable. Es por esto que, los investigadores buscan alternativas para que la IA sea más sostenible y reduzca su huella de carbono.
Un estudio reciente, liderado por Tianyi Chen, profesor asociado de ingeniería eléctrica e informática en Cornell Tech, junto a colaboradores de IBM y el Rensselaer Polytechnic Institute, explora una solución innovadora: la computación analógica en memoria (AIMC). Esta tecnología emplea chips analógicos para almacenar y procesar datos de manera eficiente. A diferencia de las arquitecturas tradicionales, que requieren transferir información de forma constante entre memoria y procesadores, la AIMC permite que los datos permanezcan en un solo lugar.
“Esto aprovecha la física para realizar cálculos matemáticos de manera instantánea, sin necesidad de mover los datos, y podría reducir el consumo energético hasta mil veces, haciendo sostenible la próxima generación de IA”, explicó Chen, quien también forma parte de Cornell Engineering.

Computación analógica en memoria: una alternativa prometedora
La computación analógica en memoria se presenta como una vía para disminuir drásticamente el gasto energético de la IA. Esta tecnología permite que los chips analógicos ejecuten modelos de IA con un consumo mucho menor, una vez que fueron entrenados.
Sin embargo, el proceso de entrenamiento fue una limitación importante. Chen indicó: “El hardware analógico funciona de manera imperfecta. Los pulsos eléctricos que actualizan los parámetros del modelo pueden ser desiguales o verse alterados por el ruido, lo que provoca gradientes inexactos y afecta el aprendizaje”.
Para superar este obstáculo, el equipo de Chen desarrolló una versión analógica de uno de los algoritmos más utilizados en el entrenamiento de IA: la “retropropagación”. El resultado es una variante llamada “Residual Learning”, que corrige de forma sistemática las imperfecciones del hardware y garantiza que el entrenamiento se mantenga en el camino correcto.

Residual Learning añade una capa extra que monitorea y corrige las imperfecciones en tiempo real. De esta manera, es posible entrenar modelos de IA con precisión similar a los sistemas digitales, pero con un consumo energético significativamente inferior.
Chen afirmó: “Compensamos dinámicamente las imperfecciones naturales del hardware para que el modelo se entrene con una precisión comparable a la del hardware digital, pero a una fracción del costo energético”.
Esta innovación fue presentada por el equipo en una exposición oral en diciembre durante la Conferencia Anual sobre Sistemas de Procesamiento de Información Neural (NeurIPS) 2025. El método no solo aborda las fallas típicas del hardware analógico, sino que también introduce un enfoque sistemático para mantener la estabilidad y la imparcialidad durante el entrenamiento.

Hacia una inteligencia artificial más eficiente
El avance logrado por el equipo de Chen podría tener un impacto considerable en la forma en que se desarrolla y utiliza la IA. Permitiría entrenar y ajustar modelos de gran escala utilizando mucha menos energía y con costos reducidos.
Esto haría viables aplicaciones que actualmente resultan poco prácticas para sistemas con alto consumo, como dispositivos médicos, tecnología vestible, sensores industriales y robots autónomos. Además, la innovación podría allanar el camino para la creación de nuevas arquitecturas de modelos de IA específicamente diseñadas para hardware analógico.
Como próximos pasos, el equipo planea adaptar la metodología a modelos de código abierto y explorar colaboraciones con la industria para escalar la tecnología. Chen concluyó: “Esto abre la puerta a modelos mucho más eficientes energéticamente que los actuales. Nuestra investigación podría impulsar un cambio real en la construcción y utilización de la inteligencia artificial”.
Últimas Noticias
India le da 72 horas a Elon Musk para corregir a su IA Grok por generar contenido “obsceno”
La exigencia gubernamental indaga la responsabilidad de las plataformas tecnológicas ante fallos en la moderación de contenido generado por inteligencia artificial

Así es el nuevo altavoz preparado para karaoke: usa IA para eliminar las voces de las canciones
LG presentó el Stage 501, un altavoz con inteligencia artificial capaz de adaptar cualquier canción a la voz del usuario sin necesidad de archivos especiales

El WiFi puede ser más rápido sin pagar más: el cambio clave que debes hacer en el router
La saturación de los canales inalámbricos es una de las causas más comunes del internet lento, especialmente en edificios y zonas urbanas

Cuenta suspendida de WhatsApp: qué significa el aviso, por qué ocurre y cómo recuperarla
El uso de aplicaciones no oficiales, el envío de spam o los reportes masivos de otros usuarios figuran entre las causas más frecuentes de bloqueo

No guardes tu antiguo celular en casa: es más peligroso de los que crees
Expertos advierten que los teléfonos antiguos almacenados sin revisión pueden sufrir hinchazón, fugas químicas e incluso provocar incendios


