Así funciona el cerebro artificial que reduce el gasto energético de la IA

La nueva tecnología permite reconocimiento de patrones con una precisión cercana al 98% y un consumo mucho menor, lo que abre la puerta a dispositivos autónomos inteligentes donde la energía y la latencia son factores críticos

Guardar
Google icon
Una imagen de un cerebro humano estilizado y brillante en tonos azules sobre un circuito electrónico con líneas luminosas y microchips en colores anaranjados.
El sistema de computación en memoria de la Universidad Nacional de Singapur integra memoria y procesamiento para acelerar inteligencia artificial con eficiencia energética (Imagen Ilustrativa Infobae)

Un equipo de investigadores de la Universidad Nacional de Singapur desarrolló una innovadora arquitectura de computación en memoria (CIM) que combina procesamiento y almacenamiento de datos en un mismo espacio físico, un avance que podría transformar el futuro de la inteligencia artificial. Según informó el portal especializado Tech Xplore, el sistema permite ejecutar modelos de IA a gran velocidad mientras reduce el consumo energético a menos de la mitad en comparación con los métodos tradicionales.

La innovación, que utiliza una matriz de memristores de diseleniuro de hafnio, surge como respuesta a la demanda creciente de eficiencia en los procesos de IA: el entrenamiento de un gran modelo de lenguaje como GPT-3 puede requerir más de USD 10 millones y más de 700.000 litros de agua.

PUBLICIDAD

Esta característica cobra relevancia ante el cuello de botella que impone la arquitectura tradicional de los ordenadores. El profesor Ang Kah Wee, del Departamento de Ingeniería Eléctrica y Computación de la Universidad Nacional de Singapur, explicó que la mayor parte del tiempo y del consumo energético en las tareas de IA no proviene del procesamiento en sí, sino del movimiento de datos entre la memoria y el procesador.

El sistema desarrollado, presentado en la revista científica Nature Communications, elimina esa transferencia: los datos se almacenan y procesan en un mismo lugar mediante memristores, dispositivos que, a diferencia de los transistores convencionales, mantienen el estado de su resistencia sin energía y funcionan de forma análoga a las sinapsis cerebrales.

PUBLICIDAD

Una infografía horizontal que muestra un cerebro digital sobre un circuito y varios iconos ilustrativos relacionados con la computación en memoria y la IA.
Esta infografía detalle cómo el sistema integral de computación en memoria con memristores de diseleniuro de hafnio permite ejecutar modelos de inteligencia artificial a velocidades elevadas con menos de la mitad del consumo energético (Imagen Ilustrativa Infobae)

Arquitectura y rendimiento

La arquitectura está basada en una matriz de 1.024 memristores (matriz 32×32) de diseleniuro de hafnio, un material bidimensional que requiere poca energía y permite cambios de estado extremadamente rápidos. Cada memristor está acompañado por un selector de silicio que actúa como controlador de tráfico para evitar interferencias eléctricas indeseadas conocidas como corriente parásita. Este diseño uno a uno facilita el control de cada unidad, permite una alta densidad de integración y garantiza la compatibilidad con los procesos estándar de fabricación de semiconductores.

El equipo logró ensamblar la delicada capa activa de los memristores directamente sobre sustratos de silicio sin daño, lo que representa una ventaja fundamental para la eventual adopción industrial. La integración de circuitos periféricos elimina la necesidad de conversores analógico-digitales convencionales, sustituidos por sensores de dominio temporal que interpretan las señales eléctricas a partir del tiempo necesario para que ocurran cambios de voltaje. Este método reduce significativamente el tamaño y el gasto energético de los componentes.

En pruebas realizadas con una red neuronal convolucional simple para reconocimiento de patrones, el sistema alcanzó una precisión del 97,5%, prácticamente igual a la de sistemas digitales tradicionales, pero con un consumo energético sensiblemente inferior. Los memristores demostraron capacidad de conmutación —la velocidad a la que pueden encenderse y apagarse para procesar datos— en nanosegundos y soportaron más de 26.000 ciclos de programación sin degradación visible.

El resultado posiciona este sistema como una alternativa viable para aplicaciones en edge computing —el procesamiento de datos directamente en el dispositivo, sin depender de la nube—, sistemas autónomos y entornos donde la energía es un recurso crítico y la latencia debe minimizarse.

Ilustración 3D isométrica de nueve cerebros luminosos en una cuadrícula 3x3, interconectados por líneas punteadas azules, sobre una placa de circuito azul con trazos dorados.
La arquitectura de matriz 32×32 incorpora 1.024 memristores y controladores de silicio para aumentar eficiencia y evitar interferencias eléctricas (Imagen Ilustrativa Infobae)

Aplicaciones y próximos pasos

Ang señaló que el diseño propuesto es compatible con silicio, lo que supone que no requiere nuevos procesos de fabricación ni materiales exóticos. Esto favorece una posible transición desde la investigación hacia la producción en masa para impulsar el hardware especializado en IA.

La combinación de conmutación rápida, alta durabilidad y bajo voltaje vuelve al sistema idóneo para aplicaciones de computación neuromórfica. Este campo busca imitar el funcionamiento del cerebro humano, y la integración directa de funciones de activación —elementos clave de las redes neuronales— en el hardware elimina etapas de procesamiento adicionales, lo que mejora la eficiencia general del sistema.

Actualmente, el grupo explora el escalado de la matriz y la gestión de conjuntos de datos de mayor complejidad, con el objetivo de acercar estas capacidades a usos en tiempo real.

PUBLICIDAD

PUBLICIDAD