
Un equipo de investigadores de la Universidad Nacional de Singapur desarrolló una innovadora arquitectura de computación en memoria (CIM) que combina procesamiento y almacenamiento de datos en un mismo espacio físico, un avance que podría transformar el futuro de la inteligencia artificial. Según informó el portal especializado Tech Xplore, el sistema permite ejecutar modelos de IA a gran velocidad mientras reduce el consumo energético a menos de la mitad en comparación con los métodos tradicionales.
La innovación, que utiliza una matriz de memristores de diseleniuro de hafnio, surge como respuesta a la demanda creciente de eficiencia en los procesos de IA: el entrenamiento de un gran modelo de lenguaje como GPT-3 puede requerir más de USD 10 millones y más de 700.000 litros de agua.
PUBLICIDAD
Esta característica cobra relevancia ante el cuello de botella que impone la arquitectura tradicional de los ordenadores. El profesor Ang Kah Wee, del Departamento de Ingeniería Eléctrica y Computación de la Universidad Nacional de Singapur, explicó que la mayor parte del tiempo y del consumo energético en las tareas de IA no proviene del procesamiento en sí, sino del movimiento de datos entre la memoria y el procesador.
El sistema desarrollado, presentado en la revista científica Nature Communications, elimina esa transferencia: los datos se almacenan y procesan en un mismo lugar mediante memristores, dispositivos que, a diferencia de los transistores convencionales, mantienen el estado de su resistencia sin energía y funcionan de forma análoga a las sinapsis cerebrales.
PUBLICIDAD

Arquitectura y rendimiento
La arquitectura está basada en una matriz de 1.024 memristores (matriz 32×32) de diseleniuro de hafnio, un material bidimensional que requiere poca energía y permite cambios de estado extremadamente rápidos. Cada memristor está acompañado por un selector de silicio que actúa como controlador de tráfico para evitar interferencias eléctricas indeseadas conocidas como corriente parásita. Este diseño uno a uno facilita el control de cada unidad, permite una alta densidad de integración y garantiza la compatibilidad con los procesos estándar de fabricación de semiconductores.
El equipo logró ensamblar la delicada capa activa de los memristores directamente sobre sustratos de silicio sin daño, lo que representa una ventaja fundamental para la eventual adopción industrial. La integración de circuitos periféricos elimina la necesidad de conversores analógico-digitales convencionales, sustituidos por sensores de dominio temporal que interpretan las señales eléctricas a partir del tiempo necesario para que ocurran cambios de voltaje. Este método reduce significativamente el tamaño y el gasto energético de los componentes.
PUBLICIDAD
En pruebas realizadas con una red neuronal convolucional simple para reconocimiento de patrones, el sistema alcanzó una precisión del 97,5%, prácticamente igual a la de sistemas digitales tradicionales, pero con un consumo energético sensiblemente inferior. Los memristores demostraron capacidad de conmutación —la velocidad a la que pueden encenderse y apagarse para procesar datos— en nanosegundos y soportaron más de 26.000 ciclos de programación sin degradación visible.
El resultado posiciona este sistema como una alternativa viable para aplicaciones en edge computing —el procesamiento de datos directamente en el dispositivo, sin depender de la nube—, sistemas autónomos y entornos donde la energía es un recurso crítico y la latencia debe minimizarse.
PUBLICIDAD

Aplicaciones y próximos pasos
Ang señaló que el diseño propuesto es compatible con silicio, lo que supone que no requiere nuevos procesos de fabricación ni materiales exóticos. Esto favorece una posible transición desde la investigación hacia la producción en masa para impulsar el hardware especializado en IA.
La combinación de conmutación rápida, alta durabilidad y bajo voltaje vuelve al sistema idóneo para aplicaciones de computación neuromórfica. Este campo busca imitar el funcionamiento del cerebro humano, y la integración directa de funciones de activación —elementos clave de las redes neuronales— en el hardware elimina etapas de procesamiento adicionales, lo que mejora la eficiencia general del sistema.
PUBLICIDAD
Actualmente, el grupo explora el escalado de la matriz y la gestión de conjuntos de datos de mayor complejidad, con el objetivo de acercar estas capacidades a usos en tiempo real.
PUBLICIDAD
PUBLICIDAD
Últimas Noticias
Las cintas métricas ya tienen remplazo: apps para medir en tu casa usando el celular
Estas plataformas usan la realidad aumentada y la cámara para determinar el tamaño de objetos y las distancias

WiFi lento y cortes en casa: cómo mejorar la conexión y ampliar la señal fácilmente
Descubre cómo reiniciar el router, ubicarlo en el lugar ideal y alternar entre bandas para lograr una conexión más rápida y estable

Qué oportunidades tiene Tesla para liderar el mercado de robotaxis, valorado en 10 billones de dólares
Analistas prevén hasta 15 millones de viajes anuales en Estados Unidos para 2026
Google vs. Nvidia: por qué la dueña de Alphabet está a punto de convertirse en la empresa más valiosa
El avance de Google Cloud y la apuesta por chips propios ponen a Alphabet a las puertas de superar a Nvidia en valor de mercado

Paso a paso para invertir en criptomonedas y cuál es su valor
Las monedas virtuales han tenido un éxito recientemente y el bitcoin ha logrado su legalidad en El Salvador


