Un chip inspirado en el cerebro podría reducir el consumo de energía de la IA hasta 2000 veces

Inspirados en la estructura neuronal humana, físicos británicos lograron que el nuevo dispositivo ejecute análisis complejos y tareas de aprendizaje automático con una fracción del gasto eléctrico habitual

El chip desarrollado en Loughborough University promete revolucionar la eficiencia energética en inteligencia artificial mediante hardware especializado (Imagen Ilustrativa Infobae)

Un avance tecnológico desarrollado por físicos de Loughborough University podría redefinir la eficiencia energética de la inteligencia artificial. El equipo liderado por Pavel Borisov, docente en física, creó un chip capaz de procesar información temporal directamente en hardware. Según detalla la plataforma de divulgación tecnológica TechXplore, este método permite que algunas tareas de IA se realicen con una eficiencia energética hasta 2.000 veces superior respecto a las soluciones basadas en software convencional, dependiendo de la aplicación específica.

El chip, descrito en la revista científica Advanced Intelligent Systems, está fabricado con nanopartículas de óxido y utiliza la física de los materiales para procesar datos. Una de sus pruebas demostró que emplea tan solo una fracción de la energía que consumen los enfoques habituales: “Mostramos cómo se puede predecir la evolución futura de una serie temporal compleja con un consumo de energía hasta dos mil veces menor en comparación con una solución estándar basada en software”, explicó Borisov conforme indicó la plataforma de divulgación.

Esta diferencia cuantitativa coloca al desarrollo como una alternativa en la carrera por la sostenibilidad de los sistemas inteligentes, cuyo consumo de electricidad crece al ritmo de su complejidad.

Read more!

El diseño inspirado en el cerebro permite predecir series temporales y reconocer imágenes

El dispositivo se basa en el principio de la “computación en reservorio”. En muchas aplicaciones de IA, como la predicción meteorológica, el análisis de procesos biológicos o el procesamiento de datos de sensores, resulta fundamental identificar patrones en datos que cambian con el tiempo.

La innovación consiste en un chip fabricado con nanopartículas de óxido, capaz de procesar información temporal de manera más sostenible (Imagen Ilustrativa Infobae)

Tradicionalmente, esto se logra mediante software, que convierte esa información en formas más aptas para el análisis predictivo. El equipo de Loughborough, en cambio, desarrolló un memristor de óxido nanoporo. Este componente electrónico almacena información sobre estímulos previos y cuenta con miles de canales internos —debido a los poros aleatoriamente distribuidos— semejantes a las conexiones sinápticas del cerebro.

“Inspirados por la forma en que el cerebro humano establece conexiones neuronales numerosas y aparentemente aleatorias, generamos conexiones físicas complejas y aleatorias en una red neuronal artificial mediante el diseño de poros en finas películas de óxido de niobio”, detalló el profesor. Así, la propia materia del dispositivo asume el rol de la “capa oculta” en una red neuronal, permitiendo que la transformación clave se realice en el nivel físico.

Las pruebas principales incluyeron la aplicación del chip al sistema de Lorenz-63, conocido modelo matemático del caos relacionado con el “efecto mariposa”. Además, el equipo evaluó el reconocimiento de imágenes pixeladas de números y la ejecución de operaciones lógicas básicas.

En todos los casos, los resultados confirmaron que el prototipo realiza correctamente tareas de identificación, predicción y reconstrucción de información, lo que sugiere una adaptabilidad para múltiples aplicaciones de IA.

El dispositivo se basa en la computación en reservorio e imita conexiones sinápticas cerebrales con miles de canales internos de óxido de niobio (Imagen Ilustrativa Infobae)

Escalabilidad y desafíos para la adopción industrial

Actualmente, el sistema presentado por Borisov y sus colegas permanece en fase experimental y ha sido ensayado solo con tareas de baja complejidad. El desarrollo futuro buscará incrementar la dificultad de los desafíos propuestos y probar la tecnología con datos contaminados por ruido, más cercanos a los que enfrentan los sistemas inteligentes en entornos reales.

“Los siguientes pasos incluyen aumentar la complejidad de las redes neuronales y realizar pruebas con datos de entrada que incluyan mucho más ruido de señal”, especificó el profesor.

La dimensión de este avance radica en su potencial para responder al reto creciente de la demanda energética de la IA. Con el incremento constante en el tamaño y capacidad de los sistemas artificiales, la reducción drástica del consumo eléctrico se convierte en un factor para su viabilidad a largo plazo.

Sergey Saveliev, profesor de física teórica y coautor del estudio, resumió el valor del enfoque: “Este es un ejemplo de cómo la física fundamental puede contribuir a las computaciones modernas, evitando gastos computacionales enormes al utilizar la complejidad de los sistemas físicos como un filtro de alta dimensión para los datos”.

El método de computación en hardware propuesto apunta a la creación de dispositivos pequeños, compatibles con la industria y capaces de operar sin conexión permanente, lo que abriría nuevas vías para la aplicación de inteligencia artificial en escenarios sensibles al uso de energía.

Read more!