Los "padrinos de la inteligencia artificial” fueron premiados con el "Nobel de Computación"

Geoffrey Hinton,Yann LeCun y Yoshua Bengio recibieron el Premio Turing por sus avances con el "aprendizaje profundo". De qué se tratan sus investigaciones

El aprendizaje profundo o deep learning es un conjunto de algoritmos de aprendizaje automático (iStock)
El aprendizaje profundo o deep learning es un conjunto de algoritmos de aprendizaje automático (iStock)

Tres científicos informáticos que sentaron las bases de muchos de los avances vinculados a la inteligencia artificial recibieron este año el Premio Turing conocido como el Nobel de Computación y que es otorgado por la Association for Computing Machinery (Asociación de Maquinaria de Computación).

Los premiados son Geoffrey Hinton, profesor emérito de la Universidad de Toronto e investigador senior de Google Brain, de Alphabet; Yann LeCun, profesor de la Universidad de Nueva York y jefe de inteligencia artificial de Facebook; y Yoshua Bengio, profesor de La Universidad de Montreal y cofundador de la compañía de Elemen AI.

Los tres compartirán un premio de USD 1 millón que llega de la mano de esta prestigiosa distinción. Hinton dijo que donará una parte de lo que recibirá al Departamento de Humanidades de la Universidad de Toronto. "Reciben mucho menos financiamiento y creo que las humanidades son muy importantes para el futuro", dijo, según publicó Bloomberg. Por su parte, Bengio dijo que podría usar su parte para ayudar a combatir el cambio climático.

Los tres ganadores de este año son conocidos como los "Padrinos del Aprendizaje Profundo" por su investigación en redes neuronales, un tipo de software de aprendizaje automático que imita la forma en que funciona el cerebro humano.

Los tres ganadores de este año son conocidos como los “Padrinos del Aprendizaje Profundo” por su investigación en redes neuronales, un tipo de software de aprendizaje automático que imita la forma en que funciona el cerebro humano.(AP)
Los tres ganadores de este año son conocidos como los “Padrinos del Aprendizaje Profundo” por su investigación en redes neuronales, un tipo de software de aprendizaje automático que imita la forma en que funciona el cerebro humano.(AP)

En 1983, Hinton inventó las máquinas Boltzmann, uno de los primeros tipos de redes neuronales que utilizan probabilidades estadísticas. Tres años después, fue coautor de un artículo que demuestra que una técnica para actualizar la fuerza de las conexiones dentro de una red neuronal, conocida como propagación hacia atrás o retropropagación, podría dotar al software con capacidades de aprendizaje notables.

Cuando Hinton comenzó a trabajar con redes neuronales, a fines de la década de 1970 y principios de la década de 1980, la idea "había pasado de moda". En ese entonces, la mayoría de los científicos informáticos creían que la técnica era un callejón sin salida. Por aquellos tiempos, el software que codificaba explícitamente la experiencia humana en un conjunto  de reglas era considerado un mejor enfoque que el desarrollo de la inteligencia artificial.

Geoffrey Hinton es profesor emérito de la Universidad de Toronto e investigador senior de Google Brain, de Alphabet (AP)
Geoffrey Hinton es profesor emérito de la Universidad de Toronto e investigador senior de Google Brain, de Alphabet (AP)

En la actualidad, las redes neuronales profundas que utilizan la retropropagación están detrás de la mayoría de los avances en inteligencia artificial: desde la capacidad de Facebook de etiquetar automáticamente a los amigos de un usuario en las fotos hasta las funciones de reconocimiento de voz  para las traducciones de un idoma a otro que hacen Alexa y Google, por ejemplo.

LeCun, que realizó trabajos postdoctorales bajo el liderazgo de Hinton y trabajó para mejorar sus técnicas de retropropagación, desarrolló redes neuronales convolucionales, el tipo de arquitectura de software que le da poder a los sistemas de visión por computadora de hoy. Bengio, quien trabajó con LeCun en este tema, cuando estaban en Bell Labs, aplicó redes neuronales al procesamiento del lenguaje natural, lo que llevó a grandes avances en la traducción automática. En el último tiempo también ha trabajado en un método más conocido para permitir que las redes neuronales creen imágenes completamente novedosas y muy realistas.

Yoshua Bengio es profesor de La Universidad de Montreal y cofundador de la compañía de Elemen AI.(AP)
Yoshua Bengio es profesor de La Universidad de Montreal y cofundador de la compañía de Elemen AI.(AP)

Hinton, en una entrevista previa al anuncio del premio, dijo que el aprendizaje profundo eventualmente permitirá que las computadoras tengan una inteligencia similar a la humana o incluso superior.

"Creo que descubriremos que el razonamiento consciente y racional no está separado del aprendizaje profundo, sino que es una descripción de alto nivel de lo que está sucediendo dentro de redes neuronales muy grandes", dijo.

Bengio dijo, en esa misma entrevista de la que también participó, que se necesitarían nuevas arquitecturas para el aprendizaje profundo para que las redes neuronales puedan igualar el tipo de inteligencia del cerebro humano.

Hinton desacreditó la idea, defendida por el profesor Gary Marcus de la Universidad de Nueva York entre otros, de que el aprendizaje profundo deberá combinarse con técnicas de inteligencia artificial más antiguas y simbólicas para lograr una inteligencia como la del ser humano. El científico comparó esto con el uso de motores eléctricos solo para hacer funcionar los inyectores de combustible de los motores de gasolina, a pesar de que la electricidad es mucho más eficiente energéticamente.

Yann LeCun es profesor de la Universidad de Nueva York y jefe de inteligencia artificial de Facebook; (AP)
Yann LeCun es profesor de la Universidad de Nueva York y jefe de inteligencia artificial de Facebook; (AP)

Sin embargo ambos se mostraron cautelosos a la hora de hacer predicciones sobre cuándo el aprendizaje profundo podría proporcionar inteligencia del estilo de la que tiene el humano. Hinton dijo que cuando estaba desarrollando la técnica de la retropropagación pensaba que las aplicaciones prácticas del aprendizaje profundo ocurrirían casi de inmediato. "Fuimos bastante optimistas", analizó.

Sin embargo, esto tomó casi un cuarto de siglo. Se necesitó la llegada de varios conjuntos de datos mucho más grandes, así como computadoras más poderosas para que las aplicaciones comerciales de aprendizaje profundo se volvieran viables.

"No teníamos manera de estimar la cantidad de datos y cómputos que se necesitarían", dijo. Hinton contó que recién en 2009, cuando los métodos de aprendizaje profundo hicieron que el reconocimiento de voz fuera mucho mejor que las técnicas anteriores, estuvo seguro de que el método estaba a punto de tener un impacto masivo en el mundo real.

Hinton y Bengio dijeron que les preocupaba el uso indebido de la tecnología que ayudaron a inventar, especialmente en lo que respecta a las armas que utilizan el aprendizaje profundo para encontrar y capturar objetivos sin la intervención humana. Pero ambos dijeron que el impacto positivo del aprendizaje profundo, que creen que mejorará en gran medida la productividad empresarial, superará cualquier efecto negativo.

Tim Berners-Lee, conocido como "el padre de la web" ganó, en 2017, este mismo premio. Por su parte, en 2015 fue distinguido Whitfield Diffie, quien ayudó a promover la criptografía de clave pública.

(Con información de Bloomberg)

MÁS SOBRE ESTE TEMA: 

Es especialista en aprendizaje de las máquinas en Google y cuenta cómo les enseña a pensar a las computadoras

Quién es el científico que lidera la revolución creativa de las máquinas

Cómo la ciencia de los mensajes secretos busca desafiar el reinado del bitcoin