Cómo es Reformer, la nueva red neuronal de Google

Para un mejor análisis de datos, esta nueva tecnología es capaz de manejar ventanas de contexto de hasta 1 millón de palabras usando apenas 16GB de memoria.

Compartir
Compartir articulo
El modelo combina dos técnicas para resolver los problemas de atención y asignación de memoria que limitan la aplicación de Transformer a ventanas de contexto largas. (Foto: Especial)

Uno de los desafíos más grandes a la hora de hablar de inteligencia artificial es lograr que el sistema comprenda de manera efectiva y rápida el contexto. Entender contenido que se da en secuencias como ocurre en la música, los videos o en cualquier lenguaje requiere de una buena comprensión del contexto.

En el dominio del lenguaje, las redes neuronales de memoria a largo plazo (LSTM, por sus siglas en inglés) cubren suficiente contexto para traducir oración por oración de un texto. El modelo Transformer empleado por Google no solo mejoró el rendimiento en la traducción de oración por oración, sino que también podría usarse para generar artículos completos a través de un resumen de múltiples documentos; así como para producir fotos y música.

Ahora Google anunció la llegada de Reformer, una versión mejorada de Transformer. Este modelo está diseñado para manejar ventanas de contexto (se denomina así al rango de datos que se tienen en cuenta en la traducción) de hasta 1 millón de palabras, usando solo 16GB de memoria.

Reformer también puede procesar novelas completas y en un solo dispositivo.

El modelo combina dos técnicas para resolver los problemas de atención y asignación de memoria que limitan la aplicación de Transformer a ventanas de contexto largas. Reformer utiliza hash sensible a la localidad (LSH) para reducir la complejidad de asistir a secuencias largas; y capas residuales reversibles para usar de manera más eficiente la memoria disponible.

En Google hicieron una prueba con Reformer: lo emplearon para completar imágenes parciales. Cuando se le muestra al fragmentos de fotos, el sistema es capaz de generar una imagen completa píxel por píxel.

Pero hay algo más: Reformer también puede procesar novelas completas y en un solo dispositivo. Google contó en su comunicado que Reformer pudo procesar la novela Crimen y el castigo de una sola vez.

“En el futuro, cuando haya más conjuntos de datos con texto de formato largo para entrenar, técnicas como Reformer pueden hacer posible generar composiciones largas y coherentes”, se concluye en el texto.

BERT, el cambio en el algoritmo de Google que mejora las búsquedas

En septiembre de 2019 Google dio a conocer un cambio importante en su algoritmo que permite optimizar las búsquedas, por medio de la técnica denominada BERT, que favorece la interpretación de las frases en contextos. Y en diciembre se anunció que esta herramienta, que hasta ahora sólo estaba disponible en inglés, comenzaría a estar disponible en español, portugués entre otro y que desembarcaba, además, en más de 20 piases.

El gran aporte de BERT es que permite una interpretación bidireccional, es decir que para interpretar un término en contexto se tiene en cuenta tanto la palabra que le antecede como la que tiene a continuación.

Así, por ejemplo, en la oración “accedí a la clave bancaria”, el concepto “clave” es interpretado teniendo en cuenta el fragmento “accedí a” y “bancaria”. A esto se refiere el concepto de interpretación bidireccional.

BERT permite poder resolver algunas interpretaciones que, de otro modo, podrían resultar ambiguas. Si, por ejemplo, se escribe en el buscador “2020 turista a Tailandia necesita certificado vacuna” se entenderá con mayor precisión que la búsqueda es de información para saber si es condición tener este documento.

BERT también aprende a modelar las relaciones entre oraciones mediante el entrenamiento previo en una tarea que se puede generar a partir de cualquier corpus de texto.

Últimas noticias

Tres datos alarmantes sobre la Isla de Plástico en el Océano Pacífico

Fue identificada hace 27 años y ahora acumula 79.000 toneladas de plástico. Dónde se encuentra y por qué preocupa a los ecólogos y a los ambientalistas

China mantiene el acoso a Taiwán tras la asunción de William Lai: Taipéi reportó 8 buques de Beijing cerca de la isla

El ministerio de Defensa de Taipéi confirmó que sus funcionarios respondieron en consecuencia a la escalada de Beijing

Yellen llamó al G7 a destinar los activos rusos inmovilizados para ayudar a Ucrania: “Es vital y urgente”

La secretaria del Tesoro estadounidense insistió en que si se quedan quietos “mientras los dictadores violan la integridad territorial y desacatan el orden internacional basado en reglas, no tienen motivos para detenerse en sus objetivos iniciales”

Sigue la tensión en Bolivia: el deterioro de la economía reactivó las protestas por la escasez de dólares que el gobierno niega

La principal carretera entre el occidente y el oriente amaneció cortada el lunes por manifestantes y se anunciaron marchas antigubernamentales en varias ciudades en contra del racionamiento del combustible y la escasez de dólares

Nueva amenaza de Beijing: advirtió al nuevo presidente de Taiwán que “sólo hay una China”

El ministro de Exteriores chino, Wang Yi, hizo unas fuertes declaraciones después de que el recién elegido mandatario taiwanés, William Lai, haya instado al gigante asiático a “afrontar” la independencia de la isla