Los robots de Meta con inteligencia artificial que imitan a los humanos

Las máquinas se entrenan con videos de personas realizando tareas cotidianas

Compartir
Compartir articulo
Esta integración se basa en dos avances tecnológicos: la coordinación adaptativa (ASC, por sus siglas en inglés) y el formato de compresión de video de alta definición VC-1. (Infobae)
Esta integración se basa en dos avances tecnológicos: la coordinación adaptativa (ASC, por sus siglas en inglés) y el formato de compresión de video de alta definición VC-1. (Infobae)

Meta, dueña de Instagram, Facebook y WhatsApp, ha anunciado máquinas con inteligencia artificial (IA) capaces de desarrollar habilidades sensomotoras, es decir, tareas cotidianas. Esta integración se basa en dos avances tecnológicos: la coordinación adaptativa (ASC, por sus siglas en inglés) y el formato de compresión de alta definición VC-1.

ASC logra un rendimiento “casi perfecto” del 98% en entornos físicos para la tarea de copiado móvil robótico. Esto implica que el robot es capaz de dirigirse a un objeto, recogerlo, desplazarse a otra ubicación y colocar el objeto con éxito.

El principio básico detrás de la transmisión de video adaptativa es la calidad que se ajusta automáticamente en tiempo real para adaptarse a las condiciones de red como la velocidad de conexión a internet y la congestión de la red.

Le puede interesar: Los televisores que engañan el ojo humano y parecen una obra de arte

La transmisión adaptativa se logra dividiendo el video en segmentos más pequeños y entregándolos a través de HTTP (Protocolo de transferencia de hipertexto) en lugar de un flujo continuo. Cada segmento está disponible en varias resoluciones y velocidades de bits diferentes.

El formato también es compatible con varios perfiles y niveles de compresión para admitir diferentes resoluciones y velocidades de bits. (Unsplash)
El formato también es compatible con varios perfiles y niveles de compresión para admitir diferentes resoluciones y velocidades de bits. (Unsplash)

Además, la transmisión de video adaptativa permite al usuario final pausar, retroceder o avanzar rápidamente, ya que está dividido en segmentos que pueden ser descargados independientemente. Esto mejora la experiencia del usuario ya que se carga rápidamente y se puede visualizar en tiempo real.

Por otra parte, VC-1 es un modelo de percepción que, por primera vez, es compatible con una amplia gama de habilidades sensomotoras, entornos y personificaciones.

“VC-1 se entrena con videos de personas realizando tareas cotidianas del innovador conjunto de datos Ego4D creado por Meta IA y socios académicos. Y VC-1 iguala o supera los resultados más conocidos en 17 tareas sensomotoras diferentes en entornos virtuales”, explica un comunicado.

Le puede interesar: ChatGPT no es tan novedoso, estos son los chatbots que existieron antes

El formato también es compatible con varios perfiles y niveles de compresión para admitir diferentes resoluciones y velocidades de bits, lo que lo hace adecuado para una variedad de aplicaciones de transmisión de video de alta calidad.

Meta está interesado en desarrollar de manera artificial una corteza visual. (Unsplash)
Meta está interesado en desarrollar de manera artificial una corteza visual. (Unsplash)

Meta anuncia robots con IA

Una de las características de la IA es que necesita datos de los que aprender y en ambos casos, se desarrollaron “nuevas formas para que los robots aprendan, utilizando videos de interacciones humanas con el mundo real e interacciones simuladas dentro de mundos simulados”, indicó Meta.

Le puede interesar: Meta seguirá invirtiendo en el metaverso y desmiente el fin de esa tecnología

La empresa quiere desarrollar de manera artificial una corteza visual, réplica de la región del cerebro que (junto con la corteza motora), permite que un organismo convierta la visión en movimiento.

“El módulo es un sistema de IA que permite a un agente artificial convertir la entrada de la cámara en acciones”, mencionaron en el comunicado.

La empresa indicó que lo siguen viendo como un punto central y un proyecto a futuro en el que seguirán invirtiendo. REUTERS/Yves Herman/File Photo/File Photo
La empresa indicó que lo siguen viendo como un punto central y un proyecto a futuro en el que seguirán invirtiendo. REUTERS/Yves Herman/File Photo/File Photo

Qué pasó con el metaverso

La empresa indicó que lo siguen viendo como un punto central y un proyecto a futuro en el que seguirán invirtiendo.

Nick Clegg, jefe de asuntos globales de la empresa, habló con Bloomberg, y prometió que el metaverso llegará porque tienen la certeza que “será el corazón de la próxima gran plataforma informática”, aunque saben que eso “va a llevar tiempo”.

Para lograrlo entienden que necesitan seguir invirtiendo en los proyectos y más desarrollos, pero también tienen claro que conseguir el retorno usarán publicidad y comercio dentro del mundo virtual, al igual que como lo hicieron con Facebook e Instagram.

Con información de EFE