
En el Instituto Tecnológico de Massachusetts (MIT, por sus siglas en inglés) crearon una inteligencia artificial predictiva con la cual se está enseñando a los robots a "ver" cómo luce un objeto con sólo tocarlo y predecir cómo se sentirá únicamente mirándolo.
El equipo de investigadores del Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL, por sus siglas en inglés) dice que esta tecnología ayudará a los robots a recibir estímulos sensoriales multimodales, algo que los humanos hacen todo el tiempo.
Por ejemplo, si alguien ve la tela de una playera de algodón podrá decir que su textura es suave, mientras que si ve un pedazo de roca sabrá que es dura. En el otro caso, si una persona recibe una pluma con los ojos vendados tendrá una idea de cómo es su apariencia.
Si bien los robots pueden estar equipados con sensores visuales y táctiles, para ellos es mucho más complejo combinar toda esa información. Para poner en funcionamiento el sistema, los investigadores usaron el brazo robot KUKA, diseñado por otro grupo del MIT, el cual tiene un sensor táctil que tocó varias cosas con el fin de recabar información.

Por su parte, una cámara web registró al brazo tocar cerca de 200 objetos como herramientas, productos para el hogar y telas más de 12.000 veces y con esos videos se obtuvieron más de tres millones de datos en imágenes visuales y táctiles emparejadas. Toda la información se usó para ayudar al robot a predecir qué sentiría al ver una imagen y viceversa.
"Al mirar la escena, nuestro modelo puede imaginar la sensación de tocar una superficie plana o un borde afilado", comentó Yunzhu Li, estudiante de doctorado del CSAIL y principal autor del artículo sobre el sistema.
Los investigadores del Laboratorio de Ciencias de la Computación e Inteligencia Artificial del MIT señalan que uno de los objetivos de este sistema es reducir la brecha sensorial en los robots, ya que hasta ahora es posible que sientan o vean, pero no pueden alternar esas acciones.
"Al tocar a ciegas, nuestro modelo puede predecir la interacción con el entorno únicamente a partir de sensaciones táctiles". En este sentido, menciona Li, el sistema maneja situaciones donde la luz está apagada o incluso, ejemplifica, podría meter el brazo robótico a un bolsillo y encontrar las llaves guiándose únicamente por el tacto.

Además, destacó que conjugar los dos sentidos podría empoderar al robot y reducir los datos que se pudiesen necesitar para tareas que involucren la manipulación y la comprensión de objetos. Asimismo, contribuye a que las máquinas planifiquen acciones más seguras y eficientes.
Hasta ahora, la investigación incluye exclusivamente datos recopilados en un entorno controlado, pero el equipo espera mejorar esto a través de recolectar más información de otros objetos de la vida cotidiana.
Últimas Noticias
Bluesky, competidor de X, gana un 50% más de usuarios tras escándalo por la IA Grok de Elon Musk
El escándalo por la difusión de imágenes ofensivas generadas con inteligencia artificial en X impulsó el aumento de usuarios en BlueSky

Localizan con vida a Leonardo Escobar, profesor de la Ibero Puebla
El profesor habría desaparecido tras estar en el aeropuerto de Monterrey

Radiografía de los ‘ninis’ en Colombia: 2,26 millones de jóvenes están desconectados del estudio y el empleo
El Dane alertó que uno de cada cinco jóvenes en el país permanece por fuera del sistema educativo y del mercado laboral, con una brecha de género que duplica la incidencia entre mujeres

Temblor hoy 16 de enero en México: sismo de 4.5 en Sayula de Alemán, Veracruz
Sigue en vivo todas las actualizaciones sobre movimientos telúricos este viernes

Atacan a tiros a comandante de la policía municipal de San Cristóbal de las Casas en Chiapas
El uniformado acababa de salir de su guardia cuando fue agredido


