
En el Instituto Tecnológico de Massachusetts (MIT, por sus siglas en inglés) crearon una inteligencia artificial predictiva con la cual se está enseñando a los robots a "ver" cómo luce un objeto con sólo tocarlo y predecir cómo se sentirá únicamente mirándolo.
El equipo de investigadores del Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL, por sus siglas en inglés) dice que esta tecnología ayudará a los robots a recibir estímulos sensoriales multimodales, algo que los humanos hacen todo el tiempo.
Por ejemplo, si alguien ve la tela de una playera de algodón podrá decir que su textura es suave, mientras que si ve un pedazo de roca sabrá que es dura. En el otro caso, si una persona recibe una pluma con los ojos vendados tendrá una idea de cómo es su apariencia.
Si bien los robots pueden estar equipados con sensores visuales y táctiles, para ellos es mucho más complejo combinar toda esa información. Para poner en funcionamiento el sistema, los investigadores usaron el brazo robot KUKA, diseñado por otro grupo del MIT, el cual tiene un sensor táctil que tocó varias cosas con el fin de recabar información.

Por su parte, una cámara web registró al brazo tocar cerca de 200 objetos como herramientas, productos para el hogar y telas más de 12.000 veces y con esos videos se obtuvieron más de tres millones de datos en imágenes visuales y táctiles emparejadas. Toda la información se usó para ayudar al robot a predecir qué sentiría al ver una imagen y viceversa.
"Al mirar la escena, nuestro modelo puede imaginar la sensación de tocar una superficie plana o un borde afilado", comentó Yunzhu Li, estudiante de doctorado del CSAIL y principal autor del artículo sobre el sistema.
Los investigadores del Laboratorio de Ciencias de la Computación e Inteligencia Artificial del MIT señalan que uno de los objetivos de este sistema es reducir la brecha sensorial en los robots, ya que hasta ahora es posible que sientan o vean, pero no pueden alternar esas acciones.
"Al tocar a ciegas, nuestro modelo puede predecir la interacción con el entorno únicamente a partir de sensaciones táctiles". En este sentido, menciona Li, el sistema maneja situaciones donde la luz está apagada o incluso, ejemplifica, podría meter el brazo robótico a un bolsillo y encontrar las llaves guiándose únicamente por el tacto.

Además, destacó que conjugar los dos sentidos podría empoderar al robot y reducir los datos que se pudiesen necesitar para tareas que involucren la manipulación y la comprensión de objetos. Asimismo, contribuye a que las máquinas planifiquen acciones más seguras y eficientes.
Hasta ahora, la investigación incluye exclusivamente datos recopilados en un entorno controlado, pero el equipo espera mejorar esto a través de recolectar más información de otros objetos de la vida cotidiana.
Últimas Noticias
Sánchez considera que ninguna comunidad dirá ‘no’ al nuevo modelo de financiación: “Nadie va a recibir menos de lo que ya recibe”
El presidente del Gobierno considera que el acuerdo “plantea una solución muy importante a una dinámica de elusión y ‘dumping’ fiscal”

Ethereum: cuál es el precio de esta criptomoneda este 18 de enero
Ethereum fue creada en 2015 por el programador Vitalik Buterin, con la intención de impulsar un instrumento para aplicaciones descentralizadas y colaborativas

Los números que dieron fortuna a los nuevos ganadores de Super Once
Juegos Once compartió la combinación ganadora del sorteo 1 de las 10:00 horas

Cómo ha cambiado el valor de la criptomoneda bitcoin en el último día
La criptomoneda más popular del mercado de activos digitales

Herido grave un hombre de 33 años tras ser agredido con un arma blanca en San Blas, Madrid
La víctima presentaba una herida penetrante en el tórax y tras una primera asistencia, el equipo médico logró estabilizar al herido antes de proceder a su traslado urgente al hospital de referencia


