Con ayuda de la inteligencia artificial (IA) los autómatas pueden identificar objetos a través de la vista y el tacto.
Investigadores del MIT Computer Science and Artificial Intelligence Laboratory (CSAIL) desarrollaron un nuevo sistema predictivo a fin de que los robots sean capaces de identificar ciertos objetos al vincular múltiples sentidos, incluyendo la vista y el tacto.
Para los humanos es sencillo predecir la apariencia de alguna cosa sólo por el hecho de tocarla. Sin embargo, hasta ahora los androides aún tenían esa limitación, siendo esta posibilidad todavía un reto.
El equipo del CSAIL utilizó un brazo robótico llamado KUKA y le añadió sensores conocidos como GelSight. Gracias a la grabación de 12 mil videos con más de 200 objetos (telas, instrumentos y productos domésticos), la información recabada sirvió para alimentar la herramienta de IA con el objetivo de que aprendiera a relacionar los datos visuales con los palpables.
“Al observar la escena, nuestro modelo puede imaginar la sensación de manipular una superficie plana o un borde afilado”, indicó Yunzhu Li, estudiante de doctorado del CSAIL. “Al tocar a ciegas, puede predecir la interacción con el entorno únicamente a partir de sensaciones táctiles. Reunir estos dos sentidos podría empoderar al robot y reducir los datos que podríamos necesitar para tareas que involucren manipular y sujetar objetos”.
Cuando los seres humanos ven un material o superficie pueden anticipar cómo se va a sentir tocarlo. Incluso sucede del modo inverso, por ejemplo, en una caja colocan un objeto y la persona sólo con sus manos reconoce qué es.
Este tipo de cualidades les servirán a los robots con la intención de manipular palancas o recoger cosas. Asimismo, podrían operar en espacios con poca luz de manera eficiente.
Por ahora, el sistema sólo funciona en ambientes controlados, aunque el equipo mantiene la esperanza de que pueda trabajar en otros entornos.
La investigación será presentada en la conferencia de Computer Vision and Pattern Recognition en Long Beach, California, que concluye el día de mañana, creando un precedente para futuros proyectos donde se logre identificar la cantidad de fuerza necesaria a la hora de realizar distintas tareas.
“Los métodos como este tienen el potencial de ser muy útiles en materia de robótica, donde necesitas responder preguntas como ‘¿este objeto es duro o blando?’ o ‘si levanto esta taza por su asa, ¿qué tan bueno será mi agarre?'”, señaló Andrew Owens, investigador postdoctoral en la Universidad de California. “Este es un problema muy desafiante, ya que las señales son muy diferentes y este modelo ha demostrado una gran capacidad”.
Te puede interesar también: