Despacio, pero con precisión. Esta es la técnica que utiliza un robot jugando al Jenga en la que combina sus habilidades con los sentidos del tacto y la vista. El reto final que sea capaz de ensamblar móviles e, incluso piezas más pequeñas, en una cadena de montaje con la misma precisión.
Para ello, investigadores del MIT le están enseñando, a través del aprendizaje automático, a “sentir” las piezas de madera de este entretenido juego, que consiste en extraer cuidadosamente estas piezas que conforman una torre vertical de 18 capas, cada vez más inestable. Así, está equipado con una pinza 'sensible', un brazalete con un sensor de fuerza y ??una cámara externa, con las que “ve y siente” la torre y sus piezas de madera.
Alberto Rodríguez, profesor asistente en el Departamento de Ingeniería Mecánica del MIT, subraya que este robot es capaz de “aprender rápidamente la mejor manera de realizar una tarea, no solo a partir de señales visuales, como se estudia en la actualidad, sino también con interacciones físicas y táctiles”, unas capacidades que hasta ahora había sido “difícil de lograr” en sistemas robóticos.
En juegos como el ajedrez o el Go, más cognitivos que el Jenga, no se requieren este tipo de habilidades físicas como tocar, empujar, colocar o alinear piezas con sumo cuidado y precisión. “Requiere percepción y manipulación interactivas, tiene que ir y tocar la torre para aprender cómo y cuándo mover cada bloque” según la estrategia que siga, explica Rodríguez.
Esto es lo que podrá aplicar un robot que esté en una cadena de montaje, en prácticamente cada paso, precisa conocer la fuerza y el tacto para enroscar más o menos un tornillo o la sensación de un ajuste a presión. “Los modelos de aprendizaje para esas acciones esenciales para este tipo de tecnología".
Para “enseñar” al robot, el equipo de ingenieros personalizó un brazo robótico ABB IRB 120 estándar. En este particular entrenamiento, el robot empezó eligiendo un bloque aleatorio y ejerció una pequeña cantidad de fuerza en un intento por empujar la pieza fuera de la torre. En cada uno de estos intentos, un ordenador registró las mediciones visuales y de fuerza a través de los sensores, etiquetó los éxitos para aprender de ellos y agrupó los diferentes comportamientos.
Así, el robot fue capaz de desarrollar un modelo simple con el que predecir el comportamiento de un bloque según sus medidas visuales y tácticas. Al crear agrupaciones de comportamientos, ha resultado más sencillo aprender los posibles patrones.
Equipo de investigación
Junto a Alberto Rodríguez en este equipo participan Miquel Oller, Jiajun Wu, Zheng Wu y Joshua Tenenbaum, profesor de ciencias cerebrales y cognitivas en el MIT, junto con el autor principal del artículo Nima Fazeli. Esta investigación, publicada en la revista Science Robotics, ha contado con el apoyo de la National Science Foundation a través de la National Robotics Initiative.