Científicos madrileños desarrollan un robot humanoide que habla en lengua de signos
Combina inteligencia artificial, redes neuronales y visión artificial en unas manos robóticas subactuadas de la UC3M
8 julio, 2019 16:27Para que un robot pueda “aprender” lengua de signos resulta necesario combinar distintas áreas de la ingeniería: la inteligencia artificial, las redes neuronales y la visión artificial, además de unas manos robóticas subactuadas. Así, Teo, el robot humanoide del Robotics Lab de la Universidad Carlos III de Madrid con el que se están realizando los experimentos, ya maneja el alfabeto dactilológico, que es el abecedario de la lengua de signos, además de un vocabulario muy básico que tiene que ver con las labores del hogar.
El objetivo es que este tipo de robots puedan convertirse en asistentes del hogar, que puedan ayudar a planchar (Teo también lo hace), a doblar la ropa, a servir la comida e interactuar con los usuarios en ambientes domésticos. “Estas manos robóticas se podrían implementar en otros humanoides y podrían ser usadas en otros ambientes y circunstancias”, señala Jennifer J. Gago, una de las investigadores del Robotics Labs, tras explicar que Teo (por las siglas en inglés deTask Environment Operator, operador en el entorno de las tareas) es un robot humanoide de uso doméstico desarrollado en el seno del Robotics Lab de la UC3M.
Una de las principales novedades de esta investigación, señala otro de los investigadores de esta laboratorio, Juan Víctores, es que “hemos juntado dos grandes partes de la robótica: los sistemas complejos (como las manos robóticas) y la interacción y comunicación social”.
Así, a través de una simulación, la posición concreta de cada falange para representar determinados signos de la lengua de signos española. Posteriormente, trataron de representar esta posición mediante la mano robótica, intentando que los movimientos fuesen similares a los que podría realizar una mano humana.
“El objetivo es que queden parecidos y, sobre todo, naturales. Para ello, se prueban varios tipos de redes neuronales para que modelen esta adaptación y, así, elegir aquella que logre hacer los gestos de forma comprensible para las personas que se comunican con la lengua de signos”, explican los investigadores.
Este sistema se ha validado interactuando con potenciales usuarios finales. “Las personas sordas que han estado en contacto con el robot han mostrado un 80% de satisfacción, con lo cual la respuesta ha sido muy positiva”, indica otra de las investigadoras del Robotics Lab, Jennifer J. Gago.
Uno de los retos a los que se enfrentan ahora para seguir desarrollando este sistema es “la elaboración de gestos más complejos, con frases completas”, indica otro de los integrantes del equipo del Robotics Lab, Bartek Lukawski. Con ello, podría utilizarse con las alrededor de 13.300 personas que emplean la lengua de signos para comunicarse en España.
“Lo realmente importante es orientar todas las tecnologías, todos estos desarrollos que hacemos, en torno a la inclusión de todos los miembros de la sociedad. Es una manera de concebir la tecnología como ayuda para la inclusión, tanto de minorías como de mayorías en una democracia”, puntualiza Juan Víctores.