Cuántas veces leemos para nuestros adentros, sin ni siquiera mover los labios, solo repasando en nuestra mente las palabras que ven nuestros ojos? Esta acción, este gesto es la base del nuevo proyecto del MIT, AlterEgo, que ha creado un sistema portátil, no invasivo, que permite a las personas conversar con cualquier dispositivo en lenguaje natural pero sin tener que decir ni una sola palabra ni realizar movimientos, simplemente verbalizándolo “internamente”.
El dispositivo capta señales eléctricas, inducidas por movimientos sutiles, pero deliberados, es como “hablar con un mismo” a través de auriculares de conducción ósea. Solo hay que “vocalizar” internamente, sin usar la voz ni mover los labios.
El objetivo de AlterEgo es combinar personas y computadoras para que internet y la inteligencia artificial formen parte de la personalidad humana como si se tratara de un “segundo yo”.
De hecho, permite al usuario transmitir y recibir información desde y hacia un dispositivo informático o a cualquier otra persona sin ninguna acción “observable” y “sin invadir la privacidad del usuario”.
Una de las ventajas de estas interfaces de voz silenciosas es que son “más privadas y personales” para cada usuario y no entran “en conflicto” con los canales de comunicación verbales que pueden producirse a su alrededor. Es decir, el ruido o las conversaciones que se producen a nuestro lado cuando utilizamos otros asistentes como Siri, por ejemplo.
El reto de este proyecto ahora es desarrollar un sistema generalizado para usuarios múltiples, que pueda ajustarse y personalizarse para cada usuario cuando se inicie el uso del dispositivo.
Asimismo, a partir de ahora se va a enfocar a introducir en el sistema un vocabulario más amplio de palabras. La evaluación experimental del proyecto se basó en una aplicación de cálculo aritmético, por lo que se estudia aumentar los modelos de reconocimiento para dar cabida a un conjunto de datos más grande. Estos próximos pasos se van a realizar con “minuciosas” pruebas de precisión en el sistema.