El 2023 fue el año en que el que la punta del iceberg de la inteligencia artificial se hizo por fin visible, tanto en España como en el resto del mundo. Esta tecnología, que llevaba décadas desarrollándose lejos de los focos, llegó por fin al público general gracias a herramientas como ChatGPT o Dall-E. Sin embargo, sus aplicaciones van mucho más allá de los chatbots o la generación de imágenes, y pueden ser decisivas, por ejemplo, a la hora de ayudar a personas ciegas o con alguna discapacidad visual.
En este ámbito, los gadgets más habituales hasta la fecha consistían en aparatosas gafas inteligentes o dispositivos como el cinturón que detecta obstáculos y avisa al usuario con vibraciones. Ahora, un dispositivo desarrollado por investigadores de la Escuela de Informática de la Universidad Nacional de Singapur (NUS Computing) promete cambiar las tornas. AiSee, que así se llama este innovador gadget, se parece a unos auriculares de conducción ósea normales, pero con un importante añadido: una cámara y un sistema de IA que identifica los objetos que el usuario tiene delante.
AiSee pretende ayudar a las personas con distintos niveles de discapacidad visual en sus tareas cotidianas, tomando como ejemplo algo como hacer la compra, que implican grandes dificultades o la necesidad de asistencia para quienes sufren algún tipo de déficit visual. Para llegar a esta última versión del producto, los técnicos de la NUS han trabajado desde 2018, cuando crearon el primer prototipo, mejorando y depurando la tecnología para hacerla cada vez más asequible y fácil de usar.
"Con AiSee, nuestro objetivo es empoderar a los usuarios con una interacción más natural", explica Suranga Nanayakkara, el investigador principal del proyecto, en un comunicado de prensa. "Siguiendo un proceso de diseño centrado en el ser humano, encontramos razones para cuestionar el enfoque típico de utilizar gafas aumentadas con una cámara. Las personas con discapacidad visual pueden ser reacias a llevar gafas para evitar la estigmatización. Por eso proponemos un hardware alternativo que incorpora unos discretos auriculares de conducción ósea".
¿Cómo funciona?
Para entender cómo funciona AiSee es preciso conocer los tres componentes básicos de este revolucionario dispositivo, considerados como el ojo, el cerebro y el altavoz necesarios para captar, procesar y transmitir la información. El sistema se pone en marcha cuando el usuario aprieta un botón en el auricular izquierdo, lo que implica la toma de una foto del objeto al que se está mirando.
El 'ojo' sería la microcámara de 13 MP y gran angular encargada de captar el campo de visión del usuario, insertada en la parte frontal del auricular derecho. Así es cómo el software informático, también llamado motor de visión, puede recibir y extraer características fundamentales de los objetos, como textos, logotipos o etiquetas.
Cada vez que el usuario hace una foto, se pone en funcionamiento el 'cerebro' de AiSee, situado en la banda trasera encargada de facilitar la sujeción de los auriculares en la cabeza. Ésta unidad de procesamiento de imágenes utiliza algoritmos de IA basados en la nube que le permiten analizar la imagen e identificar el objeto en cuestión.
La gran novedad con respecto a otros dispositivos, además de su factor de forma, es el sistema interactivo de preguntas y respuestas que incorpora. Así, mediante tecnología de reconocimiento y procesamiento de texto a voz y viceversa, el usuario puede plantear cualquier pregunta para saber más sobre el objeto, como el tipo de producto, sus ingredientes u otra información descriptiva.
El otro elemento que diferencia AiSee de otros dispositivos de asistencia portátiles diseñados para ayudar a personas ciegas es que no necesita estar emparejado con un smartphone. El gadget tiene conexión a Internet a través de WiFi y es totalmente autónomo, lo que permite un uso más sencillo, rápido y sin complicaciones.
El último componente clave de AiSee es el sistema de sonido por conducción ósea, es decir, que permite transmitir el sonido a través de los huesos del cráneo. Esta decisión de diseño implica que los usuarios pueden seguir oyendo los sonidos externos de su entorno, algo clave en personas con discapacidad visual, y recibir la información de los auriculares cuando sea preciso.
Pruebas y mejoras
Para desarrollar el dispositivo, Nanayakkara y su equipo tuvieron muy en cuenta las necesidades y particularidades de sus futuros usuarios. Por eso contaron con personas como Mark Myres, estudiante de la NUS con una discapacidad visual, uno de los voluntarios que ya han podido probar el aparato.
[El escáner cerebral para decodificar pensamientos: así leerá la mente sin necesidad de implantes]
"Muchas veces, los dispositivos de asistencia parecen muy dirigidos a personas totalmente ciegas o con discapacidad visual", explicó el propio alumno, protagonista de un vídeo realizado en las instalaciones de la universidad. "Creo que AiSee es un buen equilibrio. Tanto las personas con discapacidad visual como los ciegos podrían sacarle mucho partido".
Aunque su diseño y desarrollo está muy avanzado, sus responsables no dan por acabado el producto. "Nuestro próximo paso es conseguir que AiSee sea asequible y accesible para el gran público. Para lograrlo, estamos introduciendo nuevas mejoras, como un diseño más ergonómico y una unidad de procesamiento más rápida", explicó el propio Nanayakkara.
Para ello también están intentando llegar a acuerdos de colaboración con empresas como SG Enable, una organización que presta asistencia y servicios a personas con discapacidad en Singapur. De fructificar esta alianza, comenzarían las pruebas con usuarios ciegos para "perfeccionar y mejorar las funciones y el rendimiento de AiSee".