Un mundo sin teclados (solo con ayuda de la Filosofía)
Michail Bletsas, director de Computación del prestigioso MIT Media Lab, que es un tecno-optimista convencido, me dijo ya hace cinco años que “en 2020 no hará falta teclados”. Su argumento fue entonces que “para interactuar con el ordenador, el teclado desaparecerá algún día, eso lo sabemos seguro, pero se van a necesitar todavía unos cuantos años más para que esto ocurra.”
La realidad es que esos "cuantos años" se están alargando mucho. ¿Es usted capaz de imaginar un mundo sin teclados en las décadas inmediatas? Sería un mundo tecnológico completamente distinto al que conocemos. Mmmm… un mundo que mí me parece aún algo muy muy lejano. Sobre todo porque atravesar esa frontera de la interfaz del lenguaje natural, la interfaz es una conexión o frontera común entre dos aparatos o sistemas independientes, significa aún dar un gran salto en el vacío.
Las vanguardias de la inteligencia artificial se han ido dando cuenta de que bajo la frontera de la interfaz del lenguaje natural, hay un gran abismo, muy difícil de superar. Por eso los teclados, tanto en ordenadores como en dispositivos inteligentes, nos siguen acompañando y la interfaz para que los humanos se comuiniquen con las máquinas sigue sin resolverse. No imaginábamos que el concepto de 'interfaz', que presentó el legendario Douglas Engelbart en 1968 con ratón, teclado y ventanas, continuaría completamente vigente hoy, más de 50 años (que en la historia de la informática, es casi una eternidad).
No es que no se haya intentado. Si no eliminar los teclados, sí desmaterializarlos. Por ejemplo, ya hace unos años Pranav Mistry, un alumno genial del Fluid Interfaces Group del MIT Media Lab, mostró su espectacular interfaz experimental “Sixth Sense” (sexto sentido), que desmaterializaba el teclado convirtiéndolo en luz proyectada y que funcionaba sobre cualquier superficie. Sin embargo, aún no se ha conseguido que variados sucedáneos de teclados hayan eliminado del todo el uso de los teclados físicos.
Las promesas del valor para la empresa que consiga resolver este reto son de tal dimensión que, discretamente (para no admitir posibles fracasos que dañen su reputación), los gigantes tecnológicos están invirtiendo en ello muchos recursos económicos, energía y conocimiento. La pseudointeligencia de las máquinas de software ha avanzado mucho (y muy rentable) en forma de tecnologías predictivas que se nutren de la computación de los centros de datos hasta el punto de servir inteligencia artificial como un servicio (AIaaS) en forma de machine learning o deep learning distribuidos.
Este servicio se plasma en los smartphones con los asistentes personales basados en inteligencia artificial, como Siri (Apple), Cortana (Microsoft), Bixby (Samsung), etc. O en los altavoces inteligentes para el hogar como Amazon Echo, Mycroft o Google Home. Todas estas aplicaciones están generalizándose ya por sectores, como es el caso del potente mercado de las líneas aéreas, como el Ask Jenn de Alaska Airlines, o los sistemas de respuesta de voz interactiva (RVI), como el RVI de American Airlines, desarrollado por la empresa Nuance.
El nuevo camino de Google
Pero el mercado se está dando cuenta en estos últimos años de que los asistentes personales y los altavoces inteligentes solo son parches o soluciones muy parciales para conseguir la ‘perfecta’ interfaz del lenguaje natural. De conseguirla, se abrirían mercados inmensos como el del coche conectado; y, más allá, el del coche autónomo. Otro incentivo (sobre todo para Silicon Valley), sería que China, que está invirtiendo cantidades ingentes en investigación en inteligencia artificial, se adelantase. Esta es una presión enorme.
Una novedad de hace pocos días es la que, independientemente de otros intentos, Google ha puesto en marcha. Se trata de una interfaz aparentemente anodina y que facilita algo que el sistema operativo de Apple hacía ya hace décadas, pero que ahora es de otra dimensión: la transcripción automática de voz de lenguaje natural a texto.
En la presentación oficial del nuevo servicio Live Transcribe de Google / Android hay alguna perla interesante. Para empezar, el servicio se plantea como la solución a un problema médico y social: el de la accesibilidad a las máquinas de personas sordas o con problemas de audición, que la Organización Mundial de la Salud (OMS) cuantifica en 466 millones en todo el mundo. El anuncio nos informa de la tecnología base de este servicio, que Google anuncia ostensiblemente como "gratuito" (recuerda que si en internet algo es gratis, es que el producto eres tú).
Señala que intenta potenciar la comunicación y el acceso ‘inclusivo’ a la información para la citada población con su tecnología de Reconocimiento Automático del Habla (su acrónimo inglés es ASR), que permite a los ordenadores detectar lenguajes audibles y transcribirlos en texto para su lectura. O sea, que si esta tecnología y el Live Transcribe de Google funcionasen a la perfección, habrían resuelto el 'input' de entrada en las máquinas, nada menos que la ‘mitad’ de la interfaz del lenguaje natural. Sería un gran salto y las aplicaciones, y sus mercados, podrían ser innumerables.
Las promesas son impresionantes si esto funcionara bien, no sólo para las personas con bajo nivel de audición. La segunda digitalización actual nos obliga a pensar como filósofos clásicos, sin hacer distinciones entre Ciencia y Humanidades. Imagino que en el equipo de desarrollo de Live Transcribe, Google habrá incluido también a humanistas, ya que el lenguaje natural abarca desde la Filosofía y las Ciencias del Lenguaje, a la Neurociencia y los temas de percepción humana; o en sentido amplio, la Antropología o la Psicología combinadas, con todo tipo de tecnologías de la computación y de la inteligencia natural y humana -y también, la artificial-.
No creo que lleguemos a ese mundo sin teclados sin el auxilio de las Humanidades unidas a las Ciencias de la Computación y la tecnología dentro del marco de la inteligencia artificial. Veremos si el camino elegido por Google Live Transcribe integra todas esas disciplinas. Lo cual sería una tremenda victoria. Con ella, resolver el reto de que las máquinas hablen con total fiabilidad con humanos, estaría más cerca. Y desde luego, sería un gran triunfo para el gigante de Mountain View.
Naturalmente me da buena espina que una de las etiquetas semánticas del proyecto sea "machine perception" (percepción de la máquina). Hasta ahora ‘percepción’ era un concepto de biología y de filosofía; y ahora, además, lo es de inteligencia artificial. O sea que es muy probable, aunque visto lo visto, no debía hacer ninguna promesa arriesgada, pero la haré. No creo que eliminemos los teclados de nuestras vidas sin que las Humanidades ayuden a la tecnología y a la inteligencia artificial. Además, en su desarrollo podemos participar los usuarios de a pie, que utilizamos Live Transcribe para entrenar a su inteligencia artificial y su machine learning subyacente. Va a ser muy interesante participar en este experimento.