Aunque normalmente se atribuye a Xerox, la invención del ratón de ordenador tuvo lugar en el Stanford Research Institute. Corrían los años 60 y dos ingenieros -Douglas Engelbart y Bill English- exploraban nuevas vías de comunicarnos con los incipientes computadores, aquellos que ocupaban salas enteras de un edificio. Una forma de interacción con las máquinas que trajo consigo otra invención que se ha mantenido inalterable hasta la irrupción de las pantallas táctiles: el clic.
Hacer clic forma parte de nuestro imaginario colectivo. En nuestras cabezas podemos recrear con total fidelidad no sólo el movimiento de pulsar el botón izquierdo o derecho del 'mouse', sino también el particular sonido de la tecla al ser presionada.
Con las pantallas táctiles, como las de nuestros smartphones y tablets, este clic ha prescindido del ratón. Es nuestro dedo el que directamente presiona la pantalla y selecciona la acción deseada. La experiencia es mucho más fluida, más directa entre la interfaz y el usuario, aunque todavía necesitamos ese dispositivo intermediario -el teléfono- entre nuestra intención y el objetivo de nuestros anhelos.
Mientras, la voz como interfaz de entrada sigue presentando dos grandes retos: el ruido de fondo y la falta de privacidad a la hora de interactuar.
Pero ¿qué pasaría si elimináramos cualquier fricción entre esos dos instantes, el del pensamiento y la ejecución? ¿Y si no fuera necesaria ninguna interfaz más allá que nuestro propio cuerpo para transmitir órdenes a una máquina?
Quizás suene a ciencia ficción, pero es ciencia a secas. En los últimos años, la industria tecnológica ha encontrado un potencial camino para reinventar nuestra relación digital en la particular confluencia de tres tendencias: la realidad aumentada, la inteligencia artificial y la neurociencia.
"La realidad aumentada es la siguiente gran evolución de la computación. Y a pesar de que muchos de los dispositivos que la hacen posible aún no existen o están muy incipientes, sí sabemos que van a exigir nuevas formas de interacción", explica Mike Schroepfer, CTO de Facebook. "Hasta ahora los smartphones exigen que saquemos algo del bolsillo, centremos nuestra atención en él y desconectemos del mundo que nos rodea. Todo eso cambiará con la realidad aumentada".
Un nuevo clic para la era aumentada
Efectivamente, con la realidad aumentada nuestra interfaz será únicamente la propia visión, combinando el entorno físico con el virtual. Hoy por hoy, se necesitan accesorios para entender los movimientos a realizar (como guantes o mandos) o depender del reconocimiento de imágenes que realice una cámara incorporada en las gafas. En ambos casos, el sistema necesita que llevemos a cabo un movimiento poco natural de manera clara para, luego, ser procesado, entendido y ejecutado según lo programado.
Dicho de otro modo: para hacer un clic seguimos dependiendo de un movimiento con nuestras manos que es interpretado y procesado a posteriori por un dispositivo.
En compañías como Facebook eso suena a pasado, a una construcción muy tediosa y una experiencia muy poco atractiva para los usuarios. Y es por ello por lo que ya plantean el concepto de clic inteligente, aquel que rompa con este proceso tan interiorizado hasta el momento.
"El proceso clásico requiere de varios pasos. Primero pensamos una orden en el cerebro, que es transmitida a los músculos, de ahí al dispositivo y finalmente llega al sistema. El nuevo camino que buscamos es aquel que vaya directamente de la orden en el cerebro al sistema", detalla Thomas Reardon, fundador de CTRL-Labs, empresa comprada por la red social en 2019.
No es magia ni hablamos de "leer la mente", como bien aclara Reardon. Se trata, por el contrario, de algo mucho más sencillo y lógico: captar los movimientos que deseamos hacer antes de que estos se lleguen a realizar siquiera.
¿Cómo es esto posible?, se estarán preguntando. Lo único que se necesita, según el planteamiento de Facebook, es un sensor EMG (electromiográfico, capaz de registrar la actividad eléctrica producida por los músculos esqueléticos) colocado en nuestras muñecas. Una pulsera inteligente (que además de monitorizar también tendrá vibración para ayudar a una experiencia más completa) que sustituya al torpe ratón e incluso a nuestros 'lentos' dedos, para entendernos.
"Podremos hacer mucho más que nuestras propias manos, tener mucho más control. Desde permitir que gente sin manos pueda controlar estas interfaces digitales hasta permitirnos conseguir un sexto o séptimo dedo. Es como pasar de un ratón 3D a uno en 6D: lograremos cosas que nuestro cuerpo no nos permite ahora mismo", sueña Thomas Reardon.
El ejemplo de Reardon de las personas con discapacidad es un caso extremo, pero el potencial de esta nueva forma de comunicarnos con lo digital va mucho más allá. El sistema planteado con EMG permite detectar movimientos de los dedos de apenas un milímetro y en un futuro permitirá incluso predecir la intención misma de moverlo. Podremos, en otras palabras, usar nuestros servicios digitales sin apenas mover la mano y sin que nadie sepa que estamos interactuando con la máquina.
Por supuesto, el clic tenía que ser la piedra angular de esta fórmula de relación humano-máquina, pero solo es el cimiento de un paradigma tremendamente complejo. Desde controlar objetos, seleccionar y trasladar, ser guiados gracias a la pulsera por una ciudad con controles ejecutados sin sacar las manos de los bolsillos... El potencial es inmenso, aunque tanto Reardon como Schroepfer se apresuran a aclarar que todavía estamos en una investigación muy preliminar, "sin fecha de lanzamiento prevista".
La inteligencia contextual
Anticipábamos al comienzo que la gestación del clic inteligente se debe a la confluencia de la neurociencia (EMG), la realidad aumentada (la interfaz con menos fricción imaginable) y la inteligencia artificial. Desarrollemos ahora este último punto.
La pulsera recogerá las señales eléctricas y enviará esa información a un sistema -en la nube o en el edge, como puedan ser las propias gafas-. Hablamos de apenas unos bits de datos, lo suficiente para que la autonomía del sensor sea práctica y que el dispositivo pueda ser realmente eficiente.
Pero ante nosotros nos encontramos con una interfaz, lo que se puede ver en las gafas de realidad aumentada, que por definición es mucho más sencilla que el escritorio de un ordenador o el menú de un smartphone. Ya vemos, con los actuales desarrollos, como los menús han de ser simples y extraordinariamente lógicos, de manera que las órdenes puedan ser ejecutadas con la menor fricción posible. Y esto es algo que ni el clic inteligente puede solventar sin la incorporación a la ecuación de la IA.
"La inteligencia artificial del clic inteligente debe ser capaz de adaptarse al usuario, de entender contextualmente el 'input' que está recibiendo y de hiperpersonalizar la experiencia que recibe la persona", detalla Tanya Jonker, investigadora de la multinacional californiana. "Lo que hacemos es entender el contexto que rodea a la persona, inferir las intención y adaptar las interacciones en cada caso concreto".
El ejemplo más ambicioso lo encontramos, curiosamente, en otra interfaz de entrada de datos bien conocida por todos nosotros: el teclado. Hasta ahora, el teclado QWERTY ha sido la norma -al menos, para la mayor parte de países occidentales- pero en Facebook se plantean que esta nueva realidad aumentada e inteligente pueda acabar con él. Y no se refieren únicamente al dispositivo en sí, sino al concepto mismo.
"Seremos capaces de entender la forma de escribir particular de cada persona, de forma que podamos ir adaptando la entrada de información hasta crear teclados personalizados para cada uno de nosotros, por la forma habitual de mover nuestros dedos. No habrá dos personas con el mismo teclado en el mundo", concluye Reardon.