La ciencia ficción nos ha generado unas expectativas muy altas de lo que la inteligencia artificial puede llegar a hacer", confiesa Aaron James, investigador de robótica en Caltech (EEUU). Aunque prácticamente cada día se anuncia un nuevo uso de esta tecnología, lo cierto es que todavía tiene muchos desafíos por delante si quiere llegar a materializar aquellas promesas literarias. Estos son los cuatro grandes retos a corto plazo, según cuatro de los investigadores pioneros a nivel mundial.
Descifrar el humano
"El cerebro es una tecnología alienígena". La declaración es de Terrence Sejnowski, director del Laboratorio de Neurobiología Computacional del Instituto Salk (EEUU). La inteligencia artificial, lógicamente, tiene como referente a la mente humana. Esa gran desconocida. "La gran barrera que queda por superar es el desconocimiento del cerebro", señala el investigador durante su ponencia en el último Re:Invent, el gran evento anual de Amazon Web Services (AWS), en Las Vegas (EEUU).
El reto, por tanto, es más científico que tecnológico. El considerado como abuelo de los sistemas de procesamiento de información neuronal (NIPS) reconoce como prioritaria la iniciativa BRAIN, emprendida por Barack Obama en 2013 para trazar un mapa de la actividad de cada neurona del cerebro humano. Un programa que tiene su réplica en Europa con el proyecto Human Brain, una de las iniciativas de investigación más potentes de Horizonte 2020.
El cerebro es el primer paso. El segundo es comprender el comportamiento humano, dice Pietro Perona, director del departamento de computación y sistemas neuronales de Caltech, también en Re:Invent. Para que una máquina sea capaz de relacionarse en un ámbito social, no sólo tiene que percibir qué está ocurriendo a su alrededor, sino "inferir qué está pensando su interlocutor". Perona trata de descifrar los circuitos neuronales que controlan la conducta de las personas a partir del organismo "más simple posible", la mosca Drosophila. Su objetivo es replicar ese mecanismo en la inteligencia artificial.
Imposible predecir.
"La inteligencia artificial ya no corresponde únicamente del ámbito académico, sino que se está convirtiendo en parte de la economía", advierte Terrence Sejnowski. Su impacto en el ámbito económico y social abre puertas incógnitas. "No podemos predecir el futuro, igual que no fuimos capaces con internet", señala.
Asistentes con carácter
La relación de las máquinas con las personas será clave. Oren Jacob ha trabajado en dar vida a personajes entrañables como Buzz Lightyear o Nemo. El que fuera CTO de Pixar, ahora dirige su propia compañía, Pullstring, y tiene claro cuál es el gran desafío de la inteligencia artificial: dotarla de personalidad. Un reto que empieza por el habla.
"Hasta ahora, nos hemos comunicado con los ordenadores a través del teclado, el ratón y, después, con las pantallas táctiles", comenta durante su conferencia en el último Mobile World Congress en Barcelona. "Son mecanismos muy precisos y poco ambiguos, pero al mismo tiempo muy encorsetados", explica. Al otro lado del cuadrilátero está la voz, con su inexactitud e infinitas interpretaciones. Sin embargo, "a veces es increíblemente eficaz".
De ahí nace el reciente interés de la industria por los asistentes de voz. Pero Jacob aporta un punto de profundidad al debate. "¿Por qué hablamos con unos con otros? Para aprender de los demás y del mundo", afirma. Este aprendizaje no sólo se produce a través de las palabras, sino con el subtexto (el tono, el estilo o los gestos) y el contexto. "En una conversación, el contenido es tan importante como la intención. Cuando combinas ambas con éxito, obtienes el contexto, el andamio que creamos para manejar la complejidad".
Los asistentes de voz deben ser capaces tanto de reconocer el contexto de su interlocutor como de proporcionar uno. "¿Por qué a nadie le gusta hablar todo el tiempo con Siri o con Alexa?", pregunta el CEO y fundador de Pullstring. "Porque les falta la personificación que sí existe en las conversaciones humanas". "La inteligencia artificial tiene que ser memorable y para conseguirlo, hay que crear un personaje", concluye. "A más personalidad, más involucración del interlocutor", subraya. El reto añadido es que obliga a segmentar a la audiencia.
Aprovechar la física
Pero no todo es cuestión de mente. Como en los humanos, el equilibrio con el cuerpo es clave. Y aquí entra en escena la robótica que, según Aaron James, lo tiene mucho más negro que la inteligencia artificial. El motivo no es otro que la "brutalidad" del mundo físico con el que tiene que lidiar el robot. "Una lección que hemos aprendido es que el mundo real es más complejo que el digital", dice este investigador, responsable del AMBER Lab de Caltech, en el evento de AWS. Y recurre al ejemplo. ¿Por qué el cerebro artificial de Alpha Go ha logrado batir a una persona en el milenario juego de mesa Go? "Porque los juegos están altamente estructurados", responde. No ocurre así con la vida real. "La física no perdona", añade. Por tanto, su solución pasa por aprovechar las leyes físicas, las matemáticas y la dinámica para dotar de nuevas habilidades a los robots, dejando (de momento) a un lado, la inteligencia artificial.
"Usemos los conocimientos que ya tenemos asentados para mejorar la robótica", destaca. Su laboratorio trabaja en esta línea. De hecho, esta premisa le ha servido para crear el humanoide DURUS, el robot bípedo que camina con mayor eficacia del mundo, es decir, de la forma más parecida al ser humano. "Todo gracias a las matemáticas", puntualiza James. Y es que esta máquina es capaz de dar pisadas multicontacto, apoyando primero el talón y luego la punta del pie. "Cuando en robótica existe un movimiento suave y elegante es por una razón matemática".
En el siguiente paso: conseguir que la máquina pueda desenvolverse en cualquier entorno, no sólo dentro del laboratorio. Aquí viene el "próximo gran reto" de la materia: combinar cuerpos complejos (representados por las matemáticas, la dinámica o la física) con mentes inteligentes (a través del aprendizaje automático y profundo). "Tenemos que unificar estas ideas en un sistema robótico", concluye James.
Como piloto, su laboratorio está trabajando en que un humanoide recorra The Pacific Crest Trail, una ruta que atraviesa Estados Unidos desde México y termina en Canadá. Por un lado, los investigadores están aplicando inteligencia artificial para el reconocimiento del tipo de terreno y la creación de mapas de forma autónoma. Por otro, a nivel corporal, buscan que el robot sea capaz de mantener un paso dinámico y una locomoción en distintos suelos. "Tendremos robots que interactúen con el mundo y que estén construidos siguiendo las leyes de la naturaleza", concluye el responsable del AMBER Lab de Caltech.
El foco en la inferencia
La inteligencia artificial no sólo operará al aire libre, también tiene mucho que aportar en entornos cerrados, especialmente, en las fábricas. "El propósito de la industria es la eficiencia", dice Jesse Clayton, senior manager de máquinas inteligentes de NVIDIA, en Re:Invent. Y los cerebros artificiales son perfectos para reducir tiempos, pérdidas y errores. Sin embargo, para aprovechar al máximo su potencial, primero hay que resolver algunos asuntos pendientes. El más importante, a juicio de Clayton, es la inferencia (la capacidad de la máquina para sacar conclusiones a partir de datos).
Por un lado, la investigación en deep learning se está centrando en construir redes neuronales cada vez más grandes y complejas para devolver resultados más precisos. Por otro, la topología del diseño de las redes está ganando complejidad. "Cada día se crean nuevas redes de diferentes tipos para adaptarse con más precisión a las distintas necesidades", dice. El problema es que esto dificulta la inferencia. El técnico de NVIDIA advierte, por tanto, de la necesidad de crear plataformas de propósito general flexibles, capaces de obtener resultados a partir de cualquier clase de red neuronal.
Las fábricas no quieren la nube.
"La inteligencia artificial llegará a las fábricas a través del externo de la red (edge computing) por distintos motivos. Se producen tantos datos que "internet no puede gestionar o no es económicamente viable enviarlos de nuevo al centro de datos", dice Clayton. También mejora la latencia. "Algunos robots toman decisiones en milisegundos y no pueden esperar a que la señal vuelva del data center".