La historia de la inteligencia artificial ha estado marcada por repetidos ciclos de optimismo extremo y promesas, seguidos de desilusión y decepción.
Estaremos de acuerdo si digo que la inteligencia artificial ya puede realizar tareas complicadas en muchas áreas, como por ejemplo las matemáticas y otras disciplinas científicas, los juegos, la generación de imágenes… ¿no? Pero, sin embargo, algunos de los primeros objetivos de la IA, como los robots domésticos y los coches autónomos, no acaban de estar tan cerca como esperábamos. Se ve que eso de ser ‘autónomo’… ni los coches.
Pues según parece, la falta de estos objetivos se debe a las suposiciones incorrectas sobre la inteligencia artificial y la inteligencia natural. Y lo dice este informe: Artificial Intelligence: A Guide For Thinking Humans.
La misma autora, en un artículo titulado ‘Por qué la IA es más difícil de lo que pensamos’, expone cuatro falacias comunes sobre la IA que provocan malentendidos no sólo entre el público y los medios de comunicación, sino también entre los expertos. Éstas dan una falsa sensación de confianza sobre lo cerca que estamos de lograr la inteligencia artificial general, sistemas de IA que pueden igualar las habilidades cognitivas y de resolución de problemas generales de los humanos.
La IA específica y la IA general no están en la misma escala
El tipo de IA que tenemos hoy en día puede ser muy buena para resolver problemas estrechamente definidos. Pueden superar a los humanos en el Go y el ajedrez, encontrar patrones cancerígenos en imágenes de rayos X con notable precisión, saber si una pieza tiene defectos de fabricación, convertir datos de audio en texto o viceversa... Pero diseñar sistemas que puedan resolver problemas aislados no nos acerca necesariamente a la resolución de problemas más complejos.
Si la gente ve que una máquina hace algo asombroso, aunque sea en un área limitada, suele asumir que el campo está mucho más avanzado de lo que realmente está.
Por ejemplo, los sistemas actuales de procesamiento del lenguaje natural han avanzado mucho en la resolución de muchos problemas diferentes, como la traducción, la generación de textos y la respuesta a preguntas sobre problemas específicos. Al mismo tiempo, tenemos sistemas de deep learning que pueden convertir los datos de voz en texto en tiempo real. Detrás de cada uno de estos logros hay miles de horas de investigación y desarrollo… y millones de euros gastados en computación y data. Pero la comunidad de expertos en inteligencia artificial aún no ha resuelto el problema de crear agentes que puedan entablar conversaciones abiertas sin perder la coherencia durante un buen rato. Un sistema de este tipo requiere algo más que la resolución de problemas menores; requiere sentido común, uno de los principales retos no resueltos de la IA… y que en los humanos, desgraciadamente, bueno, nada. Sigamos.
Las cosas fáciles son difíciles de automatizar
Cuando se trata de humanos, esperamos que una persona inteligente haga cosas difíciles que requieren años de estudio y práctica, como resolver problemas de cálculo matemático y física, jugar al ajedrez a nivel de gran maestro o memorizar un montón de contenido.
Y casualmente, después de décadas de investigación en IA, se ha demostrado que las tareas difíciles, las que requieren atención consciente, son más fáciles de automatizar. Son las tareas fáciles, las cosas que damos por sentadas, las que son difíciles de automatizar. Fijaos, las cosas que los humanos hacemos sin pensar demasiado, mirar al mundo y dar sentido a lo que vemos (mantener una conversación, caminar por una acera llena de gente sin chocar con nadie...) resultan ser los retos más difíciles para las máquinas. Y por el contrario, a menudo es más fácil conseguir que las máquinas hagan cosas que son muy difíciles para los humanos.
Consideremos la visión, por ejemplo. A lo largo de miles de millones de años, los organismos han desarrollado complejos aparatos para procesar las señales luminosas. Los animales utilizan sus ojos para observar los objetos que les rodean, navegar por su entorno, encontrar comida, detectar amenazas y realizar muchas otras tareas vitales para su supervivenci a. Los seres humanos hemos heredado todas esas capacidades de nuestros antepasados y las utilizamos sin pensar conscientemente. Pero el mecanismo subyacente es realmente más complicado que las grandes fórmulas matemáticas que nos frustran durante los años de colegio y la universidad.
Y si nos vamos hacia el mundo de la tecnología, vemos que todavía no tenemos sistemas de visión por computador que sean tan versátiles como la visión humana. Hemos conseguido crear redes neuronales artificiales que imitan aproximadamente partes del sistema de visión animal y humano, como la detección de objetos y la segmentación de imágenes. Pero son frágiles, sensibles a muchos tipos de perturbaciones y no pueden imitar todo el abanico de tareas que puede realizar la visión biológica. Por eso, por ejemplo, los sistemas de visión artificial utilizados en los coches autónomos deben complementarse con tecnología avanzada, como ‘Lidar’ o datos cartográficos.
Otro campo que ha demostrado ser muy difícil para las maquínas son las habilidades sensoriomotoras que los humanos dominan sin un entrenamiento explícito. Piense en cómo maneja los objetos, camina, corre y salta. Se trata de tareas que puedes hacer sin pensar conscientemente. De hecho, mientras caminas, puedes hacer otras cosas, como escuchar un podcast o hablar por teléfono. Pero este tipo de habilidades siguen siendo un gran y costoso reto para los actuales sistemas artificiales.
Quizás la clave de que la inteligencia artificial sea más difícil de lo que creemos esté en que somos, en gran medida, inconscientes de la complejidad de nuestros propios procesos de pensamiento.
Antropomorfizar la inteligencia artificial no ayuda
El campo de la IA está repleto de vocabulario que sitúa al software al mismo nivel que la inteligencia humana. Utilizamos términos como ‘aprender’, ‘entender’, ‘leer’ y ‘pensar’ para describir el funcionamiento de los algoritmos pero, aunque estos términos antropomórficos a menudo sirven como abreviatura para ayudar a transmitir complejos mecanismos de software, pueden inducirnos a pensar que los actuales sistemas de IA funcionan como la mente humana.
En el artículo, Mitchell denomina a esta falacia ‘el señuelo de la mnemotecnia ilusoria’ y aclara que esta forma de expresarse puede inducir a error al público que trata de entender estos resultados… y a los medios de comunicación que informan sobre ellos, y también puede moldear inconscientemente el modo en que incluso los expertos en IA piensan en sus sistemas y en lo mucho que estos sistemas se parecen a la inteligencia humana.
Os pongo un ejemplo de hace unos años. Un proyecto de 2017 de Facebook Artificial Intelligence Research, en el que los científicos entrenaron a dos agentes de IA para negociar en tareas basadas en conversaciones humanas. En la entrada de su blog, los investigadores señalaron que ‘la actualización de los parámetros de ambos agentes condujo a la divergencia del lenguaje humano, ya que los agentes desarrollaron su propio lenguaje para negociar’. Esto provocó un montón de artículos en medios que advertían sobre sistemas de IA que se estaban volviendo más inteligentes que los humanos y que se comunicaban en dialectos secretos. Pero no, la verdad es que cinco años después, ¡cómo pasa el tiempo!, los modelos lingüísticos más avanzados siguen teniendo dificultades para entender conceptos básicos que la mayoría de los humanos aprenden a una edad muy temprana sin recibir instrucciones.
Inteligencia artificial sin cuerpo
¿Puede existir la inteligencia aislada de una rica experiencia física del mundo? Esta es una pregunta que los científicos y los filósofos se han planteado durante siglos.
Una escuela de pensamiento cree que la inteligencia está toda en el cerebro y puede separarse del cuerpo, también conocida como la teoría del ‘cerebro en una cuba’ y, volviendo a las falacias, ésta se denomina ‘la inteligencia está toda en el cerebro’. Con los algoritmos y los datos adecuados, la idea es que podemos crear una IA que viva en servidores y que se equipare a la inteligencia humana. Para los defensores de esta forma de pensar, especialmente los que apoyan los enfoques basados en el aprendizaje profundo puro, alcanzar la IA general depende de reunir la cantidad adecuada de datos y crear redes neuronales cada vez más grandes. No es por hacer spoiler pero cada vez hay más pruebas de que este enfoque está condenado al fracaso.
El cerebro humano y el de los animales han evolucionado junto con todos los demás órganos del cuerpo con el objetivo último de mejorar las posibilidades de supervivencia. Nuestra inteligencia está estrechamente ligada a los límites y capacidades de nuestros cuerpos. Y existe un campo en expansión de la IA encarnada que pretende crear agentes que desarrollen habilidades inteligentes al interactuar con su entorno a través de diferentes estímulos sensoriales.
De hecho, las investigaciones neurocientíficas sugieren que las estructuras neuronales que controlan la cognición están ricamente vinculadas a las que controlan los sistemas sensoriales y motores, y que el pensamiento abstracto explota los mapas neuronales basados en el cuerpo. Y de hecho, cada vez hay más pruebas e investigaciones que demuestran que la retroalimentación de las distintas áreas sensoriales del cerebro afecta a nuestros pensamientos tanto conscientes como inconscientes.
Las emociones, los sentimientos, los sesgos inconscientes y la experiencia física son inseparables de la inteligencia. Lo que nos da una comprensión del mundo basada en el sentido común. Nada en el conocimiento de la psicología o la neurociencia apoya la posibilidad de que la 'racionalidad pura' sea separable de las emociones y los sesgos culturales que dan forma a nuestra cognición y nuestros objetivos.
Sentido común en la inteligencia artificial
El desarrollo de la IA general requiere un ajuste de nuestra comprensión de la propia inteligencia. Seguimos luchando por definir qué es la inteligencia y cómo medirla en los seres artificiales y naturales
Y en el lote tenemos que incluir el menos común de los sentidos, y que incluye los conocimientos que adquirimos sobre el mundo y los aplicamos cada día sin mucho esfuerzo. Aprendemos muchas cosas sin que se nos instruya explícitamente, explorando el mundo cuando somos niños. Entre ellos están conceptos como el espacio, el tiempo, la gravedad y las propiedades físicas de los objetos. Por ejemplo, un niño aprende a una edad muy temprana que cuando un objeto queda oculto detrás de otro, no ha desaparecido y sigue existiendo, o que cuando una pelota rueda por una mesa y llega a la cornisa, debe caerse. Utilizamos este conocimiento para construir modelos mentales del mundo, hacer inferencias causales y predecir estados futuros con una precisión decente.
Este tipo de conocimiento no existe en los sistemas de inteligencia artificial actuales, lo que los hace imprevisibles y ávidos de datos. De hecho, las tareas domésticas y la conducción, las dos aplicaciones de la IA mencionadas al principio de este artículo, son cosas que la mayoría de los humanos aprenden con el sentido común y un poco de práctica.
El sentido común también incluye hechos básicos sobre la naturaleza humana y la vida, cosas que omitimos en nuestras conversaciones y escritos porque sabemos que quienes nos leen y oyen las conocen. Por ejemplo, sabemos que si dos personas están ‘hablando por teléfono’, significa que no están en la misma habitación. También sabemos que si ‘Juan cogió el azúcar’, significa que había un recipiente con azúcar dentro en algún lugar cerca de Juan. Este tipo de conocimiento es crucial para áreas como el procesamiento del lenguaje natural.
Nadie sabe todavía cómo capturar esos conocimientos o habilidades en las máquinas. Esta es la frontera actual de la investigación en IA, y una forma alentadora de avanzar es aprovechar lo que se sabe sobre el desarrollo de estas capacidades en los niños pequeños.
Aunque no sabemos aún las respuestas a muchas de estas preguntas, un primer paso para encontrar soluciones es ser conscientes de nuestros propios pensamientos erróneos. Entender estas falacias y sus sutiles influencias puede señalar direcciones para crear sistemas de inteligencia artificial más robustos, fiables y, quizás, realmente inteligentes.