Las decenas de miles de millones de neuronas que componen el cerebro humano se parecen a los copos de nieve en muchos aspectos: son pequeñas, se agrupan en masas blancas y no hay dos iguales. Las neuronas idénticas, como los copos de nieve iguales, simplemente no se encuentran en la naturaleza.
Sin embargo, según el neurocientífico computacional D. Goodman, del grupo de Sistemas y Redes Inteligentes del Imperial College de Londres, la mayoría de los sistemas de IA que se inspiran en el cerebro y se diseñan para imitarlo se basan en neuronas indistintas creadas por el hombre, un enfoque muy abstracto, homogéneo y, diría, limitante. ‘La gente siempre configura estas redes artificiales de forma que todas las neuronas sean idénticas, y el cerebro no es así. Cada neurona es diferente’.
Al igual que la diversificación de las células de nuestro cerebro es fundamental para que los humanos aprendan, la diversificación de las ‘células’ de la inteligencia artificial inspirada en el cerebro mejorará su capacidad de aprendizaje. Para respaldar esta afirmación, el equipo de Goodman ha demostrado recientemente que la introducción de variaciones mediante ligeros ajustes en cada ‘neurona artificial’ de un sistema de IA mejora la precisión del rendimiento de aprendizaje de una red neuronal simulada hasta en un 20 por ciento.
El estudio, publicado en Nature, demuestra que imitar la heterogeneidad natural observada en los cerebros de los animales, que desempeña un papel activo y esencial para permitirles aprender y adaptarse a entornos cambiantes, puede mejorar la memoria y la captura de información para enriquecer el conjunto de funciones de una IA.
Mejorar en el juego del Pong
La evolución ha esculpido nuestros cerebros a lo largo de millones de años para que aprendan, se adapten y hagan todo lo que hacen, aunque ya sé que pensaréis que el de alguno…, y una de las formas de demostrarlo es que los cerebros creados por la naturaleza son mucho mejores para aprender que las redes neuronales artificiales.
Para ilustrarlo, tenemos aquel ‘revolucionario’ juego arcade de principios de los 80, el Pong. Tienes los dos bates moviéndose arriba y abajo, y la pelota rebota entre ellos. Una red neuronal artificial puede ser entrenada para jugar a este juego perfectamente, mejor que un humano. Pero si se mueven los bates un píxel más cerca uno del otro, de repente no podrá jugar porque está entrenada en una versión exacta del juego y no puede manejar cualquier ligera desviación del modelo original.
Ningún humano tendría ese problema y podemos atribuirlo a nuestra mayor capacidad de aprendizaje y adaptación y, en última instancia, a nuestras propias neuronas. Y la diversidad y riqueza de éstas. Sin duda es la clave que nos permite aprender con más solidez y rapidez que la inteligencia artificial si algo cambia.
En su intento de reproducir en las máquinas una de las características más sorprendentes del cerebro biológico, Goodman también estudió cómo las redes de neuronas altamente conectadas del cerebro de los mamíferos se comunican a través de impulsos eléctricos discretos y cronometrados con precisión, llamados ‘picos’, que son radicalmente diferentes de los cálculos digitales y analógicos convencionales.
Al inyectar heterogeneidad en los sistemas de IA basados en neuronas artificiales y hacer que se parezcan más a las redes neuronales de picos de nuestros propios cerebros, consiguieron mejorar el rendimiento de una inteligencia artificial para aprender tareas de dificultad real como el reconocimiento de voz, es decir, la capacidad de una máquina o un programa para recibir e interpretar dictados u órdenes habladas.
En concreto, al añadir una variación en el tiempo que tardan las neuronas simuladas en activarse, lo que se conoce técnicamente como ‘constante de tiempo’, las redes neuronales artificiales fueron más capaces de aprender tareas con un componente temporal esencial, como discernir números hablados en sucesión, pero no mejoraron en tareas dependientes del reconocimiento espacial.
Curiosamente, la distribución de las constantes de tiempo que mejoró el sistema de IA coincidió con las observadas en bases de datos masivas de grabaciones de neuronas humanas y animales. ¿Por qué la heterogeneidad óptima es similar a la que se observa en la naturaleza? En lugar de ser un subproducto de procesos simplemente ruidosos, podría haber una constante de tiempo universal arraigada en el tejido del cosmos que desempeña un papel activo e importante al permitir que la inteligencia aprenda en entornos cambiantes.
Cerebros hechos por el hombre
Pero no todos están de acuerdo. El neurocientífico Partha Mitra, que estudia tanto los cerebros de los animales como la IA en el Laboratorio Cold Spring Harbor, se muestra escéptico ante la posibilidad de que la clave para recrear cerebros sea simplemente la variabilidad de las respuestas temporales de las propias células individuales. En cambio, cree que el camino para mejorar la funcionalidad de la IA se basará en imitar mejor la disposición de las células cerebrales de los mamíferos.
Como todos los circuitos electrónicos están formados por los mismos componentes, su disposición es lo que más importa.
No puedes coger un circuito de radio y meterlo en una lavadora y esperar que funcione y empiece a dar las noticias. La diferencia entre la radio y tu lavadora no es tanto cuáles son los componentes sino cómo están cableados y organizados. Es un error creer que tenemos un ordenador mejor porque tenga más tipos de circuitos.
Goodman está convencido, como os contaba antes, que los distintos tipos de variación pueden dar a un sistema de IA ventajas a la hora de aprender a resolver tareas concretas. Algunos ajustes pueden ayudar a una IA a resolver acontecimientos en el tiempo, mientras que otros, como los que interesan a Mitra, pueden ayudar a una IA a captar diferentes características presentadas en el espacio simultáneamente. Los cerebros humanos son realmente desordenados y complicados y aunque puede que no necesitemos imitar toda esa complejidad para hacer una IA útil y eficiente, algunos detalles, como la heterogeneidad de las neuronas, probablemente no deberían ser ignorados.
Hay un tercer elemento de los cerebros biológicos que puede mejorar las IA en el futuro, y aquí ambos están de acuerdo: predicen que en los próximos años veremos muchos cerebros fabricados por el hombre que no se basan únicamente en un ordenador de propósito general, sino que se construyen con neuronas artificiales físicas, de silicio, denominadas sistemas neuromórficos. Estos sistemas emularían otra característica importante de las redes neuronales naturales: la plasticidad, es decir, la capacidad del cerebro de cambiar su propio cableado mediante el crecimiento y la reorganización de las conexiones físicas que establece con otras células.
La plasticidad puede ser un ingrediente esencial para construir sistemas de IA autónomos que puedan enfrentarse al mundo real, porque es la forma en que el cerebro humano se adapta a circunstancias nuevas y en desarrollo, permitiendo a las personas reconocer y evitar el peligro, ajustar la actividad motora a través de la retroalimentación sensorial, optimizar su búsqueda de recompensas y comportamientos, y/o aprender las duras lecciones de la vida. Del mismo modo, la plasticidad de las interconexiones neuronales artificiales podría ayudar a las inteligencias artificiales a adaptarse a los cambios del mundo virtual, como que las paletas de Pong se muevan un píxel.
Todo un reto imitar, como ya he dicho en alguna ocasión, a nuestro cerebro… y más si tenemos en cuenta que todavía está lleno de secretos.
Gracias por 2021. Feliz Navidad y nos leemos en 2022.