El argumento de la habitación china
La necesidad de resolver los nuevos problemas y retos a los que se enfrenta actualmente la frontera de tecnologías de la inteligencia artificial, nos obliga a recurrir a herramientas de humanidades con las que no contaban los tecnólogos e ingenieros para solucionarlos. La complejidad creciente nos envuelve y resolver los nuevos problemas para avanzar en resultados va a ser cualquier cosa menos fácil. En la creciente incertidumbre hay que recurrir a campos insospechados, que en muchos casos habíamos dejado de lado y que ahora se vuelven, de pronto, métodos muy importantes. Un ejemplo podría ser la Teoría de juegos, ahora clave para gestionar multitudes de agentes de inteligencia a artificial o conjuntos muy numerosos de robots, que interactúan y se coordinan entre sí, sin intervención humana, por ejemplo, el de los miles de robots de uno de los almacenes de logística como los de Amazon.
Se supone que la teoría de juegos trata del estudio de modelos matemáticos de interacción estratégica entre tomadores de decisiones racionales. Esto ahora hay que extrapolarlo al caso de los robots, sean físicos o de software (como los agentes de software de inteligencia artificial que negocian en la Bolsa a razón de 2.000 transacciones por minuto de compraventa de acciones y productos financieros).
Lo curioso es que la citada teoría es un área de la matemática aplicada que utiliza modelos de la dinámica y mecánica de los juegos para cosas muy serias, como las interacciones dentro de estructuras formalizadas de incentivos. Es una teoría que nadie hubiera esperado usar en campos clásicos de la investigación del siglo XX, pero hoy es un hecho que sus modelos estratégicos están usándose en sociología, biología, politología, psicología, o humanidades y filosofía.
Y, ahora mismo, esta teoría se ha vuelto decisiva para la tremenda complejidad de interacciones que se producen en la relación entre máquinas (de software), que tienen que llegan a consensos para colaborar. Esto es esencial para desplegar nuevos campos que van desde la fabricación en sistemas de producción de la Cuarta Revolución industrial, al corazón del internet de las cosas (IoT) o la nueva forma de optimizar el tiempo de uso y el ancho de banda de las comunicaciones en red de las tecnologías 5G. Es decir, en inmensos sistemas que funcionan con millones de máquinas conectadas o interactuando, en lugares sin intervención humana.
Rescate de soluciones filosóficas
Los equipos de investigación de vanguardia como, por ejemplo, los que están intentando modelar una inteligencia artificial de propósito general en la empresa de Google DeepMind, están recurriendo a explorar soluciones a veces olvidadas por la filosofía. Un divertido ejemplo, por lo exótico, es el experimento de pensamiento ahora conocido como el Argumento de la Habitación China, que fue publicado por primera vez en un trabajo de 1980 por el filósofo estadounidense John Searle. Ahora se ha convertido en uno de los argumentos más conocidos de la filosofía reciente.
Searle se imagina a sí mismo solo en una habitación siguiendo un programa de ordenador para responder a los caracteres chinos que alguien le desliza por debajo de la puerta. Aunque no entiende nada de chino, al seguir el programa para manipular símbolos y números como lo hace un ordenador, produce cadenas apropiadas de caracteres chinos que engañan a los que están afuera para que piensen que hay un hablante de chino en la sala. La conclusión estrecha del argumento es que la programación de una máquina digital puede hacer que parezca que entiende el lenguaje, pero no produce una comprensión real.
Por lo tanto, la conocidísima ‘prueba de Turing’ es inadecuada para este tipo de contextos complejos de los que hablábamos. Searle argumenta que su experimento de pensamiento muestra el hecho de que las máquinas que entendemos como ordenadores simplemente usan reglas sintácticas (el código de software es puro texto alfanumérico, al menos, por ahora). Las máquinas pueden manipular las secuencias de símbolos, sin entender el significado o la semántica: el superordenador Watson de IBM que derrotó, ante la audiencia de TV, a especialistas humanos en el famoso concurso Leopardi! sin entender nada de nada del significado de las respuestas acertadas con las que ganó.
Y ahora viene lo bueno. El Argumento de la Habitación China refuta que la teoría de que las mentes humanas son sistemas computacionales, es decir, que nuestra mente procesa la información de forma similar a los ordenadores. Según Seerle, lo que es capaz de crear o construir nuestra mente debe ser resultado de procesos biológicos. Por ello, en el mejor de los casos, lo único que los ordenadores actuales podrían conseguir sería simular estos procesos biológicos. Naturalmente, estos argumentos tienen grandes implicaciones para la semántica, la filosofía del lenguaje y la mente, las teorías de la conciencia, la informática y la ciencia cognitiva en general.
Unas afirmaciones que son explosivamente disruptivas y que están, de nuevo, recibiendo muchas críticas. La frontera de la inteligencia artificial está metiendo en su estrés a los procesos de reflexión de la filosofía y las humanidades con las que ahora se ha aliado. Pero la industria tecnológica no solo necesita soluciones. Necesita soluciones con urgencia.
Así, la gran iniciativa del MIT para enfrentarse a los retos de la inteligencia, no tiene en su denominación las palabras inteligencia artificial, ni siquiera su acrónimo. Se llama MIT Quest for Intelligence (la búsqueda de inteligencia del MIT), que por cierto tiene al frente a científico español Antonio Torralba, y deberá afrontar, entre otras muchas cosas, si refuta o no lo que afirma el Argumento de le Habitación China de Searle y, por tanto, si acepta el tradicional enfoque funcionalista sobre cómo actúan las mentes humanas, es decir, la idea que sostiene que los estados mentales se definen por sus ‘roles’ causales y no por las cosas (neuronas, transistores, etc.) que desempeñan esos roles.
Un argumento que choca especialmente contra la teoría computacional de la mente, que trata a las mentes y la inteligencia humana como simples, aunque complejos, sistemas de procesamiento de información. El asunto es tan serio que impulsó al famoso psicólogo cognitivo Steven Pinker a eliminar su nombre de todas las listas de discusión de internet que tratasen sobre el ‘Argumento’ de Seerle.
La exploración para conseguir explicaciones objetivas de cómo funciona la mente humana no va a ser todo menos tranquilo. No en vano el filósofo Nick Bostrom, director del Oxford Future of Humanity Institute, afirma que si nos equivocamos en elegir frente a dilemas como los que describe el Argumento de la Habitación China, podríamos, por inacción o ignorancia, dejar desarrollarse ante nosotros a superinteligencias no humanas, que tal vez se lleguen a convertirse en amenazas existenciales para toda la humanidad, o sea para nosotros, pero quizá no para las máquinas. Algo de verdad inquietante.