De Siri a ChatGPT: así se ha entrenado al 'cerebro' de la inteligencia artificial
El silencio, la creatividad o las emociones son atributos humanos difícilmente replicables por las máquinas, pero esto está cambiando.
7 abril, 2023 02:07“¿Acaso las máquinas no hacen algo que podría describirse como pensamiento, pero que es muy distinto de lo que hace el hombre?”. Este fue el interrogante que se planteó el matemático e informático Alan Mathison Turing allá por los años 50. Ahora, con el advenimiento de los chatbots y los entresijos filosóficos que entrañan, su planteamiento cobra una relevancia particular.
En el artículo académico Maquinaria computacional e inteligencia, publicado en la revista Mind en 1950, Turing esbozó el planteamiento de la prueba homónima, el juego de la imitación, para descubrir si las máquinas piensan. Para ello, establecía un procedimiento simple: poner al humano y a la máquina frente a frente en una conversación.
En este juego, una persona realiza una serie de preguntas a dos entidades ocultas —una humana y otra computacional— para después reconocer, en base a las respuestas, si se estaba comunicando con un ser humano o una máquina. Las instrucciones originales de Turing establecían que, cada cinco minutos, el interrogador debía identificar a los interlocutores ocultos, diferenciando entre humano y máquina.
[¿Curar el cáncer con inteligencia artificial?]
La famosa prueba de Turing se ha modelado inversamente para diseñar los CAPTCHA (Completely Automated Public Turing test to tell Computers and Humans Apart) o prueba de Turing inversa para discernir entre hombre o bot. Sin embargo, el juez, en este caso, no es humano. En los últimos años, se ha alegado en numerosas ocasiones que la prueba de Turing está obsoleta. No obstante, tanto la manera en la cual se formulan las preguntas como la influencia del juez son factores vitales para determinar si se ha superado el test.
“Hay algunos atajos que un entrevistador puede usar para detectar si su interlocutor es un programa, centrándose en su humanidad más que en su inteligencia”, señaló Robert Clarisó Viladrosa, profesor de los Estudios de Informática, Multimedia y Telecomunicación de la Universitat Oberta de Catalunya (UOC), en un artículo publicado en 2014.
“Preguntas como ‘¿en qué año naciste?’, ‘¿cómo se llama tu madre?’, ‘¿qué cenaste ayer?’ o ‘¿cuántos brazos tienes?’ podrían revelar la naturaleza de nuestro interlocutor”, explicó Clarisó. Por eso, añade, “para superar un test de Turing, además de ser inteligente, un programa debe ser capaz de asumir un papel humano y mentir de forma coherente y convincente”. Y esto es algo que todavía no se ha logrado y, sino, solo hace falta teclear estas preguntas en ChatGPT (OpenAI).
La explosión de los chatbots
“Los chatbots han suscitado la impresión fundada de haber superado el test de Turing”, señala Roger Campione, catedrático de Filosofía del derecho de la Universidad de Oviedo, en declaraciones a ENCLAVE ODS. Sin embargo, advierte el catedrático, "esto hay que reconocerlo sin que sea suficiente decir ahora que el test de Turing no era la herramienta adecuada”.
Para atender las peticiones, este tipo de agentes de IA emplean información basada “en la inteligencia humana colectiva volcada en la Red”, aclara Campione. Y, al tratarse de sistemas automatizados, sería descabellado incluso considerar que los chatbots disponen de una especie de conciencia discursiva. “No pueden dar cuenta del porqué hacen lo que deciden hacer y tampoco un programador podría reconstruir este proceso como si se tratara de un razonamiento”, añade el catedrático.
[Campañas sostenibles basadas en inteligencia artificial]
Campione sugiere que hay otras pruebas de inteligencia más adecuadas que la planteada por Turing. “El desafío de los esquemas de Winograd, por ejemplo, conjuga la comprensión con el sentido común empleando un par de frases que difieren entre sí tan solo en una o dos palabras y que contienen una ambigüedad”, señala. Con este método, se evalúa el sentido común de la máquina.
Silencio y creatividad
Kevin Warwick y Huma Shah de la Universidad de Coventry, argumentan que existe una debilidad en el juego de la imitación. En un artículo Taking the fifth amendment in Turing’s imitation game, publicado en 2016 en la revista Journal of Experimental & Theoretical Artificial Intelligence, estos autores explican que si las entidades ocultas guardaran silencio, resultaría imposible diferenciar entre persona o máquina.
Así, si una máquina guardara silencio durante la prueba, podría superarla y ser considerada como una entidad pensante. “Si una entidad puede superar la prueba permaneciendo en silencio, esto no puede considerarse un indicio de que sea una entidad pensante; pde lo contrario, objetos como iedras o rocas, que claramente no piensan, podrían superar la prueba”. Este es, según los investigadores, el “grave defecto de la prueba de Turing”.
Otro aspecto que evidencia las limitaciones de la IA tiene que ver con la creatividad, un atributo cognoscitivo del ser humano. Esto lo observó Mark Riedl, profesor asociado de la Escuela de Informática Interactiva de Georgia Tech, y se replanteó si realmente las máquinas podían replicar el pensamiento humano.
[El sofisticado engaño de los 'deepfakes': así es cómo puedes identificarlos y protegerte de ellos]
"Es importante señalar que Turing nunca pretendió que su prueba fuera el punto de referencia oficial para determinar si una máquina o un programa informático puede realmente pensar como un humano", declaró Riedl al medio Newswise en 2014. El investigador creó ese mismo año una prueba para evaluar la creatividad de las máquinas: el test Lovelace 2.0 de Creatividad e Inteligencia Artificial.
Este examen exige a la máquina que sea capaz de realizar determinadas actividades para demostrar su inteligencia, como puede ser escribir un poema. Esta es la segunda versión de la Lovelace original propuesta por Bringsjord, Bello y Ferrucci en 2001. En su origen, requería que un agente artificial produjera un objeto creativo de tal forma que el diseñador del agente no pudiera explicar cómo había desarrollado el objeto creativo.
Para Campione, la creatividad artificial podría tratarse de un oxímoron. “Antes de opinar acerca de si la IA puede ser creativa, habría que aclarar de la forma más comprensible posible qué entendemos por creatividad”, señala. Porque “si por creatividad entendemos pintar un cuadro o componer una música, la cuestión estaría zanjada”. El catedrático, en este caso, está aludiendo a las imágenes y obras de arte generadas a partir de protocolos como Midjourney.
¿Y las emociones?
Los pasos hacia la integración de las emociones en los sistemas de IA están siendo agigantados. Hace exactamente un año. Un equipo de investigadores del Instituto Avanzado de Ciencia y Tecnología de Japón publicó un estudio donde afirmaban haber integrado señales biológicas con métodos de aprendizaje automático para hacer posible una IA "emocionalmente inteligente".
Y, a principios de febrero, un equipo de científicos de la Universidad Queen Mary de Londres, pretenden, a través de la medición de variables como el ritmo respiratorio o la frecuencia cardíaca mediante ondas de radio o Wifi, desarrollar una inteligencia artificial capaz de revelar las emociones humanas.
“[La IA es] una de esas etiquetas que expresan una especie de esperanza utópica más que la realidad actual”, arguye el autor Steven Poole en declaraciones a Bloomberg. En lugar de esta terminología, propone, se debería utilizar la noción de gigantescas máquinas de plagio para referirnos a herramientas disruptivas como ChatGPT o Midjourney.
Estos avances computacionales, como señala Campione, nos sitúa en una época que llama, irónicamente, “humaquinista”. Pero recuerda que “no hay que dejarse llevar por simulacros futuristas que tergiversan la realidad, pero tampoco debemos caer en la falacia de creer que detrás de lo aparente siempre hay una realidad última inmutable”.