La comunidad científica y tecnológica está dividida entre los defensores de la actual evolución de la inteligencia artificial, aunque frenética, y los detractores que claman contra los riesgos que esta tecnología plantea. De un bando a otro parece haberse pasado el académico Douglas Hofstadter cuya opinión al respecto ha sido relevante en esta materia en los últimos años y ahora se ha mostrado preocupado por como herramientas como ChatGPT, usadas también en España, pueden suplantar a los humanos.
Douglas Hofstadter ha sido durante años un gran defensor de separar las palabras inteligencia y artificial, al no considerar que las tecnologías basadas en el aprendizaje automático y otros modelos no merecieran ser consideras como inteligentes al igual que los humanos. Hasta ahora, cuando sistemas como ChatGPT han roto los esquemas de este académico que se muestra "aterrado" por el futuro que estos poderosos modelos de IA plantean.
"Muy pronto, es muy posible que sean (ChatGPT y otras IAs) más inteligentes que nosotros, mucho más inteligentes que nosotros" ha afirmado Hofstadter en una entrevista realizada por Edward Kmett y publicada en YouTube donde analizan la carrera de este académico y su opinión sobre el momento actual de la IA.
Cambio de opinión
Hijo de un destacado físico estadounidense, Douglas Hofstadter ganó el premio Pulitzer en los 80 por su ensayo científico Gödel, Escher, Bach: un Eterno y Grácil Bucle, donde relaciona temas como la inteligencia artificial. Este académico se ha centrado en el campo de las ciencias cognitivas y años atrás defendía que las llamadas inteligencias artificiales no eran buenos ejemplos de lo que puede hacer un cerebro humano. Hofstadter afirmaba que no se debía llamar inteligente a un sistema que resolviera situaciones concretas a base de ser entrado para esa tarea con grandes conjuntos de datos.
A raíz del último año y el boom protagonizado por nuevos modelos de aprendizaje profundo capaces de generar texto, código o imagen en segundos partiendo de una simple descripción, la opinión de Hofstadter parece haber dado un giro considerable. El corto periodo de tiempo en el que se ha producido este avance de la tecnología es una de las preocupaciones de este científico.
Cuenta Hofstadter que cuando se adentró hace décadas en este campo de estudio, "sentí que tomaría una enorme cantidad de tiempo (...) nunca imaginé que las computadoras rivalizarían, y mucho menos superarían, a la inteligencia humana (...) Y luego esto comenzó a suceder a un ritmo acelerado, donde los objetivos inalcanzables y las cosas que las computadoras no deberían poder hacer comenzaron a derrumbarse", explica en la entrevista.
Afirma que sus creencias se han visto sacudidas por lo que describe una experiencia traumática, al considerar que el ser humano pronto se va a ver eclipsado por las máquinas. Sin embargo, no tiene claro si ese punto de inflexión llegará en solo 5 años o 20 años.
El mismo se describe deprimido por esta idea que le abruma todos los días y que no sabe si "significará el fin de la humanidad en el sentido de que los sistemas que hemos creado nos destruyan. No está claro si ese es el caso, pero ciertamente es concebible". Compara el momento por el que está pasando la sociedad con el desarrollo de la IA con el control del fuego por parte de los humanos cuando el entrevistador le pregunta por algún punto de la historia en el que muchas personas pudieran sentir un miedo similar. Pero ni siquiera se muestra esperanzado ante la posibilidad de controlar este nuevo fuego o tener precaución "Es posible que ya hayamos incendiado el bosque dice".
Principales riesgos
La opinión de Hofstadter, es una de las más drásticas que se han escuchado hasta el momento, junto con la de Eliezer Yudkowsky que pedía parar su desarrollo antes de que destruyera a todo el mundo. También algunos expertos considerados los padrinos de esta tecnología se han mostrado preocupados por su rápido avance cuando todavía no hay controles fuertes, leyes o conocimiento de cómo puede influir en la sociedad.
[El momento más temido de la IA: ChatGPT-4 tiene signos de razonamiento humano, avisa Microsoft]
Las principales preocupaciones de la comunidad se basan en el impacto de estas herramientas por la creación de desinformación o la destrucción de empleos a gran escala y con rapidez. Sobre todo se habla del mal uso que puedan hacer las personas de esta nueva tecnología más avanzada. Para lo que los expertos piden cautela a las compañías que las están desarrollando como OpenAI con ChatGPT o Google con Bard, entre otros y controles y leyes por parte de los países, además de inversión en investigación.
No obstante, las voces como Hofstadter se enfocan en el temido nacimiento de la IA General o lo que es lo mismo aquel sistema o modelo tecnológico que capaz de mostrar comprensión o razonamiento similar al de los humanos, aunque hay quien también lo describe como los sistemas que puedan realizar múltiples tareas sin limitarse a las que han sido entrenados. Otros expertos en la materia no se muestran tan convencidos como Hofstadter de la llegada inminente de esta AGI y piden cautela para no crear pánico y rechazo entre la sociedad.