El futuro del ser humano está fuera de sí mismo. Si la evolución de nuestra especie hasta la fecha ha surgido de su propio cambio físico -por ejemplo, del fortalecimiento de su tren inferior para sostenerse sobre dos piernas o del engrandecimiento de su cerebro-, a partir de ahora sus próximos eslabones podrían definirse más por lo extracorpóreo: los datos, los algoritmos, la inteligencia artificial (IA); que servirían como una extensión de nuestro propio cerebro que llega donde no podemos.
Así lo ha defendido este miércoles el doctor en Económicas y especialista en Big Data Juan Manuel López Zafra en las II Jornadas de Tecnociencia FuturON, celebradas en el Centro Cultural La Térmica de Málaga. Ha sido una jornada de tecnoptimismo en el que los ponentes han mostrado su admiración ante el "futuro apasionante" que nos espera, para el que López Zafra incluso ha propuesto un nombre de especie diferente: Homo Algorithmus.
"El siguiente estadio de la evolución humana no será corporea, dentro del cuerpo humano. Nuestra evolución va a ser en conexión con la nube", ha indicado este doctor en Económicas, que ha planteado un panorama en el que gran parte de los procesos racionales queden en manos de los algoritmos y las partes más ociosas, para las personas.
La evolución en la materia es tan veloz que a López Zafra, como profesor universitario, se le caducan las diapositivas "de un año a otro": "Esto requiere un entrenamiento, primero de todo, social. Nuestros hijos trabajarán en cosas que no existen ni imaginamos".
"Ya estamos rodeados de algoritmos que no vemos. Tendrá que haber alguna indicación, como el de las cookies en Internet, que diga: Está usted siendo monitorizado por un algoritmo. Y será muy difícil que digamos que no", ha sentenciado Juan Manuel López Zafra, que también ha hecho hincapié en que uno de las próximas grandes batallas conceptuales será en relación a las distintas éticas que, sobre las máquinas, se apliquen en Occidente u Oriente.
"No es una opción no usar la IA"
Idoia Salazar es presidenta del Observatorio del Impacto Social y Ético de la Inteligencia Artificial. Junto con la doctora en Ciencias de la Computación Nerea Luis, ha protagonizado una segunda sesión centrada en el futuro de la inteligencia artificial en la que ambas se han mostrado maravilladas antes los continuos avances en su área.
"La inteligencia artificial es una herramienta que, en este momento de la historia, nos ayuda a gestionar una gran cantidad de datos que tenemos a nuestro alrededor y generamos continuamente. Nuestro cerebro no es capaz de procesar tal cantidad de datos, así que la IA nos ayuda", ha resumido Salazar, que ha defendido que es "una herramienta esencial": "No es una opción no usarla".
De acuerdo con esta experta, no toda la parte racional correrá de parte de la máquina, sino que los algoritmo llegarán a conclusiones tras analizar grandes cantidades de datos y, con esos planteamientos, los humanos tendremos que tomar las decisiones.
"Nunca habíamos hablado tanto de sesgos como en el momento actual, pero hablamos de los de la máquina, ¡no de los nuestros! Es como si nos miráramos en un espejo, viéramos los defectos humanos y se lo adjudicáramos a la máquina", ha planteado la presidenta del Observatorio del Impacto Social y Ético de la Inteligencia Artificial, que ha definido a esas operaciones de cálculo como "meras herramientas" que no pueden tener consciencia ni tomar decisiones -y si lo hacen, es por responsabilidad de alguien que las programó-: "Dejemos de lado los prejuicios de la ciencia ficción. Dejemos de pensar en un robot humanoide"
Es por ello que, según su análisis, no se regulará políticamente ni la tecnología ni la inteligencia artificial; sino en qué casos es beneficioso su uso, tal y como ya está haciendo la Comisión Europea al establecer un semáforo indicando con colores los grados de peligro de los usos de la IA en según qué casos.
"La tecnología avanza a una velocidad mucho mayor que las leyes", ha admitido Idoia Salazar, que ha reconocido que en muchos sentidos se van descubriendo las consecuencias de las tecnologías a medida que se van usando. Los efectos psicológicos en las personas de tener "una herramienta que esté ofreciendo conclusiones continuamente" será uno de los campos a estudiar; pero, con todo, "nos espera un futuro apasionante".
Por su parte, la doctora en Ciencias de la Computación Nerea Luis ha concedido que mucha gente se puede sentir "indefensa" ante estos avances y la velocidad de los cambios, para lo que ha propuesto mucha divulgación: "No hay foros que incluyan a mucha gente, que no se sientan como un foro de nicho. Ojalá hubiese una Feria del Libro de todo esto que llevase al ciudadano a descubrir todos estos temas y plantearse estas cuestiones, que se ven muy lejanas pero van a afectar mucho", ha pronosticado.
"Hay que meter capas en el proceso, que igual no sea tan rápido para una tecnología de inteligencia artificial salir al mercado porque se hayan metido ciertos filtros, igual que pasa en el sector de la alimentación o con las vacunas. Se trata de entender cómo hacer que forme parte del proceso y se vaya normalizando", ha reflexionado Luis en cuanto a la regulación de estas tecnologías.
Para ella, entre los peligros está caer en un mundo "de programadores y programados", en el que un grupo social o un determinado país dé con la tecla de cómo acercar la IA a la población y el resto, simplemente, se deje llevar.
"El punto en el que estamos es el de la inteligencia artificial específica: intentamos hacer muchas inteligencias artificiales muy concretas, cada una en su nicho. Ninguna IA es capaz de adaptarse al contexto de la otra sin pasar por un reaprendizaje. Ese es el punto de partida", ha defendido. Y, a partir de ahí, todos los universos, metaversos y compañía que faltan por llegar.