Adela Cortina. Foto: Beatriz Tafaner

Adela Cortina. Foto: Beatriz Tafaner

Letras

Adela Cortina, filósofa: "Hay que arrumbar las leyendas negras en torno a la inteligencia artificial"

Publicada
Actualizada

Maestra en el más noble sentido de la palabra, pocos pensadores españoles dominan como Adela Cortina (Valencia, 1947) el arte de iluminar zonas oscuras. Fruto de su esfuerzo ejemplar por simplificar lo complejo y ofrecer al lector las reflexiones más sosegadas y audaces, la catedrática emérita de Ética de la Universidad de Valencia acaba de publicar ¿Ética o ideología de la inteligencia artificial? (Paidós), libro en el que denuncia la "frankenfobia" tecnológica.

Galardonada con el Premio Nacional de Ensayo, confiesa que su preocupación por la inteligencia artificial "surgió hace años, cuando empezó a hablarse de que sería posible traspasar un cerebro humano a un sustrato de silicio de modo que transitaríamos a una nueva especie, más allá de la humana, con una inmensa capacidad de computación, y que podríamos acabar con la vejez, la enfermedad y la muerte".

Le pareció –añade– "pura ideología: un intento de atraer inversiones económicas cuantiosas, sin base científica. No me parecía serio y sí muy interesado. Había que averiguar qué de valioso había en esas tecnociencias y qué de ideología".

Pregunta. Precisamente este jueves 7 de noviembre participa en un coloquio sobre este tema organizado por la Fundación Areces. Allí van a debatir sobre cómo está transformándose el conjunto de las prácticas culturales por la aplicación de la inteligencia artificial. ¿Cómo lo ve usted?

Respuesta. La nuestra es hoy una cultura marcada por la celeridad, la fragmentación, la superficialidad a la que obliga vivir en la exterioridad de las redes y los múltiples dispositivos. La competencia entre las potencias mundiales y las grandes plataformas va generando una forma de vivir y pensar que a duras penas deja espacio para la autonomía personal, para la verdadera deliberación pública y, por lo tanto, para la cultura democrática.

P. Ante los problemas que plantea la IA, ¿comprende a quienes la miran con temor o es la hora de aceptar el desafío ético que nos plantea para ayudarnos a vivir mejor?

R. El temor es comprensible porque la IA ha llegado envuelta en leyendas siniestras, pero es hora de arrumbarlas y aprovechar las aportaciones de las tecnociencias para tener una mayor información en diversos campos, para desembarazarnos del trabajo monótono y repetitivo y dedicarnos a tareas innovadoras, creativas y sociales. Pero siempre con la inteligencia humana suficiente como para no poner en manos de los algoritmos una gran cantidad de decisiones por comodidad. Pensar cansa, decidir cansa y delegar en otros las decisiones es una tentación. Pero nunca se debe fiar en los algoritmos decisiones que afectan a personas sin una supervisión humana significativa.

P. ¿Corremos un riesgo real de sufrir lo que usted llama "frankenfobia" tecnológica? ¿En qué consiste y cómo podemos combatirla?

R. "Frankenfobia" es el temor hacia seres a los que se da vida artificialmente como es el caso del monstruo de Frankenstein, la inquietante novela de Mary Shelley. Se combate recordando que Frankenstein no es el monstruo, sino el creador del monstruo. La responsabilidad en último término siempre está en manos de los humanos.

P. ¿Cuáles son los peligros de la IA y cuáles también sus ventajas para el ser humano?

R. Los peligros serían ante todo la pérdida de puestos de trabajo, la manipulación de los datos personales, los sesgos de los algoritmos y la sustitución de las personas por la IA. En cuanto a los beneficios, son incontables en sectores como la salud, la predicción climatológica, la eficiencia empresarial, la planificación del tiempo, el abaratamiento de costes, en el ámbito agrícola, en el de la defensa y un larguísimo etcétera.

P. Como usted misma plantea en el libro, ¿puede hablarse de inclinación al bien y a la verdad en una IA, si carece de sentimientos o de autoconciencia?

R. Hoy por hoy, no. Necesitaría un cuerpo como el humano, que es la sede del sentido común. ¿Y mañana? Hay un buen número de tecnocientíficos empeñados en crear robots inteligentes, autónomos, con sentimientos, que en tal caso deberían ser reconocidos como personas morales, con todos los derechos que les corresponderían. No se puede afirmar rotundamente que no será así, pero yo casi me atrevería a afirmarlo.

"Lo perverso de nuestro tiempo es que las mentiras públicas no tienen consecuencias ni en pérdida de votos ni de dinero"

P. ¿En qué consistiría la ética de la IA, qué principios debería tener?

R. Habría que analizarlo en cada campo de aplicación. Pero los transversales son no dañar, sí beneficiar, respetar la autonomía humana, actuar con justicia, y tener en cuenta la trazabilidad y la explicabilidad de los resultados.

P. Otro de los temas claves de su libro es la diferencia entre la posverdad y la posveracidad.

R. No es verdad que estemos en tiempos de posverdad. Se multiplican las noticias falsas, pero la gente quiere que se les diga la verdad en las cosas que les importan, hasta el punto de que se habla de un "derecho a no ser engañado". Estamos en tiempos de "posveracidad", porque lo contrario de la verdad es el error, que puede subsanarse, pero lo contrario de la veracidad es la mentira, y lo perverso de nuestro tiempo es que las mentiras públicas no tienen consecuencias ni en pérdida de votos ni en pérdida de dinero.

P. Finalmente: ¿será la IA la clave para que el hombre del siglo XXI alcance más libertad, cultura y prosperidad o, sin la necesaria regulación, llegará un momento en el que no sepamos distinguir lo real de lo manipulado con fines torticeros?

R. Contamos con la IA y hemos de aprovechar todas sus ventajas, regulándola, por supuesto. Pero la clave reside siempre en las personas, en su inteligencia y sobre todo en su voluntad de no dejarse engañar y de construir un mundo a la altura de la dignidad humana, cuidando también la naturaleza.