López de Mántaras: “Soy contrario a dotar de algún tipo de ‘personalidad jurídica’ a una máquina”
¿Quién será el responsable legal de determinadas acciones de una inteligencia artificial con total autonomía?
26 abril, 2019 12:26Tras los resultados del informe presentado por la OCDE en el que se estima que uno de cada cinco trabajos corre el riesgo de ser automatizado, se ha avivado más si cabe el debate sobre si las máquinas inteligentes realmente sustituirán a los profesionales. En este sentido, en un debate, Ramón López de Mántaras, director del Instituto de Inteligencia Artificial del CSIC, ha incidido en que la IA se convertirá en "un colaborador o partner del ser humano" y ha reconocido que se podrán automatizar ciertas tareas, "pero no desplazar a la persona de un puesto de trabajo”.
Por su parte, Pablo Fernández Burgueño, socio en Abanlex, NevTrace y Escila, ha señalado que la inteligencia artificial y la robótica son sistemas de reconocimiento cognitivo que pueden ayudar a los profesionales, pero ha descartado que eliminen puestos de trabajo. “La entrada de este tipo de herramientas va a ser progresiva, por lo que nos va a ayudar a ir adaptándonos para poder hacer las cosas mejor, más rápido y de manera más eficiente”.
Estas declaraciones las han realizado en el evento Conversaciones en la Azotea de Lefebvre, donde se ha analizado el papel que desempeñan la inteligencia artificial (IA) y las nuevas tecnologías, en concreto en el sector legal. Porque, de hecho, una de las cuestiones más peliagudas es: ¿quién será el responsable de determinadas acciones de una máquina inteligente con total autonomía?
En este sentido, López de Mántaras está de acuerdo en que, en un caso así, “sí que se plantean cuestiones éticas y legales de causalidad duras y complicadas”. Sin embargo, lo tiene claro: “Soy completamente contrario a dotar de algún tipo de ‘personalidad jurídica’ a una máquina. Hay que mantener las máquinas separadas del ser humano, no tenemos que verlas como sustitutos sino como colaboradores, coworkers y herramientas”.
Desde un punto de vista legal, Fernández Burgueño ha insistido en que ahora es el momento de empezar a plantearse estos aspectos y considera que “crear normativa a día de hoy sobre posibles desarrollos que vayan a crearse en el futuro es bastante razonable. El problema es que estas normas tienen que estar basadas no solamente en lo que existe, o lo que se cree que va a existir en el futuro, sino en la forma de pensar de la sociedad”.
En el sector legal, de cara a la regulación de todos estos avances tecnológicos, una de las preguntas es si es capaz de reaccionar a la misma velocidad a la que está avanzando la tecnología. Según Fernández Burgueño, “tal y como está configurado el ordenamiento jurídico, tenemos herramientas suficientes para dar respuesta a todos los incidentes. El problema será para el juez, quien tendrá que decidir, entendiendo por qué un programa de ordenador ha tomado una decisión determinada, que ha causado daños a personas”.
Para Paloma Llaneza, moderadora de este debate, son los desarrolladores quienes deben explicar cómo toman las decisiones las máquinas. Aunque, como explica López de Mántaras, “existe un problema con las nuevas tendencias de la inteligencia artificial basadas en el deep learning, que se fundamenta en la detección de patrones. Es imposible encontrar la explicación de por qué hacen bien algo, cuando lo han hecho bien, o por qué han fallado”.
En definitiva, la cuestión parece ser cuánta autonomía estamos dispuestos a dar a un sistema de inteligencia artificial, como es un robot o una máquina.