Reunión del pleno del Consejo General del Poder Judicial el pasado 5 de febrero./

Reunión del pleno del Consejo General del Poder Judicial el pasado 5 de febrero./ CGPJ

España

La inteligencia artificial no va a sustituir a los jueces: “Todo lo que sea innovador va a depender del ser humano”

La aparición de sesgos ideológicos en los agentes inteligentes recae exclusivamente en el ser humano que ha desarrollado el algoritmo.

Más información: Trump anula una ley de Biden contra los principales riesgos de la inteligencia artificial

Claudia Estévez G.
Publicada
Actualizada

Cuando se estrenó la película Justicia Artificial en 2024, posiblemente, el espectador se pensase que lo que se narra en ella sucedería en un futuro muy lejano, sin embargo, la introducción de la inteligencia artificial (IA) en el Poder Judicial es ya una realidad en España. 

El despacho Garrigues ha sido uno de los primeros bufetes de abogados que maneja sistemas de inteligencia para facilitar el trabajo a sus trabajadores. La herramienta de IA generativa propia que utilizan se llama GAIA. 

Manuel Gómez, abogado senior de Garrigues, garantiza que ya se utiliza en propuestas con clientes. "En la propuesta de colaboración, es decir, en el contrato entre el cliente y el despacho, les explicamos que vamos a utilizar la inteligencia artificial generativa para la ejecución del trabajo. Tenemos una política interna de uso de IA que es una norma interna en la que nos obligan a utilizar todo esto de una determinada manera; por ejemplo, por supuesto siempre se anonimizan previamente todos los documentos que podemos utilizar o que vamos a subir a los programas". 

El director de la película Justicia Artificial, Simón Casal, comenta en una entrevista concedida a EL ESPAÑOL que "la inteligencia artificial puede entrar la justicia para acelerar todo tipo de trámites, sin embargo, lo que es fundamental es identificar bien en qué procesos nos puede ayudar, en cuáles no o en cuáles no debe entrar". "Es decir, identificar muy bien cuáles son las áreas del proceso de hacer justicia que debemos blindar para que queden en manos humanas".

Ello quiere decir que, gracias a los buscadores inteligentes, tanto letrados de la Administración de Justicia como abogados y jueces pueden verse beneficiados al automatizar tareas muy concretas como, por ejemplo, búsqueda de pruebas, resumen de sentencias o, simplemente, organizar la bandeja de entrada del correo electrónico o la agenda personal. La finalidad es ahorrar trabajo para que puedan, sobre todo los jueces, dedicarse a estudiar el fondo de la cuestión. 

Rol del juez 

Los agentes de IA ayudan a la reducción de las tareas de búsqueda, pero no pueden tomar decisiones "novedosas", es decir, aquellas desconocidas para la aplicación, ya que el programa ofrece únicamente soluciones basadas en casos anteriores registrados por humanos que son similares. Por ello, la presencia del juez es indispensable. "Todo lo que sea innovador va a depender del ser humano", relata el abogado experto en derecho digital, privacidad y protección de datos, Borja Adsuara. 

El magistrado, a diferencia de los algoritmos de las aplicaciones que manejan las mismas reglas para todo el mundo, tiene en consideración las circunstancias particulares de cada caso. Es lo que se llama el juicio de equidad y lo adopta el togado para impartir justicia adaptando la ley general a las condiciones concretas de cada particular.

"La equidad solo la puede tener el juez, no la puede tener un programa creado por IA, entonces, en ningún caso, va a sustituir al juez. Muchas de las cosas que tiene que hacer la autoridad judicial antes de dictar sentencia son automatizables; desde el cálculo de, por ejemplo, los gastos ordinarios o extraordinarios que tienen que pagar en proceso de separación y divorcio, hasta calcular los gastos del colegio de los hijos", asegura Adsuara. 

Desigualdades sociales 

El gran debate que suscita la inclusión de la inteligencia artificial en el Poder Judicial por parte de la sociedad es el miedo a los sesgos ideológicos, de clase o de raza; sin embargo, está demostrado que es mayor el porcentaje de jueces que provocan la diferenciación entre personas que las que efectúan las aplicaciones. 

Los sesgos que pueden aparecer en la IA dependen exclusivamente de humanos, de aquellos que desarrollan los buscadores inteligentes, por tanto, la solución radica en modificar la programación de la máquina.  

Un claro ejemplo de racismo que ha padecido la población por parte de la inteligencia artificial ocurrió en EEUU a través del algoritmo COMPAS por la selección de qué presos debían ser beneficiados con la libertad condicional. El análisis demostró que se recomendó la libertad condicional a más presos blancos que negros, pero seguía siendo menor el porcentaje de las decisiones racistas por parte de programas que de jueces. 

"El problema no era de la máquina, sino de quién había programado la máquina, de los sesgos que tenían los que desarrollaron el programa. Dijeron que, comparando las decisiones que toman los jueces por sí mismos, sin ayuda de inteligencia artificial, son mejores los de la inteligencia artificial, porque es mucho mayor el sesgo de los jueces. Se probó que todavía los jueces daban menos libertad condicional a los presos negros que a los blancos, o sea que incluso aunque la inteligencia artificial pueda tener un sesgo que no es suyo, sino del que lo ha programado, más sesgos tienen los jueces que no son máquinas", sentencia Borja Adsuara. 

La misma percepción tiene el director Simón Casal puesto que, en el caso de que la máquina posea sesgos ideológicos, de clase o raza, se debe reescribir el código para suprimirlos, sin embargo, "un juez racista o machista es muy difícil cambiarle el código". "El problema también es que, al estar entrenado con datos del pasado se está condenado a repetir el pasado, a condenar interpretaciones del pasado". 

Este tipo de problemas no solo pasan en el extranjero, también sucede en España, tal y como reitera  Adsuara. El abogado sabe qué piensa cada juez y es perfectamente consciente de si tiene más o menos posibilidades de ganar el juicio si cae en el juzgado, por ejemplo, número 28 o en el número 25. 

"Lo que queremos es tener una mayor seguridad jurídica. Si lo hace una máquina resolverá siempre del mismo modo y, si lo hacen humanos, dependerá que esté tocando en el número 25 o en el 28, así que pueden ser decisiones totalmente distintas. Lo que es mejor que ir a decisiones puramente humanas es que estén basadas en datos objetivos y que, para los mismos casos, se den las mismas soluciones. El juez debe ser capaz de separar lo que piensa de lo que dice la máquina, pero luego tiene que justificar el porqué. Nos tendremos que acostumbrar a la convivencia entre asistentes de inteligencia artificial y la decisión de los jueces". 

Sistemas expertos 

La inteligencia artificial debe ser revisada por humanos expertos en la materia y así lograr la detección de los errores que puedan sucederse en los programas. Los sistemas deben desarrollarse, entrenarse y ser supervisados por técnicos para evitar que la aplicación responda con calumnias que puedan poner en peligro la sentencia final. 

"Imagínate que alguien te cuente tu vida, que tú la sabes mejor que nadie, pues detectarías enseguida que se está inventando cosas. Bueno, pues esto es lo mismo. Si yo soy experto en derecho digital y me contesta una barbaridad, yo sé que es mentira, pero si no lo es, no lo sabe y lo da por hecho", ejemplifica el magistrado. 

*** Claudia Estévez G. es alumna de la promoción 2024/2025 del Máster de Periodismo de EL ESPAÑOL y la Universidad Camilo José Cela.