Te confieso que soy un apasionado de la literatura. Esto, por supuesto, no es nada de lo que me tenga que avergonzar. Sin embargo, también te confieso que me encanta la ciencia ficción. Y aquí viene el problema, ya que el género, debido a la cantidad de basura que se ha generado en los últimos años, está mal visto por las élites culturales.

Cada vez es más difícil encontrar algo de calidad. No obstante, existen joyas. En una de ellas, la humanidad recibe un SOS de sus progenitores, una raza viajera que nos dio origen milenios atrás y vuelve a nosotros porque tiene un problema. Su gran desarrollo se ha frenado, algo no funciona. Para solucionarlo tendrían que resolver una simple ecuación de segundo grado, mas ya no recuerdan cómo hacerlo.

Esto, perfectamente, podría ser una de las consecuencias futuras del desarrollo de la inteligencia artificial (IA). Sin embargo, no es la que más me preocupa. La historia de la humanidad ha estado impregnada de miedos similares en cada revolución científico-tecnológica vivida.

Probablemente, los top five sean el desempleo masivo, la pérdida de privacidad, las armas autónomas con consecuencias sobre una guerra, los sesgos que lleven a la discriminación y, quizá la reina de las preocupaciones, la pérdida del control debido a una superinteligencia.

Analicemos a vuelo de pájaro las dos primeras.

Si bien la Revolución Industrial trajo consigo desempleo, no fue tan masivo ni repentino como el que podría acarrear una implementación global de la IA. Este es un factor crucial a considerar al planificar la reconversión de un número significativo de profesionales en poco tiempo.

En cuanto a la pérdida de privacidad, ya es una tendencia preocupante, especialmente entre las nuevas generaciones que comparten cada detalle de su vida diaria en las redes sociales. La idea de la manipulación a través de la IA, aunque sin una comprensión clara de cómo, parece estar siendo subestimada.

Entonces llegan las otras tres preocupaciones planteadas que se pueden resumir en la última de ellas: la pérdida del control.

No es un secreto que las máquinas nos aventajan en la velocidad de cálculo, la consecución de procesos y la búsqueda de patrones. Esto las vuelve imprescindibles si deseamos tomar decisiones basadas en un número desesperadamente enorme de datos que hemos ido acumulando a lo largo de la existencia humana. Y aquí nos encontramos con el problema al que sí temo.

Hagamos un experimento mental: alimentemos a una IA del futuro con todos los datos disponibles sobre la evolución del clima y los ecosistemas, la acción sobre ellos de las diferentes especies y un largo etcétera de números. Luego hagamos sólo una pregunta con respuesta vinculante, es decir, acataremos lo sugerido. ¿Qué debemos hacer para detener el cambio climático? La respuesta más probable que dará la IA será: eliminad a la especie humana.

Una IA con pleno control y sin cortafuegos humanos no tendrá reparos en ordenar el exterminio de toda la sociedad si el objetivo supremo es preservar el equilibrio del planeta. Tampoco le temblará un byte de memoria en gasear a una parte de la población por ser vulnerable a un virus que, una vez dentro de sus cuerpos, pueda mutar e infectar al resto de la humanidad.

Probablemente, entienda que ese porcentaje de la población con inclinación sexual no compatible con la reproducción no deba existir e implemente su eliminación en aras de disminuir gastos.

¿Qué hacemos? ¿Es la solución desechar el desarrollo de la IA con sus grandísimas ventajas?

A lo largo de la historia, la humanidad ha reconocido la necesidad de las leyes como herramienta para regular la conducta y establecer normas de la convivencia. Esta idea fundamental ha sido plasmada en diversos códigos y sistemas legales que han evolucionado con el tiempo, reflejando los cambios en las sociedades y las estructuras de poder.

Ergo, frenar la IA no tiene sentido, imponerle leyes inviolables en su código matriz es el camino.

Al principio de esta columna te comenté que era un entusiasta de la ciencia ficción y a ella me remito para buscar una solución.

Isaac Asimov, el bioquímico de origen ruso devenido uno de los grandes escritores de ciencia ficción estadounidense, se nos adelantó varias décadas escribiendo una tríada de leyes para los robots que, perfectamente, podrían adaptarse para la IA.

Sus leyes, aparecidas por primera vez en el cuento Runaround, publicado en 1942, rezan:

Un robot no debe dañar a un ser humano ni, por inacción, permitir que un ser humano sufra daño.

Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si tales órdenes entraran en conflicto con la primera ley.

Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la primera o segunda ley.

Las tres se podrían resumir y adaptar al contexto de la IA como sigue: una IA no puede dañar a la humanidad, ni por inacción, permitir que la humanidad sufra daño.

Detener el desarrollo nunca ha sido una gran idea, sin embargo, regularlo para que la cara B de un salto tecnológico no nos extermine es quizá el sendero que debamos seguir.