Asistía en nombre de Certus a un evento en el Edificio de Tabacalera de Málaga patrocinado por la Caixa y la Confederación de Empresarios de Málaga en el que he podido escuchar por vez primera en persona a Enrique Serrano Montes, entre otras muchas cosas Presidente de la Comisión de Inteligencia Artificial y Big Data de Ametic, quien ha realizado una fantástica exposición resumida del estado del arte en inteligencia artificial.
Lo cierto es que el auditorio estaba profundamente en silencio porque es una materia que suscita un interés comprensible y en cierto modo inquietante por los riesgos que supone el desarrollo descontrolado de esta tecnología (i.e. impacto en el mundo laboral, defensa nacional, ética, privacidad, ciberseguridad, credibilidad de la información online, consumo energético,…) .
Me he sentido consolado cuando en la mesa redonda posterior una buena representación de la innovación malagueña exponía la importancia de la regulación (que no necesariamente tiene por qué ir asociada a la burocracia) en esta materia y la necesidad del legislador de poner límites y control para evitar poner en riesgo los derechos libertades fundamentales.
No obstante las preguntas me abrumaban al salir respecto de la relación entre inteligencia artificial y las normas.
Por ejemplo, el hecho de que el Reglamento Europeo de Inteligencia Artificial excluya de su aplicación al ejército a uno le puede causar cierto temor ya que como consecuencia implica que los desarrolladores en este campo no están limitados por dicha regulación. No obstante, cuando uno piensa en los desarrollos tecnológicos que potencias mundiales no democráticas están llevando a cabo sin ser para ellos un obstáculo si quiera los derechos humanos, uno se siente reconfortado en dar rienda suelta al ejército. O pensar en que en 2023 hemos tenido ya varias versiones distintas de chatgpt mientras que la normativa de inteligencia artificial empezó a tramitarse hace más de dos años…
No cabe duda de que los riesgos derivados de la Inteligencia Artificial están generando una fuerte respuesta por parte del legislador europeo por medio de la publicación de normas (en eso somos los mejores) que afectan a los datos, o el Reglamento Europeo de Inteligencia Artificial, el proyecto de Directiva de responsabilidad civil por productos defectuosos (que incluirá los desarrollados con inteligencia artificial), el proyecto de Sandbox que creará cuando se publique un entorno de pruebas controlado por el regulador para el desarrollo de estas tecnologías, la cooperación entre agencias europeas de protección de datos (entre ellas nuestra querida AEPD) para controlar el uso indiscriminado e irregular de datos de carácter personal de ciudadanos en la Unión Europea,…
No obstante, y aunque por la brevedad de la ponencia no ha sido posible profundizar en ello, lo que más me ha llamado la atención (al igual que cuando escuché por primera vez hablar del 6G) ha sido el concepto de Super Inteligencia Artificial o Inteligencia Artificial 3.0, concepto que he escuchado por primera vez hoy y del que al investigar en internet me ha dejado asombrado.
Vendría a ser una especie de Inteligencia Artificial avanzada que adquirirá conciencia de sí misma y que no estará limitada por nuestro número de neuronas, superando con creces la capacidad de la inteligencia humana. Parece que a la fecha actual es hipotética y teórica pero dada la aceleración que lleva esta tecnología no me extrañaría que tampoco se acabe dilatando tanto con la inversión tan grande que están haciendo las grandes multinacionales y las grandes potencias en su guerra fría tecnológica. Quizá tener un R2D2 en casa no esté tan lejos de ocurrir.
A los más cinéfilos no les negaré que dos de las películas que marcaron mi infancia fueron Tiburón y Terminator y a partir de hoy creo que me sentiré más seguro en el agua...