En las últimas semanas, se ha suscitado un brutal escrutinio sobre las herramientas de inteligencia artificial más populares. Países como España o Alemania han comenzado sus propias investigaciones sobre los principales modelos de IA del mercado, tales como ChatGPT, indagando sobre sus implicaciones a nivel de seguridad y privacidad. El CEO de OpenAI, Sam Altman, ha hablado sobre la regulación de la IA ante los legisladores estadounidenses.
Según recoge el Financial Times, Altman ha tenido que testificar sobre la regulación de la inteligencia artificial en el Senado de los Estados Unidos. El CEO, que se ha presentado ante la cúpula legislativa del organismo el pasado martes, ha hablado de las bondades de la regulación sobre esta tecnología y sobre la necesidad de establecer pautas de seguridad.
Una comparecencia que llega en un momento de duda sobre las herramientas como ChatGPT, que ya se ha dado de bruces con los organismos reguladores de países como Italia. A estas investigaciones se le suman voces en contra del rápido crecimiento de la inteligencia artificial, advirtiendo sobre las negativas consecuencias que esta tendrá en los usuarios si se usa de forma maliciosa.
OpenAI tendrá que testificar
Parte del argumento que sustentó Altman en su comparecencia en el Senado tuvo que ver precisamente sobre el escrutinio de los reguladores sobre la IA a nivel internacional. En su declaración, Altman habló al subcomité judicial del Poder Judicial en el Senado de los Estdos Unidos sobre temas relacionados con la privacidad y la legislación.
En definitiva, lo que buscará el CEO de OpenAI con esto será pedir a las empresas tecnológicas que sean más flexibles con la inteligencia artificial, y que estas adopten un proceso de adaptación ante estos nuevos desarrollos tecnológicos.
Altman relató que está "ansioso por ayudar a los legisladores a determinar cómo facilitar la regulación que equilibre el incentivo de la seguridad y garantice que las personas puedan acceder a los beneficios de la tecnología", tal y como recogen en el Financial Times.
Además, la declaración intentará que dichas compañías y organismos se unan para establecer un "conjunto apropiado de requisitos de seguridad, incluidas pruebas internas y externas antes del lanzamiento" de estos modelos. Unos requisitos que tendrán que sumarse a un régimen de gobierno ciertamente flexible "para adaptarse a los nuevos desarrollos tecnológicos".
Más concretamente, el CEO reconoció ante los legisladores que actualmente el aug de la tecnología cuenta con un potencial gigantesco, pero que requería de regulación. "Creemos que la intervención regulatoria de los gobiernos será fundamental para mitigar los riesgos de modelos cada vez más poderosos", dijo.
No obstante, y tal y como recogen en la CNN, la intervención dejó claros los potenciales peligros de estos modelos ante Altman. El senador Richard Blumenthal comenzó dicha audiencia presentando una grabación falsificada de su propia voz, con comentarios escritos y generados por ChatGPT. Es decir, mostró un deepfake en audio de su propia voz.
De esta forma, Altman puso sobre la mesa una serie de propuestas para la regulación de la IA, como la creación de un régimen de licencias para empresas que trabajen con modelos muy potentes de IA. Una "combinación de requisitos de licencia y prueba", que se podrían aplicar al "desarrollo y lanzamiento de modelos de IA" con capacidades superiores.
La comparecencia de Altman es un reflejo de las preocupaciones que los organismos regulatorios y gubernamentales tienen ante el auge de la inteligencia artificial. Sin ir más lejos, el pasado marzo especialistas tecnológicos como Elon Musk pedían una pausa en los entrenamientos de modelos de lenguaje de IA más potentes, ante la preocupación de que estos acabaran teniendo usos nefastos.
A estos se les unió Geoffrey Hinton, considerado uno de los padres del desarrollo de la inteligencia artificial, que aprovechó su renuncia en Google para poner de manifiesto los peligros que estas tecnologías representan. Si bien no lanzó comentarios negativos sobre el papel de Google en este auge tecnológico, sí que habló de cómo la IA podría suponer un verdadero riesgo para la difusión de desinformación.