No es un misterio que ChatGPT, la herramienta de inteligencia artificial estrella de OpenAI, está en el punto de mira. Este software que ha demostrado ser un auténtico éxito (y una revolución, dicho sea de paso) ha cautivado a empresas como Microsoft, provocando el temor de titanes como Google. No obstante, se está encontrando con países como Italia que han decidido bloquearla debido a sus principales problemas. Y la próxima podría ser nada menos que España.
Según recoge Reuters, la Agencia Española de Protección de Datos (AEPD) ha registrado una solicitud al organismo de control de la privacidad de la Unión Europea para que realice una evaluación sobre las preocupaciones surgidas respecto a la privacidad sobre ChatGPT. En definitiva, y tal y como ha especificado la propia agencia a Reuters, quieren comprobar la base de dichas preocupaciones, ahora que el escrutinio a los sistemas de inteligencia artificial ha aumentado enormemente.
Junto a la AEPD, la Comisión Nacional de Informática y de las Libertades de Francia (CNIL) ha seguido sus pasos, afirmando que estaba realizando una investigación sobre varias quejas de ChatGPT. Recordemos que junto a Italia, otros países como Alemania o Irlanda han mostrado interés en este tema, siendo proclives a prohibir ChatGPT si fuera necesario.
España podría prohibir ChatGPT
Un portavoz de la AEPD ha explicado a Reuters que la agencia "entiende que las operaciones de procesamiento global que pueden tener un impacto significativo en los derechos de las personas requieren decisiones coordinadas a nivel europeo".
Prosigue detallando la solicitud que la AEPD ha realizado a los organismos de privacidad de datos europeos. "Por ello, en corto plazo, [la AEPD] ha solicitado que el tema de ChatGPT sea incluido en el Pleno del Comité Europeo de Protección de Datos, para que se puedan implementar acciones armonizadas en el marco de la aplicación del Reglamento General de Protección de Datos".
Un pleno que no queda lejos, ya que el próximo 13 de abril se celebrará por parte del Consejo Europeo de Protección de Datos una reunión plenaria que incluirá a los representantes de los organismos nacionales de control de la privacidad de datos de distintos países. No obstante, no se sabe si en dicho pleno se discutirá este tema, o no.
Si bien esto no quiere decir necesariamente que la AEPD solicite un bloqueo de ChatGPT, el hecho de que la agencia haya presentado una solicitud indica la preocupación sobre el impacto que ChatGPT pueda tener en los datos de los usuarios. Es decir, expresa la idea de que la AEPD está al tanto sobre este asunto.
Varios países involucrados
Pero la AEPD y la CNIL no son las únicas agencias gubernamentales que están pendientes de todo este tema. Desde el bloqueo de Italia, surgieron países como Irlanda o Alemania que estaban realizando sus propias consideraciones al respecto. La segunda fue muy tajante; aunque no haya planes por parte de Alemania para realizar el bloqueo, no les temblará la mano en caso de tener que hacerlo.
Por si fuera poco, la lista va aumentando. Tal y como expone el The Wall Street Journal, la administración de Joe Biden ha abierto la puerta a la idea de regular las herramientas de inteligencia artificial, en clara alusión a ChatGPT. Y es que no son pocas las voces que no solo inciden sobre los problemas de privacidad que pueden conllevar estas herramientas, sino que advierten de la capacidad de las mismas para lanzar comentarios dañinos o difundir información falsa.
El Departamento de Comercio de los Estados Unidos emitió el pasado martes una solicitud pública formal de comentarios sobre lo que ellos mismos apodaron como 'medidas de responsabilidad'. En estas medidas se incluía la pregunta sobre si estos modelos de IA deberían pasar por un proceso de certificación antes de su lanzamiento.
Lo más llamativo es que la lista podría crecer a medida que se produzcan hipotéticos bloqueos por parte de más países. Sin ir más lejos y tal y como recoge también el The Wall Street Journal, las organizaciones de regulación de contenido en Internet de China propusieron la aplicación de medidas para controlar el contenido generado por estas herramientas.