Con ChatGPT, la conversación sobre Inteligencia Artificial ha ganado ritmo. Hay voces que piden parar el desarrollo en Inteligencia Artificial hasta que sepamos cómo puede afectar a la humanidad, pero eso ha hecho poco, por ahora, para que esta tecnología siga adelante.
[Los creadores de ChatGPT le preguntaron cómo matar personas, y la respuesta es aterradora]
Hoy, Italia ha dado el mayor golpe en ese sentido a esta tecnología, con el bloqueo de acceso a ChatGPT que puede terminar en multas millonarias contra su creadora, OpenAI. Pero antes de que pienses que en Italia tienen miedo de la IA, hay que aclarar los verdaderos motivos del bloqueo.
Por qué Italia ha bloqueado la IA de ChatGPT
El GPDP, el regulador italiano centrado en la protección de datos personales, ha sido la entidad gubernamental que ha solicitado el bloqueo de ChatGPT, acusando al servicio de un uso no autorizado de los datos de los usuarios.
En concreto, parece que el problema está en que la página web de ChatGPT no respeta el reglamento europeo de protección de datos (GDPR) que tienen que seguir todos los servicios que obtienen datos de los usuarios en la Unión Europea. Esta norma especifica tanto los permisos que tienen que dar los usuarios, como la manera en la que los datos se pueden gestionar y transferir a otros países.
Dado que OpenAI es una compañía estadounidense sin presencia legal en la UE, cualquier país miembro puede tomar las medidas que crea convenientes para proteger a sus ciudadanos, y eso incluye el bloqueo preventivo. Pero eso también supone que el bloqueo sólo se activa en Italia y no en el resto de los países miembro, a menos que sus entidades correspondientes sigan los pasos de la italiana.
Según el GPDP, el problema está en la manera ilegal en la que ChatGPT estaría procesando los datos de los usuarios; además, también ha mostrado preocupación por que el servicio no evite el acceso de menores a su tecnología. Es bien sabido que OpenAI abrió el acceso gratuito a ChatGPT para obtener datos de uso y mejorar el modelo de lenguaje que usa; en otras palabras, los usuarios son ‘beta-testers’ y todo lo que introducimos en el chat puede ser usado para mejorar la IA.
Esto puede que no esté del todo claro para la mayoría de la gente, y de ahí que la entidad italiana haya tomado esta decisión. Como prueba adicional, también ha recordado el reciente caso de filtración de datos de los usuarios de ChatGPT.
La decisión italiana puede tener consecuencias graves para el sector de la Inteligencia Artificial, que entrena sus modelos de la misma manera. Puede que otras entidades, como la española, tomen la misma decisión, o incluso que se produzca un bloqueo masivo de servicios basados en IA en toda la UE.
Tal vez en respuesta a esta situación,, Margrethe Vestager, comisaria europea de Competencia y vicepresidenta ejecutiva para “Una Europea adaptada a la Era Digital”, ha usado su cuenta de Twitter para afirmar que en Europa “no se regula la tecnología de la Inteligencia Artificial”, sino “los usos de Inteligencia Artificial”.
Te puede interesar
- Europol hace saltar las alarmas por ChatGPT: la IA ya está siendo usada para cometer crímenes
- La Inteligencia Artificial de ChatGPT ahora también te ayuda a encontrar trabajo
- Cuidado con ChatGPT: cierran la IA después de que publique los chats de los usuarios por error
- “GPT-4 salvó la vida de mi perro”: cómo la IA está ayudando a comprender mejor la salud