Alemania ya tienen un plan y ha decidido seguir los pasos de países como España, Francia o Italia con respecto a ChatGPT al iniciar una investigación sobre el uso de los datos personales que hace el popular chatbot creado por OpenAI. De momento, no ha llegado tan lejos como Italia que decidió bloquearla. La Unión Europea también está estudiando cómo aplicar de forma conjunta la ley de protección de datos.
Las autoridades regulatorias alemanas han enviado un cuestionario a OpenAI y esperan una respuesta antes del 11 de junio, según ha informado Marit Hansen, comisionada del estado norteño de Schleswid-Holstein, informa la Agencia France-Presse. "Le estamos pidiendo a OpenAI información sobre cuestiones que se derivan del Reglamento General Europeo de Protección de Datos (GDPR)", afirma.
Con esta investigación se quiere aclarar el impacto que tiene esta herramienta online en la protección de datos tal y como dicta la ley europea. Esta es una preocupación que ha crecido entre los países miembros de la Unión Europea, la cual también ha creado un grupo de trabajo para estudiar el caso con los diferentes representantes, a raíz de la brecha de seguridad de datos que el chatbot sufrió a principios de año y otras cuestiones.
ChatGPT seguirá funcionando en Alemania, mientras no haya una prohibición explícita y si la compañía decide seguir operando en el país. Francia también ha planteado a la empresa ciertas cuestiones sobre privacidad. España, por su parte, ha abierto una investigación a la empresa propietaria por un posible incumplimiento de la normativa de protección de datos.
Hay que recordar que el modelo de lenguaje natural, GPT-4, que nutre a ChatGPT, también sirve de base para el chatbot Bing y otras herramientas de Microsoft. No obstante, el tratamiento de los datos de los usuarios de ChatGPT corresponde a OpenAI.
Las autoridades alemanas quieren verificar si OpenAI bajo la ley de la UE informa suficientemente a las personas cuyos datos utiliza ChatGPT que "tienen derechos, por ejemplo, para acceder, corregir o incluso eliminar sus datos", ha dicho Hansen. También está obligada la empresa a dejar claro cómo se pueden ejercer esos derechos.
La investigación italiana, por su parte, acusó a OpenAI de no verificar adecuadamente la edad de los usuarios de ChatGPT, y resaltó el hecho de que, durante al menos 9 horas, los datos de usuarios que incluían nombres y apellidos, así como direcciones de facturación o tipos de tarjetas de crédito quedaran al descubierto en la filtración antes mencionada. Italia ha dado hasta el 30 de abril a OpenAI para que responda, mientras que Alemania da como plazo hasta el 11 de junio.
La preocupación por esta tecnología abarca tanto la seguridad de los datos personales de los usuarios como el tratamiento que hace el chatbot de las conversaciones que las personas tienen con él. Este tipo de modelos de lenguaje natural requieren de un entrenamiento extenso con grandes conjuntos de datos y OpenAI, así como otras empresas, no han detallado las fuentes de esos datos y el control de la información que se suministra al modelo de IA para que aprenda.