La misma semana que Alemania ha anunciado una investigación contra ChatGPT por su tratamiento de los datos personales, la compañía desarrolladora de esta herramienta, OpenAI, ha lanzado nuevas medidas para dar más privacidad a sus usuarios. La empresa que ha hecho mundialmente famosa la inteligencia artificial generativa ha creado un modo incógnito para tener conversaciones más privadas y una serie de funciones con las que da más control de los datos a los usuarios.
Hasta ahora, cualquiera que quisiera mantener una conversación con ChatGPT debía registrarse con el correo electrónico y otros datos personales. Después de este paso inicial, todas las interacciones con el chatbot sean o no personales sirven para seguir alimentando a la inmensa muestra de ejemplos con los que se ha entrenado al modelo de lenguaje natural, GPT-4, del que parte el chatbot.
Ante este sistema y la brecha de seguridad de datos que ChatGPT sufrió a principios de año, varios países de la Unión Europea han iniciado investigaciones y mostrado su preocupación por la posible infracción de la empresa de la ley de protección de datos. Alemania por ejemplo, ha recordado en su investigación que OpenAI debe ofrecer suficiente información a los usuarios sobre los derechos que tienen para "acceder, corregir o incluso eliminar sus datos".
De forma paralela, algunos de los firmantes del manifiesto que a principios de abril pedía parar el desarrollo de esta tecnología durante 6 meses para regularla, alertaban de la falta de transparencia de estos modelos sobre el tratamiento de los datos y la procedencia de muchos de los ejemplos que habían usado en el entrenamiento.
Modo incógnito
Como solución, la empresa de Sam Altman ha optado por copiar la respuesta de Google cuando se le recriminaba el uso de las búsquedas de cada usuario, un modo incógnito. ChatGPT permitirá desactivar el historial de conversaciones al entrar en su plataforma online. De esta manera, lo que se hable con el chatbot no se usará para entrenarlo y mejorar su rendimiento.
Sí quedará la conversación guardada en los servidores de la empresa, pero solo durante 30 días. Pasado el mes, se comprometen a eliminarlo. Este plazo se ha explicado como una medida de seguridad, el tiempo necesario para revisar únicamente en caso de una posible violación de los términos de uso que ha establecido OpenAI.
Para ello es suficiente con entrar en el chatbot, clicar en el nombre del usuario y abrir los ajustes o Settings. El siguiente paso es pinchar en Show y en el apartado Data Controls, dentro se debe activar el botón Chat History & Training. El chat mostrará que el historial está desactivado, aunque todas las conversaciones que se hayan tenido con anterioridad se han tratado con normalidad y usado para entrenar a la IA.
Más control de los datos
Por otro lado, surge un nuevo botón llamado Export Data y que se encuentra dentro de Data Controls. Este servicio ofrece la posibilidad de recibir en el correo electrónico los detalles de la cuenta y conversaciones que la compañía tiene de ti. Estas medidas responden directamente a las preocupaciones que han mostrado países como Alemania o España, amenazando con prohibir la herramienta como hizo Italia si no se ajustaba a la normativa Europea.
Puesto que esta herramienta se está utilizando también en empresas y que algunas han decidido prohibirlo a sus trabajadores por las dudas en privacidad, estas medidas también se aplican a ChatGPT Business que estará disponible en los próximos meses. "ChatGPT Business seguirá las políticas de uso de datos de nuestra API, lo que significa que los datos de los usuarios finales no se utilizarán para entrenar nuestros modelos de forma predeterminada".