Mucho se ha hablado de las nuevas Inteligencias Artificiales y de su potencial, gracias a la popularidad de ChatGPT, pero tal vez no se ha hablado de los nuevos peligros que traen asociados.
[ChatGPT para relojes, la Inteligencia Artificial en tu muñeca con esta app]
El propio creador de ChatGPT ya advirtió del peligro de la IA, pero curiosamente, la primera gran polémica proyecto no ha estado en sus posibles usos maliciosos, sino por el uso de datos personales y cómo un fallo ha facilitado su acceso.
El mayor fallo de ChatGPT hasta ahora
El pasado martes, OpenAI se vio obligada a cerrar temporalmente el servicio de ChatGPT al descubrirse un error que provocaba que algunos usuarios viesen el historial de uso de otras personas. En concreto, en la barra lateral que podemos abrir con las últimas preguntas que hemos hecho al chatbot empezaron a aparecer frases en otros idiomas y que nunca habíamos hecho.
Hoy, OpenAI ha explicado exactamente qué es lo que sucedió, y de paso, ha confesado que el problema era más grave de lo que parecía inicialmente. La investigación realizada por la compañía ha revelado que, durante unas horas, era posible ver datos privados de otros usuarios registrados de ChatGPT, incluyendo información que podría ser usada para suplantar su identidad o hacer pagos fraudulentos con sus tarjetas de crédito.
Los datos publicados por error fueron los siguientes:
- El nombre y los apellidos del usuario
- Correo electrónico de la cuenta
- Los últimos cuatro dígitos de la tarjeta de crédito asociada con la cuenta
- La fecha de caducidad de la tarjeta de crédito
- La dirección asociada con el pago.
Evidentemente, los únicos afectados son los usuarios registrados que asociaron su tarjeta de crédito con su cuenta para pagar ChatGPT Plus, el servicio de pago que permite acceder a varias ventajas con la IA.
Los ingenieros han descubierto que el problema era un ‘bug’ en el código fuente de una librería usada por la página web de ChatGPT, redis-py. Es por eso que OpenAI ha intentado calmar los ánimos afirmando que el problema no afectaba directamente al ‘chatbot’, y que era realmente difícil dar los pasos necesarios para que la información personal se filtrase.
En concreto, hubo dos posibles maneras de obtener datos privados. En la primera, ChatGPT envió correos de confirmación con la información personal a los usuarios incorrectos, en el periodo de tiempo entre las 9:00 y las 18:00 (hora peninsular) del 20 de marzo. En la segunda, era necesario que el usuario entrase en su cuenta, y en la sección para gestionar la suscripción de la configuración; en el mismo periodo de tiempo, se mostró la información incorrecta de otros usuarios.
OpenAI ya ha contactado con los usuarios afectados por esta filtración de datos, y afirma haber dado ya los pasos necesarios para evitar que esto vuelva a suceder, añadiendo redundancias al código fuente.
Te puede interesar
- Los creadores de Firefox van a lanzar su propio ChatGPT para luchar contra las IA "abusivas"
- La Inteligencia Artificial de ChatGPT ahora también te ayuda a encontrar trabajo
- Bing con ChatGPT se supera a sí mismo: genera ya imágenes con IA con Bing Image Creator
- ChatGPT ahora te resume lo que ha ocurrido en el grupo de chat mientras no estabas