El potencial de la IA que nos ha descubierto ChatGPT está fuera de toda duda, pero ese potencial puede ser usado no sólo con fines positivos, también maliciosos.
[ChatGPT filtró datos de los usuarios como correos y datos de tarjetas de crédito por un error]
En otras palabras, mucha gente ha visto lo que es capaz ChatGPT, y lo primero en lo que ha pensado es en usarlo para aprovecharse de los demás. Ya hemos visto casos de fraudes creados con Inteligencia Artificial, pero no nos imaginábamos que el problema fuese tan grave como para que la mismísima Europol ya estuviese encima del asunto.
Europol advierte sobre ChatGPT
La organización policial europea ha publicado esta semana su primer informe relacionado con el uso de modelos de lenguaje como GPT, en el que está basado ChatGPT, con fines criminales. Aunque no ha compartido información de los supuestos delitos que se están produciendo gracias a la IA, sí que ha detallado los posibles peligros de esta tecnología.
Europol es pesimista sobre la mejora de las capacidades de ChatGPT y otros modelos de lenguaje, afirmando que pueden ser aprovechadas por criminales, que suelen ser muy rápidos en explotar las nuevas tecnologías. En concreto, Europol define tres apartados en los que ChatGPT puede ser una gran ayuda para cometer delitos.
Para empezar, la capacidad de ChatGPT de crear textos “realistas” lo hace una herramienta muy útil para el ‘phishing’, la técnica por la que el atacante se hace pasar por otra persona u organización. Por ejemplo, cuando recibes un correo de tu banco que te pide iniciar sesión para aprobar una gran transferencia a tu cuenta.
Los correos electrónicos con phishing se pueden detectar gracias en parte a la manera en la que están maquetados y redactados, pero GPT-4 podría aprender a escribirlos en el estilo usado habitualmente en los correos reales, haciendo más fácil que caigamos en la trampa. Y estos correos falsos pueden ser creados muy rápidamente y sería más difícil detectarlos.
De la misma manera, la capacidad de ChatGPT para crear texto se podría usar para crear propaganda y desinformación, e incluso para facilitar actividades de terrorismo, según Europol. Ya hemos visto otros proyectos de IA generativa que han sido usados para crear imágenes falsas relacionadas con noticias de última hora, y no sería de extrañar que ChatGPT también se pudiese usar de esta forma.
Por último, Europol advierte que las medidas tomadas por OpenAI para evitar el uso de ChatGPT para el cibercrimen son insuficientes, ya que sólo funcionan si el modelo entiende lo que está haciendo. Los criminales pueden crear código malicioso, pidiendo a la IA que les escriba malware pero en partes para evitar que esta pueda comprender lo que está creando.
Te puede interesar
- Cuidado con ChatGPT: cierran la IA después de que publique los chats de los usuarios por error
- ChatGPT para relojes, la Inteligencia Artificial en tu muñeca con esta app
- Así puedes usar ya ChatGPT en el móvil, con el nuevo Bing con Inteligencia Artificial oficial
- Con lo nuevo de ChatGPT, la IA puede hacerte la compra o planear tus próximas vacaciones