Prácticamente desde el mismo momento en el que la inteligencia artificial comenzó a hacerse un hueco en España y en el resto del mundo, muchos advirtieron de sus muchos peligros. Uno de los más importantes aludía a las capacidades para facilitar la expansión de la desinformación y para realizar ataques hacker más sofisticados. Ahora, OpenAI y Microsoft avisan que los atacantes están valiéndose de estos modelos para realizar sus fechorías.
Tal y como revela Microsoft en un comunicado en su blog, la adopción y el desarrollo de los modelos de inteligencia artificial han provocado un aumento en escala y sofisticación de los ataques hacker de este último año. Esto ha llevado a que las víctimas tengan que recurrir a las mismas capacidades de IA generativa para protegerse de estos mismos ataques.
No obstante, su mayor preocupación radica en la presencia de ataques verdaderamente peligrosos potenciados con IA. Esta investigación conjunta entre Microsoft y OpenAI sobre amenazas emergentes en la "era de la IA" está centrada en la actividad de ciertos grupos atacantes que han aprovechado algunas de las tecnologías de IA más importantes, como los modelos de lenguaje grandes o LLM.
Microsoft avisa de los hackers
Los hallazgos de esta investigación son inquietantes, ya que tanto Microsoft como OpenAI han descubierto diversos intentos de ataques de grupos de hackers respaldados por países como Corea del Norte, Rusia, Irán o China. Muchos de estos usan herramientas como ChatGPT para realizar tácticas de ciberdelincuencia avanzada, cono investigar objetivos potenciales o desarrollar tácticas de ingeniería social.
La investigación especifica que el uso de las tecnologías LLM por parte de estos atacantes "reveló comportamientos consistentes con los atacantes que usaron IA como otra herramienta de productividad en el panorama ofensivo". Si bien es cierto que no se han observado técnicas de ataques "particularmente novedosas o únicas", sí que resaltan cómo esta está facilitando la tarea de estos grupos atacantes.
Ambas compañías asumen que tanto los atacantes como sus defensores luchan en una carrera de tendencias tecnológicas para aprovechar la inteligencia artificial a su favor. En el primer bando para realizar ataques y en el segundo, para defenderse de los mismos. "Los grupos de delitos cibernéticos, los actores de amenazas nation-state y otros adversarios están probando distintas tecnologías de inteligencia artificial a medida que surgen".
Respecto a los defensores, la cosa es bien distinta. "Por parte de los defensores, es vital reforzar estos mismos controles de seguridad contra ataques e implementar un monitoreo igualmente sofisticado que anticipe y bloquee la actividad maliciosa", relata el comunicado. Pese a que las motivaciones de estos grupos varían, casi todos usan tácticas o recursos comunes para el curso de estos ataques.
[El Robin Hood ucraniano: el hacker que roba bitcoin a los rusos para transferirlos a Ucrania]
Microsoft menciona unos cuantos. Por ejemplo, algunas de estas tareas incluyen "reconocimiento, como aprender sobre las industrias, ubicaciones y relaciones de las víctimas potenciales; ayuda con la codificación [...] y desarrollo de malware, así como asistencia para aprender y usar lenguas nativas". Y es que el soporte lingüístico que aportan los LLM es ideal para atacantes que se centran, sobre todo, en engañar mediante ingeniería social a sus víctimas.
No obstante, Microsoft hace una puntualización muy importante: la investigación conjunta con OpenAI no ha detectado "ataques significativos que empleen los LLM que [ellos monitorean]". La idea de esta investigación, sobre todo, es "exponer los movimientos incrementales en las etapas iniciales que observamos que intentan realizar actores de amenazas conocidos".
Grupos de hackers respaldados
La investigación revela las tácticas de algunos de los grupos hacker más avanzados, incluidos algunos vinculados directamente a sus gobiernos de origen. Es el caso de Strontium, usualmente vinculado a la inteligencia militar de Rusia. En este caso, Microsoft detalla cómo usan los LLM para "comprender los protocolos de comunicación por satélite, las tecnologías de imágenes de radar y parámetros técnicos específicos".
Otro ejemplo de esto es Fancy Bear, también conocidos como APT28, que ha estado estrechamente ligado con el conflicto entre Rusia y Ucrania. El grupo, que también estuvo presente en los incidentes cibernéticos que rodearon la campaña de Hillary Clinton en las elecciones presidenciales de 2016, también habría aprovechado estos LLM en "tareas básicas de secuencias de comandos".
Uno de los más relevantes mencionados en la investigación es Thallium, un grupo norcoreano que se dedica a atacar organizaciones de todo el mundo. Han usado las capacidades de estos modelos de lenguaje para investigar más en detalle vulnerabilidades ya conocidas además de para realizar tareas de programación de distinta índole, entre otros.
[Hackers norcoreanos atacan a una empresa aeroespacial española: así la engañaron por LinkedIn]
Microsoft insiste en que este no es más que el inicio de un futuro que podría llegar a límites insospechados, como la suplantación de identidad mediante voz. "El fraude impulsado por la IA es otra preocupación fundamental. La síntesis de voz es un ejemplo de esto, donde una muestra de 3 segundos puede entrenar a un modelo para que suene como cualquier otra persona".
Entre los muchos esfuerzos de Microsoft y OpenAI para combatir esta lacra, se encuentran medidas para cerrar cuentas y activos asociados con estos grupos hacker. Microsoft también habla de "mejorar la protección de la tecnología LLM de OpenAI y de los usuarios contra ataques o abusos, y dar forma a las barreras de seguridad y los mecanismos de seguridad alrededor de nuestros modelos".