La inteligencia artificial puede ser la solución o el problema, según el uso que se le dé. En la guerra informática que libra actualmente el mundo, donde empresas de España son el objetivo de hackers prorrusos, así como otros países de Occidente, las herramientas de IA generativa que nutren a ChatGPT o Bard son un impulso para crear nuevos ciberataques, pero también para frenarlos. Así es cómo EEUU pretende hacer frente a una nueva explosión de cibercrimen en la red.
La Agencia de Proyectos de investigación Avanzada de Defensa (DARPA, en inglés) ha lanzado un concurso AI Cyber Challenge de dos años en el que buscará proyectos de software basado en inteligencia artificial para detectar y corregir vulnerabilidades en sus sistemas informáticos. Los gigantes tecnológicos estadounidenses a la vanguardia de la IA como Google, Anthropic, Microsoft y OpenAI (creadores de ChatGPT), pondrán sus sistemas a disposición para el desafío.
El concurso persigue abordar una amenaza emergente que los expertos aún están intentando comprender, el auge de la IA generativa. Sistemas capaces de generar texto, imágenes o código informático son los protagonistas del último año siendo el chatbot ChatGPT de OpenAI el más conocido. Frente al buen uso que le pueden dar los usuarios, esta innovación también ha despertado el temor por su uso en estafas, ciberataques y campañas de desinformación a gran escala.
"Queremos crear sistemas que puedan defender automáticamente cualquier tipo de software de un ataque", explicó Perry Adams, director del programa DARPA en una conferencia."Creo que los avances recientes en IA, cuando se usan de manera responsable, tienen un potencial notable para proteger nuestro código".
Una encuesta reciente de GitHub muestra que el 97% de las aplicaciones aprovechan código fuente abierto, así como el 90% de las empresas lo utilizan en sus sistemas, indica TechCrunch. Un código que está disponible para todo el mundo a través de la red y ha propiciado una explosión de innovación tecnológica, pero también está al alcance de los hackers que pueden estudiar sus vulnerabilidades con ayuda de la IA y atacar a todas estas empresas o personas que usan alguna herramienta creada a partir de ese código abierto.
Un ejemplo de este peligro fue la ciberpandemia generada por una brecha en Log4j en 2021 con millones de ataque sen solo una semana. Una brecha en esa popular biblioteca de código abierto que usaban una amplia lista de aplicaciones fue la chispa que desencadenó uno de los fallos de ciberseguridad más grandes de los últimos años.
DARPA defiende el uso de la IA como método de protección recordando que los piratas informáticos también utilizan actualmente sistemas de inteligencia artificial para agilizar sus procesos de búsqueda de brechas de seguridad y la creación posterior de software malicioso con el que atacar esas vulnerabilidades. También el jefe de seguridad cibernética de Canadá, Samy Khoury, alertó el mes pasado que la IA se usa desde para crear mensajes de phishing, hasta para escribir códigos con los que difundir desinformación por la red, según recuerda Reuters.
La Open Source Security Foundation (OpenSSF), un grupo estadounidense de expertos que intenta mejorar la seguridad del software de código abierto, estará a cargo de garantizar que la propuesta de la empresa ganadora se ponga en uso de forma rápida.