Los ataques cibernéticos se han incrementado notablemente en los últimos años, tanto a compañías como a organizaciones. Y es que, pese a los beneficios potenciales del uso de la inteligencia artificial en la ciberseguridad, también existen varios retos y riesgos asociados a su uso, es decir existen beneficios de aplicar la IA a la ciberseguridad, pero también existe una necesidad de aplicar la ciberseguridad a la IA.
Uno de los mayores riesgos es la utilización de la IA generativa por parte de los hackers para desarrollar ciberamenazas más sofisticadas. Por ejemplo, a través de la mejora de código malicioso, ya que los creadores de malware utilizan estas plataformas para acelerar la creación de su código, y solicitan funcionalidades específicas que luego integran en sus códigos maliciosos.
Así como la generación de spam, phishing u otras amenazas, en la generación de correos electrónicos más sofisticados. O, por ejemplo, la desinformación a la hora de crear contenido de distinta índole (texto, imagen, vídeos y audio) por parte de los sistemas de IA como fake news, noticias falsas que son artículos o informes creados para engañar, y a menudo diseñadas para parecer que provienen de fuentes legítimas. O las deepfakes, tipo avanzado de contenido falso que emplea técnicas complejas para crear vídeos y audios en los que las personas reales parecen decir o hacer cosas que nunca ocurrieron, y entre las que destacan las deepfaces, deep voices o voice hacking.
Otra cuestión importante es la ciberseguridad de la IA, donde los ciberdelincuentes pueden saltarse las protecciones de esos sistemas para hacer usos fraudulentos, es decir evasión de censura. A pesar de que muchos sistemas de IA están programados para no dar respuestas sobre temas ilegales o controvertidos, algunos usuarios buscan saltar estos usos y usarlos sin restricciones éticas.
O también la creación de perfiles falsos. La IA puede crear perfiles de usuarios falsos en distintas plataformas como foros, redes sociales, o aplicaciones de mensajería instantánea, que se utilizan para difundir mensajes maliciosos o que intentan recopilar datos personales o bancarios a través de la interacción con otros usuarios.
Otro de los problemas asociados a la aplicación de la IA es la posibilidad de sesgo. Si los datos con los que se entrena la IA están sesgados o incompletos, el sistema de IA reproducirá esos resultados sesgados. Y es en áreas como el reconocimiento facial donde el sesgo puede dar lugar a identificaciones falsas y resultados discriminatorios. También es preocupante la seguridad de la IA ante la posibilidad de que estos sistemas tomen decisiones sin supervisión humana con consecuencias desastrosas.
Sin embargo, el binomio IA y ciberseguridad aporta, por contrapartida, una gran respuesta a las ciberamenazas. En la actualidad, existen multitud de sistemas ciberfísicos como automóviles, aviones o vehículos aéreos, con capacidad de tomar decisiones vitales. Y es esencial que esa protección y fiabilidad se establezca en fases muy tempranas del sistema como el diseño, para que esa decisión sea segura desde los inicios.
Los beneficios de la IA aplicados a la ciberseguridad pasan también por la detección de vulnerabilidades en el tráfico de red, ya que, mediante el análisis de patrones en los datos de tráfico de red, los sistemas de IA pueden identificar amenazas potenciales y alertar a los profesionales de la ciberseguridad.
Junto a ello, otro de los campos donde la IA puede potenciar la ciberseguridad es en el análisis de una gran cantidad de datos en busca de posibles amenazas. Y esta cuestión es especialmente útil para aquellas amenazas que pueden no ser obvias o imperceptibles al análisis de los humanos. Otra de las áreas en las que se utiliza la IA en ciberseguridad es la automatización de tareas rutinarias para que consuman menos tiempo, o la generación de informes y alertas para proporcionar información valiosa que ayude a tomar decisiones informadas en materia de ciberseguridad.
Por ello, los beneficios de la IA en ciberseguridad son significativos en cuestiones como mejorar la velocidad de las amenazas o la precisión en la detección y respuesta, ya que la IA puede ayudar a reducir el impacto de los ciberataques.
Sin embargo, desde la Cátedra de Ciberseguridad INCIBE-UPV, que es parte del convenio entre el Instituto Nacional de Ciberseguridad (INCIBE), entidad dependiente del Ministerio para la Transformación Digital y de la Función Pública, a través de la Secretaría de Estado de Digitalización e Inteligencia Artificial, y la Universitat Politècnica de València, incluida en el programa de Cátedras de Ciberseguridad en España, en el marco del Plan de Recuperación, Transformación y Resiliencia, con la financiación de los Fondos Next Generation-EU, queremos concienciar de la "carrera armamentística" que puede producirse entre los profesionales de la ciberseguridad y los ciberdelincuentes. Y por tanto, de la importancia de garantizar que los sistemas de la IA se desarrollen y utilicen de forma responsable y ética, con una supervisión adecuada e inteligencia humana en el proceso de la toma de decisiones.
De igual forma, creemos que las empresas y organizaciones deben respaldarse a través de profesionales de la ciberseguridad que tengan experiencia en el trabajo con sistemas de IA.
Y en este mismo sentido, que cuenten con políticas y procedimientos sólidos para regular la aplicación de la IA en ciberseguridad, así como la propia ciberseguridad de la IA, incluyendo políticas de cómo se entrenan los sistemas impulsados por IA, cómo se toman las decisiones y cómo se evitan los sesgos.
Desde la Cátedra de Ciberseguridad INCIBE-UPV, consideramos además que las empresas y organizaciones deben estar actualizadas con los últimos avances en IA y ciberseguridad, ya que a medida que la tecnología de IA siga evolucionando, también lo harán las amenazas que plantea y las oportunidades que presenta. Sin duda, la formación y la información son las grandes herramientas para que las empresas y organizaciones puedan aprovechar las ventajas de la IA aplicadas a la ciberseguridad y adelantarse a los acontecimientos para protegerse.
*** Santiago Escobar es director de la Cátedra de Ciberseguridad INCIBE-UPV.