Publicada

La inteligencia artificial (IA), y con ella la irrupción de la IA generativa, supone sin duda una transformación de la estrategia de ciberseguridad de cualquier compañía. Un cambio radical en el que además asistimos a una clara dicotomía: la inteligencia artificial puede brindar nuevas herramientas para combatir los ciberataques al tiempo que permite que surjan nuevas y más sofisticadas amenazas.

"La IA ya no se utiliza únicamente en determinados ámbitos sino que, con la generativa, ha salido a la calle y ya puede usarla cualquier persona. Esto hace que, como cualquier herramienta, pueda usarse para algo positivo o algo negativo. Y ese es el problema, ahora mismo todos quieren utilizarla pero no conocen realmente los riesgos de hacerlo", afirmaba Héctor R. Suárez, Big Data, Ciencia de Datos e Inteligencia Artificial de INCIBE.

Marc Sabadí, Identity Innovation Lead en Mitek Systems. Rodrigo Mínguez

Y es que en ese sentido la IA ha llegado a todos, también a los ciberdelincuentes. En el caso del fraude, por ejemplo, Marc Sabadí, Identity Innovation Lead en Mitek Systems, compañía enfocada en garantizar la identidad digital, apuntaba que "en el fraude online la inteligencia artificial ha sido el catalizador de la democratización del fraude de hecho y de ataques cada vez más sofisticados y difíciles de detectar". 

Nuevos ataques, nuevas armas para combatirlos

La inteligencia artificial generativa ha llegado justo cuando tenía que llegar, con una sociedad ya muy digitalizada. Y es una tecnología que, por una parte, ayuda a incrementar la productividad o a optimizar el tiempo, pero que, en ciberseguridad, tiene dos caras: se puede utilizar para defendernos y detectar amenazas pero también de forma ofensiva, con nuevos ataques nunca vistos como el vishing o la suplantación de identidades, mediante la voz, la imagen o el video", explicaba David Sandoval, Evangelist de ciberseguridad de NTT DATA.

Héctor R. Suárez, Big Data, Ciencia de Datos e Inteligencia Artificial de INCIBE. Rodrigo Mínguez

Así pues en la cara A, la IA está haciendo posible una mejor detección de amenazas, identificar patrones y comportamientos anómalos en tiempo real, exhaustivos análisis de riesgos, anticipar y prevenir ataques, etc. En la cara B, ataques cada vez más sofisticados y prácticamente indetectables.

David Sandoval, Evangelist de ciberseguridad en NTT DATA. Rodrigo Mínguez

Esas dos caras las apuntaban todos los participantes en el evento de DISRUPTORES-EL ESPAÑOL, así, desde Mitek, Marc Sabadí incluso aseguraba que "hay amenazas nuevas creadas con la inteligencia artificial como esos deepfakes que precisamente solo se pueden analizar y detectar con la propia IA" y reclamaba también la suma de concienciación, regulación y ética.

Por todo ello es esencial trabajar, por un lado, en formar y, por otro, en controlar de algún modo el uso de esta tecnología, algo que ponía sobre la mesa Boris Delgado, director de Industria y TIC de AENOR. "Es necesario encontrar al menos unos estándares que garanticen el buen uso de la IA. Sin paralizar la innovación y su desarrollo pero es preciso ordenar esta tecnología para poder decirle a la sociedad que tenemos una inteligencia artificial sí pero también transparente, responsable y ética".

Boris Delgado, director de Industria y TIC de AENOR. Rodrigo Mínguez

"Hay que actuar sobre proveedores, usuarios y sociedad. Necesitamos normativa, concienciación y formación", explicaba Héctor R. Suárez, de INCIBE quien además reclamaba ver la IA de una forma más holística. "Hasta ahora hemos usado la tecnología sin tener en cuenta otras disciplinas como la economía o la ética y eso con la inteligencia artificial ya no es factible". 

Concienciación, regulación y ética

Precisamente la parte ética de la IA y la responsabilidad en su aplicación es uno de los grandes desafíos actuales, como afirmaba David Sandoval, Evangelist de ciberseguridad de NTT DATA. "En el uso de la inteligencia artificial se dan dos casuísticas, que se 'consuma' y utilice como servicio o como un componente. En el primer caso, corremos riesgos por ejemplo de sesgos ya que no sabemos qué datos está utilizando en realidad o si son públicos y de calidad o no. En el segundo caso, también el peligro son las alucinaciones del modelo. En definitiva, es necesario avanzar pero con un objetivo claro: que la sociedad, empresas y usuarios, sepan los riesgos que tiene esta tecnología". 

IA y Ciberseguridad

"Todos queremos probar la inteligencia artificial, eso es indudable. Y mi mensaje sería de tranquilidad. No tengamos miedo y recordemos que es algo que nos puede ayudar y que podemos manejar y controlar. Las personas somos las que construimos lo que queremos con lo que tenemos", recordaba desde AENOR Boris Delgado.

Y una reflexión final también de Boris Delgado y que resumía a la perfección la esencia del encuentro: "En la inteligencia artificial lo que tenemos que introducir es mucho más sentido crítico y mucha inteligencia humana".