Así trabaja Google contra los ciberataques con IA desde Málaga: "Hay una guerra diaria y no se puede confiar en nadie"
Heather Adkins, vicepresidenta de Ingeniería de Seguridad de Google, advierte desde Málaga del peligro que tiene la inteligencia artificial para la ciberseguridad.
29 septiembre, 2024 02:18Hace mucho tiempo que la inteligencia artificial (IA) dejó de ser una simple anécdota para convertirse en una herramienta cada vez más útil. Una tecnología que ha ido evolucionando a gran velocidad con el paso del tiempo, pudiendo realizar cada vez más tareas, como predecir la estructura e interacción de todas las moléculas de la vida o desarrollar juegos o aplicaciones. Sin embargo, los ciberdelincuentes también se están aprovechando de ella para llevar a cabo sus ataques en España y todo el mundo; lo que supone un importante peligro, según Google.
En EL ESPAÑOL - Omicrono acudimos al 'GSEC Cybersecurity Summit: Ciberdefensa en la era de la IA', un evento organizado por la multinacional californiana en el Centro de Ingeniería de Seguridad de Google en Málaga (GSEC Málaga) el pasado martes 24 de septiembre. En él se reunió a expertos en industria y el Gobierno para explorar soluciones de inteligencia artificial en el ámbito de la ciberdefensa y debatir los desafíos y amenazas que presenta esta tecnología para los usuarios, empresas y organismos gubernamentales.
Heather Adkins, vicepresidenta de Ingeniería de Seguridad de Google, fue una de las grandes protagonistas de esta jornada que tuvo lugar en la ciudad andaluza. La directiva, veterana de la compañía y miembro fundador del equipo de seguridad de la gran G, advirtió del peligro que tiene actualmente la inteligencia artificial en cuanto a ciberseguridad. "Hay que tener en cuenta que todo lo que nosotros podemos utilizar la IA generativa para defendernos tiene su contrapartida: los hackers pueden usarla para todo lo contrario", explicó a este periódico.
Ataques con IA
La amenaza que supone la inteligencia artificial en cuanto a ciberseguridad fue uno de los principales debates de la jornada. Por ejemplo, durante una mesa redonda Sergio Coronado, jefe de comunicación de la Agencia de Adquisiciones y Apoyo de la OTAN, señaló durante que esta tecnología "se está desarrollando para bien y para mal. Los virus informáticos por la IA van a llegar y no sólo para esconderlos, sino para hacerlos más potentes. Tenemos que desarrollar estrategias de defensa y prepararnos para eso".
Mientras que en el mismo espacio Enrique Pérez de Tena, jefe de Relaciones Internacionales y Cooperación del Mando Conjunto del Ciberespacio del Ministerio de Defensa, indicó que "la inteligencia artificial puede ser una herramienta o una amenaza. Nosotros la utilizamos para estar preparados ante cualquier ataque que utilice este tipo de tecnología. Tenemos que aprender a usarla para estar listos para lo que venga". Incluso explicó que la red es un entorno donde "hay una guerra que se libra todos los días y no se puede confiar en nadie".
Adkins centró parte de su ponencia en las noticias y vídeos falsos, conocidos como deepfakes. La directiva explicó a EL ESPAÑOL - Omicrono que uno de los principales peligros de la inteligencia artificial es su capacidad para "crear hechos que no existen y con una hiperrealidad que no existe". Y puso el ejemplo de un vídeo que se volvió viral en el que Volodímir Zelenski, presidente de Ucrania, se rendía ante Rusia y que "tenía como objetivo influir en la sociedad y en la política".
"Puedes imaginar el tipo de impacto para los ciudadanos ucranianos ver en pantalla a su 'presidente' rindiéndose... Hay que estar atentos a todo. Es cierto que los vídeos y las fotos falsas o sintéticas existen desde hace mucho tiempo y la idea no es que los usuarios dejen de usar la IA para editar su propio contenido, como para quitar a una persona de una foto o ponerse orejas de gato, por ejemplo", explicó a este periódico.
"Sin embargo, es interesante ver que mucha de la desinformación es porque una persona coge un vídeo antiguo y lo vuelve a publicar como si fuera nueva. Algo que es habitual en las zonas de conflicto. Y ahora contamos con la IA generativa, que es muy buena y muy escalable. Pero hay que seguir investigando para poder distinguir cuándo un contenido sintético se grabó o no con un móvil y tener unas políticas claras de lo que es admisible y lo que no. También hay que dar a la gente herramientas para validar fácilmente lo que están viendo", informó la directiva de Google.
Adkins destacó que en Google "tenemos políticas que incluyen un aviso de que si infringes nuestra política en cuanto a contenido, lo retiraremos de la plataforma". La directiva también resaltó cómo otros casos en los que actualmente los ciberdelincuentes usan la inteligencia artificial para llevar a cabo sus ataques: "desde estafas que suplantan la identidad de alguien en el que se confía, como un socio, un familiar o un compañero de trabajo que te pide dinero; hasta para superar la barrera del idioma y la cultura para atacar a una víctima en cualquier parte del mundo".
El problema de esta tecnología está en que "mientras nosotros queremos encontrar sus vulnerabilidades para repararlas, solucionarlas y eliminarlas, los ciberdelincuentes las buscan para hackear". Adkins también habló de la importancia cada vez mayor de la ciberseguridad, ya que indicó que Google Protect "escanea al día 200 mil millones de aplicaciones y detecta 515.000 apps maliciosas" que la herramienta bloquea al instante.
Para combatir los deepfakes y los ataques con inteligencia artificial, Adkins señaló que Google está trabajando "en desarrollar tecnología que asista en esta labor y hay investigaciones que están en curso". Aun así, explicó que "para empezar, lo más importante es que la gente se cuestione lo que ve en internet. Y con el tiempo, nuestra tecnología mejorará de manera que podamos etiquetar el contenido para que puedan saber que ha sido creado de forma sintética". También aconsejó "tener cuidado y ser consciente de lo que se lee en internet y obtener información de diversas fuentes y contrastarla".
"No conocemos su potencial"
Heather Adkins también habló con este periódico sobre cómo la inteligencia artificial ha ido evolucionando con el paso del tiempo y aseguró que en la actualidad "no sabemos y no hemos alcanzado su potencial completo. Es muy probable que utilicemos la IA para inventar nuevas cosas y nos ayudará a hacer cosas que no conocemos hoy en día. En ese sentido, soy optimista con esta tecnología, porque si la podemos construir de forma segura puede ofrecer un gran potencial al mundo".
Además, Adkins prevé un futuro en el que "la comunidad construya conjuntamente una inteligencia artificial segura. Todo el mundo comprende que esta tecnología no tendrá tanto éxito si la gente no confía en ella. Incluso los gobiernos ya se están involucrando de forma más rápida en cómo implementar normativa y pensar cómo usar esta herramienta. Por eso soy muy optimista. Creo que vamos a conseguir encontrar muchos usos para la IA que sean beneficiosos para la humanidad. Desde nuevas medicinas hasta nuevas formas de diagnosticar enfermedades o nuevos materiales".
La vicepresidenta de Ingeniería de Seguridad de Google también aseguró que "no me sorprendería si en 10 años incluso consiguiéramos descubrir una nueva fuente de energía o nuevas formas de crear energía limpia. Las posibilidades de la IA son infinitas". Aun así, destacó que es importante "aprender de las partes más positivas y de las más negativas de esta tecnología. Y hacer frente a las cuestiones de seguridad". También señaló que la inteligencia artificial no vendrá a quitar empleos: "los trabajos serán diferentes, pero seguirán necesitando humanos".