Málaga

"Hasta ahora siempre íbamos un paso por detrás de los grupos de ciberdelincuentes, pero ahora ya podemos decir que hemos equilibrado la balanza y que incluso nos anticipamos a sus acciones", asegura Jorge Blanco, director de la Oficina del CISO Iberia & Latam. 

Con más de un cuarto de siglo de experiencia en este ámbito, Blanco es el responsable de ayudar a dar forma al enfoque de seguridad y cumplimiento de Google, centrándose principalmente en los clientes de Iberia y Latinoamérica y acompañándolos con la transformación de su seguridad.

"La ventaja de Google es que llevamos años utilizando los Transformers, de los que somos los inventores y que son la base de los LLM, los modelos de grandes lenguajes, origen de la inteligencia artificial generativa (GenAI)", explica Blanco.

La tecnológica norteamericana presentó ayer en su Google Safety Engineering Center (GSEC) de Málaga los resultados de la investigación que ha llevado a cabo su plataforma VirusTotal, en la que precisamente se describe como los LLM propician avances que se presentan muy prometedores en la detección y análisis de malware.

La investigación ofrece un avance pequeño pero importante, ya que los modelos LLM agilizan el análisis de grandes volúmenes de código binario de malware, reduciendo en gran medida el trabajo manual. Los LLM simplifican un primer análisis, siendo conscientes que aún quedan muchos retos por resolver dada la complejidad de las técnicas de ofuscación (ocultación) que utilizan los desarrolladores de malware.

Según explicó Emiliano Fernández, Head of Product Management de VirusTotal, durante la presentación del informe Cómo la IA está cambiando el panorama del malware, "la eficacia de los LLM en estos análisis depende de las indicaciones (prompts) que los guíen y del contexto adicional que se les proporcione, como por ejemplo fragmentos de código, resultados de la ejecución de malware en entornos tipo sandbox e inteligencia sobre amenazas".

La eficacia de los análisis también depende, según Fernández, "de la complejidad de las técnicas de ofuscación y del tipo de código que se analice, ya que los LLM dan mejores resultados con uno descompilado que desensamblado, aunque éste último puede aportar más información cuando la descompilación resulta más compleja de descifrar a causa de las técnicas de ofuscación que utilizan los ciberdelincuentes". 

La Universidad de Málaga, seleccionada

Phil Venables, director de seguridad informática de Google Cloud, inauguró la jornada y destacó la importancia del GSEC con la investigación y la formación en ciberseguridad. En este sentido, anunció que la Universidad de Málaga ha sido seleccionada para participar en el programa de Seminarios de Ciberseguridad que Google.org lanzó el año pasado junto con la Incubadora Europea de Investigación sobre Ciberconflictos (ECCRI), con una dotación de 15 millones de dólares.

La universidad de la capital andaluza ha sido la primera institución en ser seleccionada y recibirá por ello un millón de dólares, además de contar con contenidos lectivos en español y formación intensiva por parte del ECCRI para ayudarla a poner en marcha los seminarios. El objetivo es formar al menos a 200 estudiantes y apoyar a unas 250 organizaciones locales.

La jornada contó con destacados ponentes expertos en ciberseguridad, como Heather Adkins, vicepresidenta de Ingeniería de Seguridad de Google, que indicó que el principal peligro de la IA "reside en la capacidad que ofrece de crear hechos que no existen, con una hiperrealidad que asusta, como el video que se distribuyó en el mes de marzo de 2022, en el que el presidente de Ucrania, Volodimir Zelenski, anunciaba la rendición de su país ante Rusia".

Adkins dio cifras que ponen sobre la mesa la importancia cada vez mayor de incorporar la ciberseguridad a todos los ámbitos económicos, empresariales, gubernamentales y sociales: "Google Protect escanea cada día 200 billones de aplicaciones y detecta 515.000 apps maliciosas, que bloquea en tiempo real". La propia tecnológica detiene el 99% del phishing que intenta acceder a ella.

"Nuestros ingenieros trabajan para detener los ataques, usando casos de GenAI para la propia defensa. Después de monitorizar los ataques y descubrir vulnerabilidades, generan nuevos códigos seguros y anulan la intromisión", explicó Adkins.

La jornada del GSEC también contó con la participación de Félix Barrio, director general del INCIBE, que destacó la importancia de la colaboración entre países, y puso de ejemplo los acuerdos bilaterales entre la Comunidad Europea y Estados Unidos en el ámbito de la ciberseguridad.

Heather Adkins, vicepresidenta de Ingeniería de Seguridad de Google. M. Sardà

Una mesa redonda completó la jornada informativa. Moderada por Cristina González Pitarch, managing director de EMEA de Google Cloud Security, contó con la participación de Enrique Pérez Tena, Head of International Relationships, Coordination and Media Spanish Joint Cyber Command; Sergio Coronado, Chief Information Officer of NATO Support and Procurement Agency (NSPA); y Carlos Abad, Head of Cybersecurity CCN-CERT.

Los participantes en el debate The future of Cyber Defense incidieron en el hecho de que la IA es una tecnología con mucho potencial, todavía muy joven e inmadura, para la que necesita que se desarrollen herramientas que la ayuden a evolucionar. Sin embargo, insistieron en que la prioridad es, hoy por hoy, ser cauto y aprender su uso.

Durante la jornada se recordó la creación del Secure AI Framework (SAIF), en junio del año pasado, que ofrece un conjunto de principios para organizaciones de todos los tamaños y gobiernos sobre cómo aprovechar personas, procesos y tecnología para desplegar la IA de forma segura y protegida, y la fundación por parte de Google, el pasado mes de julio, de la Coalition for Secure AI (CoSAI), un consorcio abierto para avanzar en medidas de seguridad integrales para abordar los riesgos que conlleva la IA.