David Sandoval, evangelista de ciberseguridad en NTT DATA.

David Sandoval, evangelista de ciberseguridad en NTT DATA.

Opinión la TRIBUNA

La ley de IA está bien diseñada, pero hecha la ley, hecha la trampa

David Sandoval
Publicada

Estamos de acuerdo que es imposible ponerle puertas al campo. Pero la legislación sí debe intentar que el impacto masivo de la inteligencia artificial sea lo más ético y seguro posible para los ciudadanos. Ese es, precisamente, el propósito de la regulación.

Partiendo de esta base, tenemos que decir que la IA ha llegado cuando tenía que llegar. Aunque los modelos de inteligencia artificial llevan muchos años desarrollándose, la capacidad de computación actual (en especial con las GPUs y TPUs), la democratización del acceso a internet y el uso diario y generalizado de la tecnología crea el escenario perfecto.

Hace años éramos cuatro “locos” los que usábamos inteligencia artificial midiendo parámetros, definiendo los modelos, el número de iteraciones, etc. y hoy es un servicio más para cualquier empresa y administración. La gran victoria de este cambio de paradigma es que las soluciones de IA actuales han conseguido abstraer completamente el aspecto técnico permitiendo un uso “democratizado” para toda la población.

Pero como en toda tecnología, existen riesgos. Los datos nos dicen que, solo en el último año, el empleo de la IA para provocar ciberataques ha crecido más de un 600%. A su vez, esos ataques son cada vez más sofisticados, por lo que hacen casi indistinguibles los Deep fakes o suplantaciones de identidad en formato audiovisual que se usa para “hacer negocios” ilícitos.

Entre las suplantaciones impulsadas por esta tecnología, se estima un crecimiento del 70% para finales de 2024 en phishing (técnica de ingeniería social por la cual se envían mensajes usurpando la identidad de compañías y organizaciones) y del vishing (llamadas/vídeos fraudulentos clonando voces/imágenes de confianza para obtener datos privados).

Debido a todo ese conjunto de casuísticas, no es descabellado afirmar que hemos pasado de vivir una época de muchos cambios a un verdadero cambio de época con la IA como eje y epicentro de todo. Para hacer frente a todos los retos que están por venir será necesario formar adecuadamente a las nuevas generaciones, pero es necesario extender el entrenamiento a todas las edades, especialmente a los mayores, que son más vulnerables y pueden caer en este tipo de engaños o trampas.

En lo referente al sector empresarial, el uso extendido de la IA en servicios empresariales y administrativos hace que la concienciación sea más relevante que nunca. Lo que es cierto es que esta tecnología ha hecho que las barreras defensivas de la ciberseguridad se aceleren, porque se ha incrementado nuestra capacidad de detectar brechas, analizar código y buscar posibles puertas de entrada de usuarios con malas intenciones. La parte negativa recae en la potencia ofensiva que también brinda a los cibercriminales.

Tenemos un reto como sociedad ante el incremento de las suplantaciones de identidad que, como hemos expuesto, se han incrementado y se esperan aún más por las automatizaciones de los fraudes. Hoy, es muy sencillo clonar una cuenta en cualquier red social viral, con voz, vídeo y extraer datos e información, los “metales preciosos” del siglo XXI. Y los sectores que más se atacan para obtener esta información son los más sensibles: el financiero, el sanitario, el tecnológico y el de educación, que tienen en su poder datos personales de manera intensiva.

Ante un escenario como este, los legisladores europeos se han apresurado a velar por la seguridad de los ciudadanos, y es algo deseable y necesario. Además, la Ley de la IA está bien hecha dados los riesgos que esta trae consigo. Pero hecha la ley, hecha la trampa. Y los ciberdelincuentes son los mayores tramposos que hay, porque no solo trabajan en la sombra y de manera remota, sino que pueden hacerlo desde cualquier lugar del mundo, a cualquier hora y escondidos entre miles de capas de conectividad.

A esto, se le suman los propios retos que la IA trae consigo: las cajas negras, las alucinaciones o la complacencia ante un humano que “engañe” a la propia tecnología. Y hay un ejemplo muy anecdótico: ¿se puede comprar un coche por 1 dólar? Alguien supo engañar a un chatbot de uno de los grandes fabricantes y este le ofreció un descuento descomunal hasta llegar a un solo dólar. Si bien esto no tiene validez legal, deja ver las costuras de la IA y la necesidad de las organizaciones de entrenar correctamente sus canales basados en esta herramienta digital.

No es cuestión de ser catastrofistas, sino de ser responsable y abrazar las oportunidades que una tecnología puntera como esta ofrece, y ser consciente de los retos. Es un arma de doble filo cuyos riesgos para la seguridad deben ser tenidos en cuenta en todos los procesos relacionales en empresas y organizaciones.

Porque la IA en entornos comerciales y “abiertos” son modelos muy potentes para el engaño. Y no podemos permitir que, especialmente los más vulnerables, caigan en dichas trampas. Porque en este panorama ya no aplica el dicho popular que versa “de lo que ves, créete la mitad, y de lo que no veas no te creas nada” ya que hoy, nuestra cara, voz y gestos pueden ser clonados.

***David Sandoval, evangelista de ciberseguridad en NTT DATA.