Cómo abordar el ‘boom’ de las ‘fake news’ con tecnología para la detección de fraude

Cómo abordar el ‘boom’ de las ‘fake news’ con tecnología para la detección de fraude

La tribuna

Cómo abordar el ‘boom’ de las ‘fake news’ con tecnología para la detección de fraude

22 abril, 2020 11:00

Las fake news están en pleno apogeo, especialmente ahora que vivimos tiempos de incertidumbre y preocupación social a causa del COVID-19. Desafortunadamente, estamos viendo cómo los hackers se están aprovechando de esta delicada situación para crear bulos o noticias falsas en redes sociales, aplicaciones de mensajería o correos electrónicos, entre otros, para hacerse con información sensible y confidencial de las personas y cometer fraude. Ante esta circunstancia, creo que es esencial encontrar fórmulas que puedan detener su expansión y, para ello, el uso de tecnologías innovadoras es crucial.

Aunque este tipo de información existe desde tiempos inmemoriales –sin ir más lejos, en 1835 el New York Sun incluyó una noticia falsa a propósito en uno de sus diarios que fue replicada por otros medios–, con la sofisticación de la tecnología, y el auge de internet y las redes sociales, estas historias han evolucionado aún más, dando lugar a las deepfakes y a las voces sintéticas.

Según el I Estudio sobre el impacto de las Fake News en España, elaborado por la Universidad Complutense de Madrid y Simple Lógica, el 86% de los españoles se cree las noticias falsas, y seis de cada 10 reconoce haberse creído alguna noticia de este estilo. Los peligros de las fake news son una realidad, y, de acuerdo con el estudio, los mayores de 55 años son el grupo más susceptible ante ellos, ya que el 92% de los encuestados de este rango de edad se equivocó en su detección.

Las grandes organizaciones tecnológicas, organismos gubernamentales y plataformas de RRSS están luchando contra estas informaciones con nuevas políticas, tecnología y otros recursos. Sin embargo, existe una herramienta que no se usa lo suficiente y que podría tener un gran impacto: la biometría de voz.

La tecnología detrás de las fake news

La técnica más sofisticada de crear noticias falsas es la de los vídeos deepfakes, una representación digital que ha sido manipulada con inteligencia artificial (IA) para incluir imágenes y sonidos ficticios que parecen reales.

Los deepfakes son muy utilizados a la hora de llevar a cabo amplias campañas de propaganda destinadas a influir en la opinión de grupos de individuos y, a gran escala, pueden tener un impacto dramático, como por ejemplo cambiar los resultados de las elecciones políticas. Debido a ello, hoy en día se advierte continuamente a los consumidores para que lean con escepticismo la información y la cotejen a través de varias fuentes antes de formar su opinión. No en vano, estamos en medio de una epidemia de noticias falsas.

La tecnología utilizada para crear este tipo de contenido se ha vuelto más realista y accesible con los años. La realidad es que cualquier persona con un ordenador, acceso a Internet y un poco de tiempo libre, podría producir un video o archivo de audio falso. A medida que la inteligencia artificial se vuelve más sofisticada, se hace cada vez más difícil discernir lo que es real de lo que no.

Esto se ve agravado por la creciente dependencia que tenemos las personas de las redes sociales para informarnos. Según el estudio Digital News Report: España 2019, el 38% de los españoles entre 18 y 24 años, y el 27% de quienes tienen entre 25 y 34 años utilizan las redes sociales (Facebook, Twitter, YouTube y otros) como su principal fuente de noticias. Esta confianza en las plataformas está permitiendo que las fake news se extiendan a las masas en un tiempo récord, de ahí la necesidad de encontrar nuevas fórmulas o herramientas con las que ponerles freno.

La desacreditación de las noticias falsas lleva tiempo, y el contenido publicado para ello generalmente recibe menos cobertura que el artículo falso original. Como resultado, la información no verídica puede tener efectos duraderos, incluso una vez desacreditados; es un fenómeno que investigadores de todo el mundo están analizando.

Cómo la tecnología lucha contra esta epidemia

A medida que la IA se vuelve cada vez más exacta, las grandes tecnológicas está compitiendo para mantenerse al día con ella e implantarla en sus servicios. Twitter está revisando sus políticas sobre medios manipulados y sintéticos, mientras que Facebook se ha asociado con Microsoft y académicos para crear el Deepfake Detection Challenge, que busca detectar mejor cuándo se ha utilizado IA para alterar el video.

En septiembre del año pasado, Google publicó más de 3.000 deepfakes visuales para ayudar a combatir los vídeos manipulados; antes de esto también había hecho público un conjunto de datos de voces sintéticas. Estas soluciones están en proceso, pero, sin embargo, la tecnología de detección contra el fraude que ya existe, la biometría de voz, podría tener un gran impacto a corto, medio y largo plazo.

Los bancos, los proveedores de seguros y los gobiernos de todo el mundo están utilizando la biometría de voz como una forma fácil y segura para autenticar a sus clientes, mejorar su satisfacción y combatir la actividad fraudulenta. Si bien la biometría facial o las huellas dactilares son la tecnología biométrica más utilizada, la voz está en aumento para verificar la identidad de los usuarios. Según datos de Opus Research, se espera que este año sobrepasemos los 500 millones de huellas de voz.

Biometría de voz para combatir las fake news

Una huella de voz incluye más de 1.000 características físicas y de comportamiento únicas de una persona, como la longitud del tracto vocal, la forma del pasaje nasal, el tono, la cadencia, el acento y más. De hecho, las investigaciones realizadas al respecto muestran que se trata de un rasgo tan exclusivo de un individuo como la propia huella digital.

Si bien los comportamientos pueden imitarse fácilmente, las características físicas de la voz no, evitando que los suplantadores "engañen" al sistema. La biometría de voz podría ser fundamental para verificar si una grabación de video o audio es legítima, analizando si la voz es realmente de la persona que dice ser, o si ha sido manipulada, simulada o desarrollada sintéticamente para crear fake news.

La biometría representa una nueva era en la seguridad de la identidad y, dada la influencia negativa que pueden tener las noticias falsas, combatir los deepfakes con biometría de voz es una progresión natural para la tecnología.

Marco Piña, director para el Sur de Europa de Nuance Communications

Imagen de archivo de un parque eólico.

Siemens Gamesa retira sus previsiones para 2020, pero mantiene el dividendo

Anterior
Top ten de empresas energéticas de Brand Finance.

Iberdrola, Endesa y Naturgy, entre las energéticas más valiosas del mundo

Siguiente

Operar con instrumentos financieros o criptomonedas conlleva altos riesgos, incluyendo la pérdida de parte o la totalidad de la inversión, y puede ser una actividad no recomendada para todos los inversores. Los precios de las criptomonedas son extremadamente volátiles y pueden verse afectadas por factores externos como el financiero, el legal o el político. Operar con apalancamiento aumenta significativamente los riesgos de la inversión. Antes de realizar cualquier inversión en instrumentos financieros o criptomonedas debes estar informado de los riesgos asociados de operar en los mercados financieros, considerando tus objetivos de inversión, nivel de experiencia, riesgo y solicitar asesoramiento profesional en el caso de necesitarlo.

Recuerda que los datos publicados en Invertia no son necesariamente precisos ni emitidos en tiempo real. Los datos y precios contenidos en Invertia no se proveen necesariamente por ningún mercado o bolsa de valores, y pueden diferir del precio real de los mercados, por lo que no son apropiados para tomar decisión de inversión basados en ellos. Invertia no se responsabilizará en ningún caso de las pérdidas o daños provocadas por la actividad inversora que relices basándote en datos de este portal. Queda prohibido usar, guardar, reproducir, mostrar, modificar, transmitir o distribuir los datos mostrados en Invertia sin permiso explícito por parte de Invertia o del proveedor de datos. Todos los derechos de propiedad intelectual están reservados a los proveedores de datos contenidos en Invertia.