Hackear el asistente por voz es demasiado fácil: Google Assistant y Siri en peligro
Los asistentes por voz son de mucha ayuda si no queremos teclear, pero suponen un riesgo de seguridad: cualquiera puede tomar el control sin enterarnos.
7 septiembre, 2017 16:57Google Assistant, Bixby, Siri, Alexa… Los asistentes personales por voz están revolucionando los smartphones, pero poseen un grave riesgo de seguridad: son fácilmente «hackeables».
Por más seguridad que tengan nuestros smartphones siempre existen agujeros por los que se puede colar cualquier desaprensivo. Ya sean pequeños o grandes: nuestros dispositivos son un pequeño coladero que los fabricantes van parcheando de manera constante. Pero ¿cómo solucionar un hack de sonido que el oído humano no puede escuchar?
Esto que parece de ciencia ficción es justamente lo que ha encontrado un grupo de científicos chino de la universidad de Zhejiang. Haciendo pruebas con altavoces y con todos los asistentes personales por voz del mercado encontraron que estos reaccionaban a las bajas frecuencias igual que a aquellas que conforman la voz humana. Dicho de otra manera: resulta posible controlar un asistente por voz emitiendo los comandos a una frecuencia que el dueño del móvil no puede escuchar. Inquietante.
Un móvil y un altavoz bastan para hackear un asistente por voz
Además de lo grave de que cualquiera pueda suplantar nuestras voces resulta que el sistema para conseguirlo es extraordinariamente barato: los investigadores afirman que su coste se sitúa en torno a los 3 dólares. Sin que tampoco haya complicación a la hora de desarrollar la herramienta: un simple móvil con un altavoz conectado que sea capaz de reproducir frecuencias por debajo de los 20 kHz.
El hack consiste en emitir órdenes de voz a baja frecuencia: inaudibles, pero eficaces
¿Recuerdas las aplicaciones estilo mosquito con las que se supone que espantas a estos insectos utilizando sonidos que no puedes escuchar? Pues es más o menos lo mismo, pero utilizando la locución de palabras en lugar de un zumbido. Los investigadores de la universidad de Zhejiang le han dado hasta nombre a este tipo de hackeo: el DolphinAtack. Ataque delfín porque se utilizarían ultrasonidos igual que emplean esos cetáceos.
A continuación tienes un vídeo de cómo funciona el sistema de hackeo contra Siri, del iPhone. Han comprobado que funciona igual en el resto de asistentes personales más conocidos, como Google Assistant o Alexa.
Los micros de nuestros móviles captan un amplio rango de frecuencias
Debido a que tienen que captar y entender a la perfección nuestras voces los smartphones equipan micrófonos capaces de escuchar frecuencias por debajo de los 20 kHz, principal arma del DolphinAtack. Resulta muy complicado parchear el problema ya que los asistentes personales necesitan el mayor rango posible, pero está claro que una vez descubierto el hack los desarrolladores deberán solucionar el problema.
Quizá parezca que hackear un asistente por voz no entraña demasiado riesgo, pero hay que pensar en la cantidad de servicios a los que se asocian dichos asistentes. Abrir la puerta de casa utilizando la voz resulta posible, por ejemplo; o levantar las persianas. Ahora imagina que alguien con un altavoz ordenase al asistente desde fuera de nuestra casa que abriese la puerta. Sin forzar nada y sin que nos demos cuenta: solo habría silencio.