Los coches autónomos y semi-autónomos se van a convertir en el próximo gran campo de batalla en el sector de la ciberseguridad. Conforme los coches se vuelven cada vez más dependientes de sistemas informáticos, también pueden ser más vulnerables a ataques de "hackers".
Estos ataques no tienen porqué ser necesariamente los mismos que ya sufren nuestros ordenadores o smartphones, aunque también existe esa posibilidad. En realidad, el mayor peligro está en los ataques más simples, y que pueden tener consecuencias más graves.
Por ejemplo, en vez de intentar saltarse la seguridad del coche, puede ser mucho más fácil engañarlo, aprovechándose de que estos sistemas inteligentes no "ven" como los humanos. Lo que para un conductor sería obvio, no lo es tanto para un algoritmo.
Engañando a los Tesla
Dos investigadores de McAfee han demostrado uno de estos posibles ataques, y su objetivo fueron dos Tesla: un Model S y un Model X; ambos intentaron, y consiguieron engañar al Autopilot que controlaba los coches para hacer que acelerasen más allá del límite de velocidad.
Los Tesla se basan en las cámaras instaladas alrededor de toda la carrocería para analizar el entorno y detectar, entre otras cosas, señales de tráfico. Otros fabricantes usan métodos similares para esta función; aunque la diferencia es que Tesla pretende usar sólo estas cámaras para implementar su conducción autónoma.
Reconocer una señal de tráfico es algo relativamente sencillo a estas alturas, pero ¿qué pasa si ha sido modificada, de una manera que no es obvia a simple vista? Por ejemplo, con un simple trozo de cinta de cinco centímetros de longitud.
Los investigadores pegaron esa cinta en una señal de límite de velocidad de 35 millas por hora (56 km/h), para alargar un poco la línea de en medio del "3"; para cualquier persona, es evidente que se trata de un "3" que alguien ha vandalizado, porque conocemos la forma de ese número sin importar la tipografía.
Para un ordenador, no está tan claro. El sistema de visión artificial de los Tesla (y otros fabricantes) funciona buscando similitudes en puntos clave, basándose en una gran base de datos de señales. Por lo tanto, el problema es que no reconoce que eso es un "3" porque no hay ninguno que se le parezca; así que lo reconoce como un "8", ya que para el sistema se "parece" más.
Como resultado, los Tesla reconocieron la señal como una de 85 mph, unos 136 km/h; ni que decir tiene que ir a esa velocidad en una vía limitada a 35 mph es muy peligroso y por supuesto, ilegal.
Normalmente eso no debería ser un problema; las señales de tráfico mostradas en las pantallas de nuestros coches son sólo informativas, y nunca deberíamos fiarnos sólo de lo que nos dice el coche. El verdadero problema está en el asistente de velocidad, o asistente de crucero, que incluyen muchos vehículos.
Se salta el límite de velocidad
En el caso de los Tesla, Speed Assist es una función que permite mantener la velocidad justo debajo del límite de velocidad; y para eso se basa en las señales que detecta con la cámara.
Los investigadores demostraron que esto es así con una prueba en circuito cerrado. Colocaron una señal de tráfico de 35 mph modificada con el trozo de cinta, activaron el control de crucero, y en efecto, el Tesla aceleró hasta más allá de la velocidad legal sin que el conductor usase el acelerador.
Esto demuestra que es posible realizar un ataque que engañe a los sistemas de ayuda a la conducción para que no solo se salten la ley, sino también para poner en peligro tanto a los ocupantes del coche como a los peatones.
Esta no es la primera vez que se llegan a conclusiones similares; hace pocas semanas hablábamos de un ataque similar, esta vez dirigido especialmente al Autopilot de los Tesla. Aquel era un ataque más complicado, pero que también se aprovecha de cómo las cámaras capturan sus alrededores.