El Autopilot es una de las funciones más avanzadas del sector automovilístico, punto. Pocos fabricantes son capaces de igualar a Tesla en este sentido, y los que lo han conseguido no han vendido tantos coches con esta tecnología ni de lejos.
En estos momentos, los coches más avanzados en cuestión de ayudas a la conducción son los Tesla, sin duda alguna; pero eso no significa que sean perfectos. Al contrario de lo que el nombre nos podría hacer pensar, el Autopilot no es un "piloto automático" como tal, y siempre tenemos que estar pendientes de la carretera.
Por supuesto, mucha gente ignora esta advertencia y acaba en aparatosos (e incluso mortales) accidentes. Ahora una investigación sobre el sistema de un estudiante de la Universidad Ben-Gurion en Israel, nos puede convencer de las limitaciones del Autopilot; pero especialmente, puede poner en evidencia las decisiones de Tesla.
Engañando a Teslas
Ben Nassi ha centrado sus estudios en el engaño de los sistemas de ayuda a la conducción que ya incluyen muchos coches, incluso los de gama media y baja. Inicialmente se centró en sistemas de nivel 0, es decir, que sólo informan al conductor y en ningún momento pueden tomar el control del coche; su objetivo era hacernos ver que no podemos fiarnos del todo de esta tecnología, especialmente si contradice lo que vemos con nuestros propios ojos.
Ahora Nassi ha dado un paso más allá, centrándose en el uso de proyectores para engañar a sistemas mucho más inteligentes, como el Autopilot de Tesla. Su próxima presentación, que ya ha adelantado por Internet, demostrará cómo consiguió confundir los sistemas de un Tesla Model X para que creyese que había un coche delante, aunque en realidad no había nada.
Lo más llamativo es la simplicidad del ataque; sólo es necesario un proyector lo suficientemente potente como para mostrar una imagen relativamente clara de noche. Nassi y su equipo usaron varios modelos con un coste de entre 200 y 300 dólares, de unos 100 lúmenes y una resolución de apenas 854 x 480; probablemente es posible conseguir uno similar de segunda mano por un precio ridículo.
Nassi llama a su sistema "Phantom", o "fantasma", porque estos proyectores sólo muestran imágenes durante milésimas de segundo; por lo tanto, es muy posible que el conductor no sea capaz de ver la imagen, especialmente si está distraído porque confía en el sistema automático.
Por ejemplo, sólo con proyectar una señal de tráfico sobre un árbol durante un instante, probablemente no nos daremos cuenta, pero las cámaras del coche sí que serán capaces de registrar la imagen y procesarla. Para el coche, es como si hubieran puesto un nuevo límite de velocidad en la zona, algo especialmente peligroso en zonas residenciales.
La imagen también se puede mostrar en paneles de publicidad; Nassi ha creado un anuncio de Coca-Cola que parece normal, pero que durante un instante muestra una señal de tráfico en la esquina superior izquierda.
A esta técnica se le conoce como esteganografía, y consiste en insertar mensajes ocultos para el ojo humano, pero que son reconocibles por una máquina. Otro ejemplo de ataque similar son estas camisetas con patrones que sólo son reconocibles por cámaras de seguridad para que nos identifiquen como un coche.
Más preocupante es que estas imágenes también sirven para crear obstáculos para el coche que en realidad no existen. En las pruebas, Nassi proyectó la imagen de un coche y de una persona en la carretera; el Tesla Model X los detectó como objetos reales y los mostró en el panel de instrumentos.
Esta técnica también permite proyectar líneas en el suelo, que engañen al coche haciéndole pensar que hay una curva donde no la hay. Esto tiene el potencial de provocar un accidente serio.
El problema de depender de cámaras
Este ataque consigue engañar al Autopilot de los Tesla porque dependen sólo de las cámaras para identificar objetos, una de las apuestas más polémicas de Elon Musk. Mientras el resto de la industria apuesta por sistemas LIDAR, que incluye varios tipos de radar para localizar objetos, Musk cree que las cámaras que ya vienen incluidas en los Tesla son suficientes.
El uso de aprendizaje automático y redes neuronales para analizar las imágenes permite identificar objetos sin necesidad de escanearlos con hardware más caro. Sin embargo, como las cámaras sólo capturan imágenes en 2D, podrían ser engañadas con este tipo de ataques, según Nassi.
Por el momento, este no es un ataque que vaya a poner en peligro la vida de nadie, pero sí que es una molestia. En las pruebas, el Tesla detecta a los "fantasmas" de las personas y coches y aplica automáticamente los frenos; la verdad es que sería más preocupante si no lo hiciese, pero no deja de ser un tipo de ataque que puede ser aprovechado, especialmente conforme hay más Tesla en las calles.