Tesla ha sido una de las primeras compañías automovilísticas en poner en circulación vehículos semiautónomos. Lo ha hecho con un gran éxito comercial, el cual incluso ha sobrepasado la capacidad de producción de la marca y ha puesto en tela de juicio el liderazgo de Elon Musk, pero no por ello ha alejado las dudas sobre la fiabilidad de su tecnología. Son ya varios los accidentes mortales que se le atribuyen a su función mal llamada AutoPilot y parece que si no tenemos que lamentar más incidentes es por pura suerte.
La última vulnerabilidad de los vehículos Tesla es especialmente sorprendente por lo extraordinariamente sencillo que resultaría explotarla, no ya a un ciberdelincuente, sino a cualquier persona sin conocimiento técnico alguno pero con ansia de destrucción o de hacer una trastada. Y es que tan sólo hace falta una pegatina negra para manipular la inteligencia artificial de estos coches y obligarles a acelerar hasta 140 km/h en tramos limitados a 50 km/h.
Según una investigación de McAfee a la que ha tenido acceso INNOVADORES, una simple y pequeña modificación en las señales de velocidad de EEUU es suficiente para hacer que la cámara MobilEye EyeQ3 (que montan los Tesla Model S más antiguos, entre otras marcas) confunda los números 35 y 85 (en millas por hora). Este hallazgo, obtenido mediante 'model hacking' -por el que se explotan vulnerabilidades presentes de forma universal en los algoritmos de machine learning para obtener resultados adversos-, se probó primero en laboratorio con 'stickers' tanto digitales como físicos, antes de realizar las pruebas finales con vehículos reales (en concreto, un Model S de 2016 y un Model X de ese mismo año).
Como decimos, los Tesla Model S afectados por este grave fallo de diseño son aquellos equipados con el AutoPilot Hardware Pack 1, matriculados a partir de 2014 y hasta hace un par de cursos. Las cámaras EyeQ3 también están presentes en otros modelos de fabricantes tan diversos como General Motors (Cadillac CT6), los Nissan equipados con tecnología ProPilot 1, Audi (A8 con Traffic Jam Pilot) o Volvo (Pilot Assist 1,2 y 3). En todos ellos puede potencialmente observarse esta confusión a la hora de percibir las señales, pero sólo Tesla cometió el error final: hacer que su velocidad dependiera de lo que viera su cámara.
Se trata de una funcionalidad llamada Speed Assist, introducida por Tesla en 2014, y que permite al Model S "detectar las señales de límite de velocidad gracias a una cámara montada en el parabrisas detrás del espejo interior", según la descripción de esta tecnología proporcionada por la propia Tesla. La información de la cámara se contrasta, teóricamente, con la obtenida por el GPS, pero los expertos en ciberseguridad de McAfee han demostrado que el vehículo aceleraba de forma considerable al confundir las señales de 50 y 140 km/h. Eso sí, no se atrevieron a ver si alcanzaba esa velocidad, ya que frenaron de manera manual antes de poner sus vidas en peligro. Es, por tanto, esta combinación del Speed Assist y el control automático de crucero de Tesla (TACC) resultan en esta fatídica combinación.
En la actualidad, Tesla ya no emplea equipamiento de MobilEye en sus vehículos, según confirma el fabricante. Asimismo, los investigadores aseguran que no han conseguido replicar este fallo de diseño en los sistemas de IA de las nuevas versiones. Pero dada la extensa flota de coches que sí equipan esta tecnología vulnerable, sorprende que Tesla haya expresado que no tiene "ningún plan actual para corregir el problema en la plataforma existente". Por su parte, MobilEye sí ha confirmado que las versiones actualizadas de su cámara ya solventan estos casos.
Esta clase de vulnerabilidades suponen algo más que una simple nota a pie de página. Si nos atenemos a las cifras de la consultora Gartner, en 2023, la red de vehículos autónomos en el mundo contará con 745.705 vehículos, en comparación con los 137.129 que se registraron en 2018. Previsiones de crecimiento que traen consigo una pugna crítica en materia de ciberseguridad, en la que los modelos de inteligencia artificial y machine learning de estos automóviles puedan ser explotados por parte de cibercriminales.