El problema de los coches autónomos: engañan al GPS del Tesla Model 3 para que se estrelle

La conducción autónoma es un proceso al que todavía le quedan unos años para ser perfecto. Si bien todas las ayudas de conducción del Autopilot en coches como los Tesla funcionan a la perfección en autovías y autopistas, en ciudad y en otras zonas tienen margen de mejora. Y a todo eso hay que sumarle que engañando al GPS de los coches se les puede llevar a donde uno quiera.

Los Tesla Model 3 son vulnerables a spoofing, al igual que todos los vehículos del mercado

Eso ha conseguido un grupo de investigadores de Regulus Cyber con un Tesla Model 3 en Europa, donde han conseguido engañar al GPS del coche mediante spoofing para que el Autopilot haga que el coche se salga de la carretera. Y el ataque se podía hacer de manera remota e inalámbrica. Con un equipamiento básico, se alcanzan hasta 1,5 kilómetros. Con un amplificador, se tiene un alcance de 7 kilómetros para uno muy sencillo, y se puede llegar incluso a decenas de kilómetros con equipo potente.

tesla model 3 spoofing 2

El equipo de investigadores viajó a Europa para comprobar hasta qué punto un ataque de spoofing podía afectar al vehículo. El spoofing de GPS consiste en suplantar la señal original que recibe un coche que se comunica con un satélite GPS con una señal fraudulenta que el coche no puede distinguir de la real. Esto se consigue poco a poco, hasta que la señal falsa es más potente que la real, y el coche la toma como por la verdadera.

Para la prueba, realizada este mes de junio, cogieron el Model 3 con el Navigate on Autopilot activado, que usa GPS y Google Maps para seguir la ruta. Los investigadores afirman que los sensores toman las decisiones en función de lo que reciben del GPS. Sin embargo, esta práctica es realmente rara teniendo en cuenta que el coche va tomando las decisiones en tiempo real con respecto a lo que capturan las cámaras y los sensores, y si detecta una línea blanca no va a salirse de la carretera de inmediato.

La prueba se realizó a velocidad constante y con el coche bien colocado en el carril. El coche estaba programado para tomar una salida, y cuando faltaban 5 kilómetros para llegar a ella, activaron el ataque. El coche se detuvo e interpretó como si la salida estuviera a 150 metros, frenando bruscamente y poniendo el intermitente a la derecha para girar. El conductor tomó inmediatamente el control para evitar el accidente. En el siguiente vídeo se puede ver una prueba que hicieron en enero con un Model S:

Otro efecto colateral que tiene este ataque es que pueden alterar la suspensión del coche y hacerle creer que está en carreteras de tierra donde necesita subir la altura del coche, mientras que en carretera la baja para ser más aerodinámico.

Todo el equipamiento necesario es open-source y se puede comprar

Lo más grave del ataque es que fue realizado con software y hardware que es open-source, pudiendo comprarlo a través de cualquier plataforma online y de páginas de GitHub. Tan sólo necesitaron un minuto para poder engañar al coche y modificar la navegación, posición, cálculos de consumo y altura de las suspensiones. El equipamiento costaba 150 dólares en el caso del jammer (un Adalm Pluto) y 400 dólares para el spoofer (un Blade RF SDR).

Regulus Cyber contactó con Tesla para informarles de la vulnerabilidad, y la compañía afirma que este tipo de fallo no es culpa de Tesla, sino que afecta también a coches de otras compañías, donde por ejemplo en el salón de Ginebra de este año consiguieron engañar a al menos siete coches de siete fabricantes distintos. No obstante, Tesla ha dicho que van a introducir soluciones de seguridad en el futuro que haga que los coches sean más seguros ante este tipo de ataques.

Escrito por Alberto García
https://www.adslzone.net/2019/06/20/gps-tesla-model-3-spoofing/

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.