Actualidad

El piloto automático de un Tesla puede ser engañado por "objetos fantasma" proyectados en vallas publicitarias 'hackeadas'

Publicado:
Los investigadores advierten que tan solo basta que se muestren imágenes de señales de tráfico o personas por una fracción de segundos para confundir a los sistemas.
El piloto automático de un Tesla puede ser engañado por "objetos fantasma" proyectados en vallas publicitarias 'hackeadas'

Un equipo de especialistas en seguridad ha demostrado que es posible engañar a los sistemas automatizados de asistencia de conducción de los vehículos de Tesla para cambiar su velocidad o desviarlos mediante la proyección de señales de tráfico falsas y otros objetos, por ejemplo, en vallas publicitarias, según un reciente estudio publicado por la Universidad Ben-Gurión del Néguev, de Israel.

Los investigadores encontraron que basta con que se proyecte cierto tipo de imágenes en la carretera por una fracción de segundos para conseguir confundir al piloto automático del automóvil.

También advierten que una de las posibilidades es que piratas informáticos 'hackeen' una valla publicitaria conectada a Internet para mediante esta táctica provocar congestión o accidentes de tráfico.

Una de las situaciones que se muestran como ejemplo es el de una señal de "pare" oculta dentro de un video publicitario de comida rápida que hizo que un Tesla que viajaba con el piloto automático se detuviera, a pesar de que el comando solo apareció en la pantalla durante menos de un segundo, recoge Newsweek.

El algoritmo de conducción también ha mostrado que puede reconocer erróneamente las proyecciones virtuales de personas y automóviles, lo que hace que cambie de velocidad o se desvíe para esquivar a los objetos que considera como reales.

En los experimentos un vehículo también fue engañado por un dron que proyectó una señal falsa de velocidad sobre una pared.

Los especialistas concluyen que sus hallazgos "reflejan un defecto fundamental de los modelos que detectan objetos, pero que no fueron entrenados para distinguir entre reales y falsos".

Además, sostienen que tienen el potencial de ser peligrosos debido a que los ataques pueden ser llevados a cabo con cierta facilidad de forma remota y son difíciles de detectar.

Estos trucos fueron efectivos en los vehículos Tesla con la última versión del sistema de asistencia al conductor Autopilot HW3, así como en la generación anterior HW2.5, que se basan en el uso de cámaras. El sistema de piloto automático Mobileye 630 también resultó ser vulnerable.

Los únicos que no lograron ser engañados fueron los sistemas de piloto automático que dependen de un lídar, que mide distancias y mapea los alrededores con el uso de láseres. Es último sistema ha sido muy criticado por el director ejecutivo de Tesla, Elon Musk, por considerarlo demasiado costoso.

Covid19