Pplware

Piloto automático de Tesla pode ser enganado com um simples projetor

Uma das características que mais distingue os Tesla é a sua capacidade de condução semiautónoma. Contudo, este conjunto de tecnologias ainda não está preparada para decifrar determinados “ataques”. Foi isso que provaram ao projetar uma imagem na frente de um Model X que este identificou como uma viatura real.

Estes ataques de falsificação podem levar a problemas maiores, se a tecnologia da Tesla não estiver preparada.


Ataques ao assistente de condução mostram fragilidades

Há seis meses, Ben Nassi, estudante da Universidade Ben-Gurion, realizou um conjunto de ataques de spoofing bem-sucedidos contra um sistema de assistência de condução Mobileye 630 Pro. Para tal, o jovem recorreu a drones de baixo custo e projetores movidos a bateria.

Posteriormente, o investigador expandiu a técnica para experimentar – também com sucesso – confundir um Tesla Model X.

Os ataques de falsificação dependem amplamente da diferença entre o reconhecimento de imagem humano e da Inteligência Artificial. Na maioria das vezes, as imagens que Nassi, e a sua equipa, projetaram para trollar o Tesla não enganariam um condutor humano. Isto porque alguns dos ataques de falsificação eram quase esteganográficos, contando com as diferenças de perceção, não apenas para que as tentativas de falsificação fossem bem-sucedidas, mas também para escondê-los dos observadores humanos.

Para descrever o que foi feito e os perigos envolvidos, Nassi criou um vídeo desses ataques de falsificação que apelidou de “Fantasma do ADAS”. Para agrupar a informação, o estudante criou também um pequeno site que oferece o vídeo, um resumo descritivo do seu trabalho e o próprio artigo.

Este tipo de trabalhos tem a sua importância para afinar as tecnologias de condução semiautónomas, apesar dos carros elétricos Tesla responderem razoavelmente bem a estas tentativas.

A falsificação criada pela equipa de Nassi usando um Model X como cobaia foi realizada com um assistente humano a segurar um projetor, devido às leis que incidem sobre a utilização de drones. Mas a falsificação também poderia ter sido realizada por um drone. Aliás, como referido, foi esse o método usado nos seus ataques anteriores contra um sistema de assistência ao condutor Mobileye.

Ataques simples de realizar e que são eficazes

Segundo o que foi apresentado, e tal como é mostrado no vídeo, estes ataques não são complicados de fazer. Aliás, o autor refere mesmo que o invasor nunca precisa estar no local do ataque e não precisa deixar nenhuma evidência para trás.

Assim, um adolescente com um drone de 400 dólares e um projetor movido a bateria poderia razoavelmente fazer isso sem mais conhecimento. O equipamento não precisa ser caro ou sofisticado – a equipa de Nassi usou vários projetores de 200 e 300 dólares com êxito. Aliás, eles referem que basta ter apenas 854×480 de resolução e 100 lúmens.

Claro está que este tipo de ataque acontece e resulta apenas se o Tesla estiver em modo de piloto automático. Esta funcionalidade permite uma condução semiautónoma, nível 2. Contudo, a própria Tesla adverte que:

O piloto automático destina-se a ser usado apenas com um condutor totalmente atento, com as mãos no volante e preparado para assumir o comando a qualquer momento. Embora o Piloto Automático seja projetado para se tornar mais capaz ao longo do tempo, na sua forma atual, não é um sistema autónomo, ele não transforma um Tesla num veículo autónomo e não permite que o condutor abdique da responsabilidade. Quando usado corretamente, o Autopilot reduz a carga de trabalho geral do condutor, e a redundância de oito câmaras externas, radar e 12 sensores ultrassónicos fornece uma camada adicional de segurança.

Portanto, o condutor tem responsabilidades na utilização de certos automatismos e isso poderá anular este tipo de ataques. O trabalho foi mostrado na conferência Cybertech Israel em Tel Aviv.

Exit mobile version