Piloto automático de Tesla pode ser enganado com um simples projetor
Uma das características que mais distingue os Tesla é a sua capacidade de condução semiautónoma. Contudo, este conjunto de tecnologias ainda não está preparada para decifrar determinados "ataques". Foi isso que provaram ao projetar uma imagem na frente de um Model X que este identificou como uma viatura real.
Estes ataques de falsificação podem levar a problemas maiores, se a tecnologia da Tesla não estiver preparada.
Ataques ao assistente de condução mostram fragilidades
Há seis meses, Ben Nassi, estudante da Universidade Ben-Gurion, realizou um conjunto de ataques de spoofing bem-sucedidos contra um sistema de assistência de condução Mobileye 630 Pro. Para tal, o jovem recorreu a drones de baixo custo e projetores movidos a bateria.
Posteriormente, o investigador expandiu a técnica para experimentar - também com sucesso - confundir um Tesla Model X.
Os ataques de falsificação dependem amplamente da diferença entre o reconhecimento de imagem humano e da Inteligência Artificial. Na maioria das vezes, as imagens que Nassi, e a sua equipa, projetaram para trollar o Tesla não enganariam um condutor humano. Isto porque alguns dos ataques de falsificação eram quase esteganográficos, contando com as diferenças de perceção, não apenas para que as tentativas de falsificação fossem bem-sucedidas, mas também para escondê-los dos observadores humanos.
Para descrever o que foi feito e os perigos envolvidos, Nassi criou um vídeo desses ataques de falsificação que apelidou de "Fantasma do ADAS". Para agrupar a informação, o estudante criou também um pequeno site que oferece o vídeo, um resumo descritivo do seu trabalho e o próprio artigo.
Este tipo de trabalhos tem a sua importância para afinar as tecnologias de condução semiautónomas, apesar dos carros elétricos Tesla responderem razoavelmente bem a estas tentativas.
A falsificação criada pela equipa de Nassi usando um Model X como cobaia foi realizada com um assistente humano a segurar um projetor, devido às leis que incidem sobre a utilização de drones. Mas a falsificação também poderia ter sido realizada por um drone. Aliás, como referido, foi esse o método usado nos seus ataques anteriores contra um sistema de assistência ao condutor Mobileye.
Ataques simples de realizar e que são eficazes
Segundo o que foi apresentado, e tal como é mostrado no vídeo, estes ataques não são complicados de fazer. Aliás, o autor refere mesmo que o invasor nunca precisa estar no local do ataque e não precisa deixar nenhuma evidência para trás.
Assim, um adolescente com um drone de 400 dólares e um projetor movido a bateria poderia razoavelmente fazer isso sem mais conhecimento. O equipamento não precisa ser caro ou sofisticado - a equipa de Nassi usou vários projetores de 200 e 300 dólares com êxito. Aliás, eles referem que basta ter apenas 854x480 de resolução e 100 lúmens.
Claro está que este tipo de ataque acontece e resulta apenas se o Tesla estiver em modo de piloto automático. Esta funcionalidade permite uma condução semiautónoma, nível 2. Contudo, a própria Tesla adverte que:
O piloto automático destina-se a ser usado apenas com um condutor totalmente atento, com as mãos no volante e preparado para assumir o comando a qualquer momento. Embora o Piloto Automático seja projetado para se tornar mais capaz ao longo do tempo, na sua forma atual, não é um sistema autónomo, ele não transforma um Tesla num veículo autónomo e não permite que o condutor abdique da responsabilidade. Quando usado corretamente, o Autopilot reduz a carga de trabalho geral do condutor, e a redundância de oito câmaras externas, radar e 12 sensores ultrassónicos fornece uma camada adicional de segurança.
Portanto, o condutor tem responsabilidades na utilização de certos automatismos e isso poderá anular este tipo de ataques. O trabalho foi mostrado na conferência Cybertech Israel em Tel Aviv.
Este artigo tem mais de um ano
Porra, cresçam e façam algo de produtivo. Verifiquem quantos idiotas vão ao telemóvel e a conduzir que é mais útil, è vê-los a 80 a ziguezaguear na AUTO-ESTRADA. Quantas mortes terão de acontecer para percebermos que as pessoas a conduzir são um verdadeiro holocausto. Condução autónoma o mais rápido possível, não há nada mais aborrecido do que conduzir em hora de ponta como sardinhas em lata sem ir a lado nenhum.
Sem dúvida, mas a Tesla não a quer a qualquer preço. Aliás, ainda não há forma de passar o controlo total ou mesmo parcial sem acompanhamento do condutor, não tens ainda condições para tal. OS Tesla não andam sozinhos nas estradas. Agora, são sem sombra de dúvida uma grande ajuda à condução, e grande sistema de segurança pró-activa. Mas ainda tem que evoluir.
https://www.youtube.com/watch?v=cPMvQphJQiE
Cuidado com certas assunções.
“não há nada mais aborrecido do que conduzir em hora de ponta como sardinhas em lata sem ir a lado nenhum.”
A não ser que estejas a trabalhar… O problema é teu, vai de transportes.
Há quem não possa e tenha mesmo de levar o carro, mas deixa-me dizer que se para uns é divertido ir em bichas, a ver os vizinhos tirar macacos do nariz e olhar para as traseiras dos outros carros em modo “mete o pé ao travão aciona a embraiagem mete velocidade tira embraiagem acelera mete o pé ao travão aciona embraiagem etc… dezenas de vezes e todos com cara de segunda-feira de manhã para outros existem melhores maneiras e mais tranquilizadoras de passar o tempo.
Eu ando de transportes e até sestas faço no autocarro, portanto, eu não sofro desse stress e desse passatempo de ver a traseira de outros carros.
Se metem uma projeção de uma pessoa à frente o máximo que pode/deve acontecer é o Tesla parar.
Desde que não arranjem uma forma de fazer um muro ou uma pessoa ficar invisível…
Se querem fazer um Tesla parar é fácil, é só porem-se à frente. Ou colocar lá qualquer coisa.
Tanto trabalho o que é que isto faz o carro parar ? boa bastava meterem-se a frente se queriam que ele parasse nao era preciso andar com projeçoes.
Tantos problemas para resolver e andam andorinhas a tentar para um carro com projeções enfim a inteligencia nao chega para tentarem melhorar os pilotos automaticos limitam se a tentar qualquer para enganar um computador
Já pensaram que se calhar o intuito é demonstrar que uma interferência/erro de percepção do sistema pode culminar na imobilização inapropriada da viatura e causar um acidente para quem segue atrás?!?! Por outro lado, o principal propósito é demonstrar que o sistema é falível e que não se deve confiar a 100% no modo automático (que de resto a Tesla também nunca recomendou). Penso que é fácil chegar às conclusão, mas se calhar fui eu que tive uma ideia luminosa!!!
Não posso concordar contigo quando dizes ” causar um acidente quem segue atrás” ora se o carro da frente parar e o de trás bater, certamente o detrás não segue o código da estrada que é manter uma distância de segurança e temos mais do mesmo, concordo contigo quando alertas sobre a confiança, dificilmente eu vou tirar as mãos do volante e dos pedais.
Eu devo ser um génio. Assim de repente arranjo aí umas 40 maneiras de fazer parar um carro de repente ou até mesmo provocar um acidente e se calhar mando para o YouTube e tenho algumas visualizações. Não tantas como as que se consegue a falar na Tesla mas algumas. Chega de conversa, vou para a estrada escarrar para os carros que passam disfarçado de sinal de trânsito.
Que engraçado, que experiência idiota. Tanta gente a conduzir a desrespeitar as regras, sem cinto, excesso de velocidade, pisar linhas contínuas, ultrapassagens inseguras, inversão de marcha, estacionar em cima do passeio, etc… e tal e vêm fazer um estudo sobre a correcto funcionamento de uma máquina que segue completamente as regras! Mais valia fazerem um estudo sobre quantas vezes se distrai um condutor. Aí sim seria um estudo bastante interessante.
Na cabeça de quem não percebe as implicações, todas as experiêcias são “idiotas”…
Qualquer tecnologia tem de ser aperfeiçoada mas imaginar que alguém compra um drone e passa a vida a projectar imagens na estrada é definitivamente idiota. Se o objetivo é provocar um acidente há meios mais fáceis e mais baratos.
Nem mais Podence.
Que tal desviar a rota para uma ribanceira abaixo.
Os perigos inerentes a esta tecnologia são demasiados.
É a mania de não quererem usar o LIDAR…. com a noção da profundidade seria muito mais fiável mas estraga o design e é muito caro… Devia pelo menos ser opcional.
Se alguém grafitar uma pessoa ou um sinal por exemplo ele assume e não acham isso perigoso? looool
Já para nao falar noutras interpretações associadas a condução…
Mas havemos de la chegar…
Eu se fosse a conduzir o meu carro a diesel e visse um vulto fantasmagórico desses a caminhar na minha direcção a meia da noite morria era de ataque cardíaco lol