Autopilot da Tesla novamente sob investigação. Desta vez, porque “matou 3 pessoas”
A Tesla não tem descanso e aquilo que garante aos condutores e que a distingue da maioria das fabricantes parece estar constantemente a dar errado. Exemplo disso é o Autopilot que está novamente sob investigação.
Desta vez, devido a um acidente que matou três pessoas.
De acordo com o The Wall Street Journal, o Autopilot da Tesla está novamente sob investigação, uma vez que um acidente do Model S matou três pessoas, recentemente. Aquela está a ser conduzida pela National Highway Traffic Safety Administration (NHTSA), que disse estar a investigar mais de 30 acidentes a envolver esta funcionalidade oferecida pela fabricante de Elon Musk.
O acidente em questão, segundo o Orange County Register, ocorreu no dia 12 de maio, na Newport Beach's Mariners Mile. A mesma fonte adianta que o elétrico terá atingido um passeio e ido contra equipamento de construção. Desse embate resultou a morte de três ocupantes.
Além das três mortes, o Model S da Tesla também atingiu três trabalhadores da construção civil, que foram enviados para o hospital com ferimentos ligeiros. Apesar da polícia não ter declarado o envolvimento do Autopilot da Tesla, sabe-se que a NHTSA está a investigar o acidente.
Esta não é a primeira vez que a Tesla vê o seu Autopilot sob investigação. Aliás, em agosto do ano passado, a NHTSA disse que iria investigar a funcionalidade após 11 acidentes com veículos estacionados, que ocorreram desde 2018 e resultaram em 17 feridos e uma morte.
Apesar das investigações recorrentes, a NHTSA é criticada pelo National Transportation Safety Board, por não garantir que as fabricantes de automóveis incluem funcionalidades de segurança adequadas nos veículos que oferecem nível 2 de autonomia. Afinal, os sistemas, embora evoluídos, ainda não dispensam a atenção do condutor.
No caso da Tesla, a fabricante alerta os seus clientes para a necessidade de se manterem focados na estrada e com as mãos no volante.
Leia também:
Este artigo tem mais de um ano
“No caso da Tesla, a fabricante alerta os seus clientes para a necessidade de se manterem focados na estrada e com as mãos no volante.” Exactamente.Tem que ser sempre assim.
E que tal desligar de vez esta função?
O Musk sabe e tem poder para mexer muitos cordelinhos 😉
Faz sentido desligar algo que ajuda considerávelmente quando usado de forma adequada?
E quantas vidas já salvou? Era interessante ter uma comparação completa.
Nenhuma, pois o Auto pilot não é automático e exige o condutor permanentemente. A única métrica para medir isso seria sistema de travagem automático, mas isso não é um sistema de autopiloto, que é o que a Tesla diz ter, mas não tem. Logo, zero.
Se medir o rácio de: acidentes / kms percorridos, de Tesla e outro automóveis sem apoio à condução, a diferença é zero? Não me parece.
youtube.com/watch?v= u2Ak3VjwJfE
“salvou vidas”
Os condutores que usam Autopilot confiam nesse sistema e ficam distraídos enquanto o carro toma decisões.
Muitos dos “salvamentos” do Autopilot eram evitados se o condutor estivesse envolvido na condução do veículo.
Quando o sistema falha é que são elas…
Existem estudos em que mostram que um condutor distraído demora muito mais tempo a avaliar a situação em que se encontra e a desviar-se do perigo eminente. É só pesquisar.
Concordo, quantos acidentes já foram causados pelo humano? O autopilot não é perfeito, mas é mais confiável que um humano.
“No caso da Tesla, a fabricante alerta os seus clientes para a necessidade de se manterem focados na estrada e com as mãos no volante.” Então mas nesse caso não é necessário o Autopilot.
Nunca deves de ter usado, por isso nao fazes a mais pequena ideia do que é nem das vantagens.
Acho muito válido o comentário do João, e as vidas que pode salvar?
Agora vão culpar o computador das atitudes do hacker? Teve hacker que bloqueou o funcionamento de um hospital!
O que acho no início é limitar a velocidade que pode usar, abaixo de 20-40 Km, para ser usado em congestionamento.