Tesla: Autopilot e condução autónoma total associados a acidentes e dezenas de mortes
A Tesla continua no olho do furacão no que toca ao escrutínio de acidentes e mortes supostamente provocados pela confiança a mais do condutor no carro. O regulador americano NHTSA refere mesmo que os condutores são levados a pensar que estes carros elétricos são mais capazes do que na realidade são. O Autopilot (piloto automático) e a condução totalmente autónoma da empresa de Elon Musk estão a ser associados a centenas de acidentes e dezenas de mortes.
Autopilot e Full Self-Driving metidos em "alhadas"
Em março de 2023, um estudante da Carolina do Norte saía de um autocarro escolar quando foi atingido por um Tesla Model Y que viajava a "velocidades de autoestrada", de acordo com uma investigação federal publicada no dia 25 de abril. O condutor da Tesla estava a usar o Autopilot, o recurso avançado de assistência ao condutor da empresa que Elon Musk insiste que acabará por levar a carros totalmente autónomos.
Conforme refere a The Verge, o estudante de 17 anos atingido foi transportado para um hospital por helicóptero com ferimentos graves. Mas o que a investigação descobriu depois de examinar centenas de acidentes semelhantes foi um padrão de desatenção do condutor, combinado com as deficiências da tecnologia da Tesla, que resultou em centenas de feridos e dezenas de mortos.
Os condutores que utilizavam o Autopilot ou o irmão mais avançado do sistema, o Full Self-Driving, "não estavam suficientemente empenhados na tarefa de condução" e a tecnologia da Tesla "não assegurava adequadamente que os condutores mantivessem a sua atenção na tarefa de condução".
Concluiu a NHTSA.
No total, a NHTSA investigou 956 acidentes, começando em janeiro de 2018 e estendendo-se até agosto de 2023. Desses acidentes, alguns dos quais envolveram outros veículos que atingiram o veículo Tesla, 29 pessoas morreram.
Houve também 211 acidentes em que "o plano frontal do Tesla atingiu um veículo ou obstáculo no seu caminho". Estes acidentes, que eram frequentemente os mais graves, causaram 14 mortos e 49 feridos.
Carros Tesla investigados por baterem em veículos de emergência estacionados
A NHTSA foi levada a lançar a sua investigação após vários incidentes de condutores de Tesla que embateram em veículos de emergência estacionados na berma da estrada. A maioria destes incidentes ocorreu após o anoitecer, com o software a ignorar as medidas de controlo do local, incluindo luzes de aviso, sinalizadores, cones e uma placa de seta iluminada.
No seu relatório, a agência concluiu que o Autopilot - e, em alguns casos, o FSD - não foi concebido para manter o condutor envolvido na tarefa de conduzir. A Tesla afirma que avisa os seus clientes de que precisam de prestar atenção enquanto utilizam o Autopilot e o FSD, o que inclui manter as mãos no volante, os olhos na estrada.
No entanto, a NHTSA afirma que, em muitos casos, os condutores tornavam-se demasiado complacentes e perdiam a concentração. E quando chegava a altura de reagir, muitas vezes era demasiado tarde.
Em 59 acidentes examinados pela NHTSA, a agência concluiu que os condutores do Tesla tiveram tempo suficiente, "cinco ou mais segundos", para reagir antes de colidir com outro objeto. Em 19 desses acidentes, o perigo era visível durante 10 ou mais segundos antes da colisão.
Analisando os registos de acidentes e os dados fornecidos pela Tesla, a NHTSA constatou que os condutores não travaram ou guinaram para evitar o perigo na maioria dos acidentes analisados.
Os acidentes sem qualquer ação evasiva ou com uma tentativa tardia de ação evasiva por parte do condutor foram encontrados em todas as versões de hardware da Tesla e em todas as circunstâncias do acidente.
Afirmou a NHTSA.
Nível 2 de "autonomia" sobrevalorizado
A NHTSA também comparou os recursos de automação de Nível 2 (L2) da Tesla com os produtos disponíveis nos veículos de outras empresas. Ao contrário de outros sistemas, o Autopilot desativava-se em vez de permitir que os condutores ajustassem a direção. Segundo o regulador, este comportamento "desencoraja" os condutores de se manterem envolvidos na tarefa de conduzir.
Uma comparação entre as escolhas de design da Tesla e as dos seus pares L2 identificou a Tesla como um caso atípico na sua abordagem à tecnologia L2, ao combinar um sistema de envolvimento do condutor fraco com as capacidades operacionais permissivas do Autopilot.
Afirmou a agência.
Até mesmo o nome da marca "Autopilot" (autopiloto) é enganador, disse a NHTSA, evocando a ideia de que os condutores não estão no controlo. Enquanto outras empresas utilizam alguma versão de "assistência", os produtos da Tesla levam os condutores a pensar que são mais capazes do que são. O procurador-geral da Califórnia e o Departamento de Veículos Motorizados do estado estão a investigar a Tesla por marcas e marketing enganosos.
A NHTSA reconhece que a sua investigação pode estar incompleta com base em "lacunas" nos dados de telemetria da Tesla. Isso pode significar que há muito mais acidentes envolvendo o Autopilot e o FSD do que o que a NHTSA foi capaz de encontrar.
A Tesla emitiu uma recolha voluntária no final do ano passado em resposta à investigação, lançando uma atualização de software over-the-air para adicionar mais avisos ao Autopilot. A NHTSA disse também que estava a iniciar uma nova investigação sobre o recall depois que vários especialistas em segurança disseram que a atualização era inadequada e ainda permitia o uso indevido.
As conclusões contrariam a insistência de Musk de que a Tesla é uma empresa de inteligência artificial que está prestes a lançar um veículo totalmente autónomo para uso pessoal. A empresa planeia revelar um robotáxi ainda este ano, que supostamente dará início a esta nova era para a Tesla.
Durante a teleconferência de resultados do primeiro trimestre desta semana, Musk reforçou a noção de que os seus veículos eram mais seguros do que os carros dirigidos por humanos.
Se tem, em escala, uma quantidade estatisticamente significativa de dados que mostra conclusivamente que o carro autónomo tem, digamos, metade da taxa de acidentes de um carro conduzidoo por humanos, acho que é difícil ignorar. Porque, nesta altura, parar a autonomia significa matar pessoas.
Disse Elon Musk.
A notícia devia ser, Tesla é a marca de carros mais segura do mundo. Em 2021 morreram 43 mil pessoas nos EUA em acidentes ao volante. Tesla regista o número mais baixo dos casos. Quem é que pagou esta notícia.. a GM?
Tens de perguntar ao regulador. Esse relatório é da NHTSA. Mas identifica-se no pedido de informação ao regulador.
Têm de aprender a ler notícias sem pensar em mensagens subliminares.
Fanboy
Não estarás a falar em números absolutos?! É que em termos de percentuais, a TESLA tem um maior rácio de acidentes nos EUA.
Não consigo Hugo.
Não Humberto, estou a falar em termos de percentagens.
E não estou a falar de acidentes, estou a falar de mortos.
Vejamos os números do último ano, 2023.
44 mil mortes na estrada, nos EUA.
A Tesla em 2023 tinha 4.2% de market share (Yahoo Finance).
O estudo não diz quantos morreram só em 2023.
Mas 4.2% de 44 mil são 1720 mortos.
29 mortos em 3 anos representam 0.065% dos mortos na estrada em 2023.
Sim Art, sou fanboy .. de matemática.
Lê como deve ser:
“No total, a NHTSA investigou 956 acidentes, começando em janeiro de 2018 e estendendo-se até agosto de 2023. Desses acidentes, alguns dos quais envolveram outros veículos que atingiram o veículo Tesla, 29 pessoas morreram.
Houve também 211 acidentes em que “o plano frontal do Tesla atingiu um veículo ou obstáculo no seu caminho”. Estes acidentes, que eram frequentemente os mais graves, causaram 14 mortos e 49 feridos.”
29+14 = 43 mortos devido aos Teslas
“29+14 = 43 mortos devido aos Teslas”
É o carro mais perigoso que por aí anda. Eu desses ou afasto-me ou guardo distância.
@Yamaha. E os restantes 42,900 mortos anuais são devido a quê?
É normal noticiar “o acidente” e não os casos de “Não acidente”. Faz parte.
Por essa ordem de ideias quando cai um avião não se falaria no assunto, ou quando há um caso de corrupção etc etc.
NHTSA investigou 956 acidentes,
43 mortos em 956 acidentes investigados.
Os números da Tesla são muito otimistas. Na realidade acontecem mais acidentes com Teslas.
Argumento fraco.
Quantos carros de outras marcas circulam nas estradas para cada Tesla que também lá anda? Mau seria se a Tesla tivesse o maior número de casos.
Por experiência, andar com o autopilot é como ter uma criança a conduzir o carro. Pode falhar distâncias, pode travar sem razão, pode acelerar sem razão, pode não ver, pode pensar que vê, etc… Piora, quando estamos cansados e conduzimos e confiamos no autopilot para nos vai ajudar (em vez de parar e dormir 20 min.); depois acontece adormecer com a mão poisada no volante e acidentes acontecem.
Por isto tudo e mais, andar em autopilot requer ainda mais atenção do que ir mesmo a conduzir.
Conclusão: não usar.
Quase que concordo. Acho que o autopilot deve lá estar para quando o condutor falhar e não o contrário, que é como pretendem utilizar.
100% de acordo, penso mesmo que é loucura esperar por enquanto que uma centralina consegue advinhar tudo o que pode acontecer na condução do carro.
No entanto, fico admirado como o Tesla consegue travar sempre antes de mim numa situação de possível emergência; se pensarmos que aquilo se baseia numa camara que está no lugar do espelho retrovisor, por exemplo, o carro á nossa frente, a uns 10 metros, trava de repente, as luzes de travão acendem-se, a 130km/h (aconteceu me ontem), a camara vê, faz um calculo a confirmar se é uma travagem de emergência , e decide que é, enquanto eu vejo, faço o mesmo calculo e decido travar a fundo, quando vou ao travão com o pé, ele já está lá no fundo, a travar com toda a força.
Aquele decimo de segundo a menos representa 3,3m a menos , o que pode significar um acidente grave a menos ou um atropelamento a menos.
Muito bom para uma câmara e um processador superrapido
Há tb aquelas travagens fantasmas que já provocaram um sem nr de acidentes e outras q por mera obra do acaso não provocaram.
As travagens fantasma acontecem no auto piloto, por isso eu não uso, acho que o autopiloto só pode funcionar bem com radar e a Tesla invalidou isso.
As travagens que eu falo são em condução normal
NÃO acontecem nada @ António.
Acontecem com o FAE ligado. Aconselho-o a desligar essa treta pq é possível desligar.
Tens toda a razão. O erro é a Tesla chamar a um ADAS de autopilot.
A condução autônoma poderia poderia funcionar se todos os veículos comunicassem entre si e se todas as vias de circulação fossem preparadas para tal coisa. Misturar automação com condução manual entre outros imprevistos que podem surgir nunca funcionara completamente de forma segura.
“Musk reforçou a noção de que os seus veículos eram mais seguros do que os carros dirigidos por humanos.”
Não é crime, é liberdade de expressão.
Durante a teleconferência de resultados do primeiro trimestre desta semana, Musk reforçou a noção de que os seus veículos eram mais seguros do que os carros dirigidos por humanos.
Durante apresentações de resultados não existe liberdade de expressão, existem factos. Pode dar pena de prisão.
Não existe? Ainda bem, dessa forma a Tesla já não pode alegar, nos processos em q está indiciada, q as suas frases estão protegidas pela Primeira Emenda da Constituição.