Pplware

Tesla: Autopilot e condução autónoma total associados a acidentes e dezenas de mortes

A Tesla continua no olho do furacão no que toca ao escrutínio de acidentes e mortes supostamente provocados pela confiança a mais do condutor no carro. O regulador americano NHTSA refere mesmo que os condutores são levados a pensar que estes carros elétricos são mais capazes do que na realidade são. O Autopilot (piloto automático) e a condução totalmente autónoma da empresa de Elon Musk estão a ser associados a centenas de acidentes e dezenas de mortes.


Autopilot e Full Self-Driving metidos em “alhadas”

Em março de 2023, um estudante da Carolina do Norte saía de um autocarro escolar quando foi atingido por um Tesla Model Y que viajava a “velocidades de autoestrada”, de acordo com uma investigação federal publicada no dia 25 de abril. O condutor da Tesla estava a usar o Autopilot, o recurso avançado de assistência ao condutor da empresa que Elon Musk insiste que acabará por levar a carros totalmente autónomos.

Conforme refere a The Verge, o estudante de 17 anos atingido foi transportado para um hospital por helicóptero com ferimentos graves. Mas o que a investigação descobriu depois de examinar centenas de acidentes semelhantes foi um padrão de desatenção do condutor, combinado com as deficiências da tecnologia da Tesla, que resultou em centenas de feridos e dezenas de mortos.

Os condutores que utilizavam o Autopilot ou o irmão mais avançado do sistema, o Full Self-Driving, “não estavam suficientemente empenhados na tarefa de condução” e a tecnologia da Tesla “não assegurava adequadamente que os condutores mantivessem a sua atenção na tarefa de condução”.

Concluiu a NHTSA.

No total, a NHTSA investigou 956 acidentes, começando em janeiro de 2018 e estendendo-se até agosto de 2023. Desses acidentes, alguns dos quais envolveram outros veículos que atingiram o veículo Tesla, 29 pessoas morreram.

Houve também 211 acidentes em que “o plano frontal do Tesla atingiu um veículo ou obstáculo no seu caminho”. Estes acidentes, que eram frequentemente os mais graves, causaram 14 mortos e 49 feridos.

 

Carros Tesla investigados por baterem em veículos de emergência estacionados

A NHTSA foi levada a lançar a sua investigação após vários incidentes de condutores de Tesla que embateram em veículos de emergência estacionados na berma da estrada. A maioria destes incidentes ocorreu após o anoitecer, com o software a ignorar as medidas de controlo do local, incluindo luzes de aviso, sinalizadores, cones e uma placa de seta iluminada.

No seu relatório, a agência concluiu que o Autopilot – e, em alguns casos, o FSD – não foi concebido para manter o condutor envolvido na tarefa de conduzir. A Tesla afirma que avisa os seus clientes de que precisam de prestar atenção enquanto utilizam o Autopilot e o FSD, o que inclui manter as mãos no volante, os olhos na estrada.

No entanto, a NHTSA afirma que, em muitos casos, os condutores tornavam-se demasiado complacentes e perdiam a concentração. E quando chegava a altura de reagir, muitas vezes era demasiado tarde.

Em 59 acidentes examinados pela NHTSA, a agência concluiu que os condutores do Tesla tiveram tempo suficiente, “cinco ou mais segundos”, para reagir antes de colidir com outro objeto. Em 19 desses acidentes, o perigo era visível durante 10 ou mais segundos antes da colisão.

Analisando os registos de acidentes e os dados fornecidos pela Tesla, a NHTSA constatou que os condutores não travaram ou guinaram para evitar o perigo na maioria dos acidentes analisados.

Os acidentes sem qualquer ação evasiva ou com uma tentativa tardia de ação evasiva por parte do condutor foram encontrados em todas as versões de hardware da Tesla e em todas as circunstâncias do acidente.

Afirmou a NHTSA.

 

Nível 2 de “autonomia” sobrevalorizado

A NHTSA também comparou os recursos de automação de Nível 2 (L2) da Tesla com os produtos disponíveis nos veículos de outras empresas. Ao contrário de outros sistemas, o Autopilot desativava-se em vez de permitir que os condutores ajustassem a direção. Segundo o regulador, este comportamento “desencoraja” os condutores de se manterem envolvidos na tarefa de conduzir.

Uma comparação entre as escolhas de design da Tesla e as dos seus pares L2 identificou a Tesla como um caso atípico na sua abordagem à tecnologia L2, ao combinar um sistema de envolvimento do condutor fraco com as capacidades operacionais permissivas do Autopilot.

Afirmou a agência.

Até mesmo o nome da marca “Autopilot” (autopiloto) é enganador, disse a NHTSA, evocando a ideia de que os condutores não estão no controlo. Enquanto outras empresas utilizam alguma versão de “assistência”, os produtos da Tesla levam os condutores a pensar que são mais capazes do que são. O procurador-geral da Califórnia e o Departamento de Veículos Motorizados do estado estão a investigar a Tesla por marcas e marketing enganosos.

A NHTSA reconhece que a sua investigação pode estar incompleta com base em “lacunas” nos dados de telemetria da Tesla. Isso pode significar que há muito mais acidentes envolvendo o Autopilot e o FSD do que o que a NHTSA foi capaz de encontrar.

A Tesla emitiu uma recolha voluntária no final do ano passado em resposta à investigação, lançando uma atualização de software over-the-air para adicionar mais avisos ao Autopilot. A NHTSA disse também que estava a iniciar uma nova investigação sobre o recall depois que vários especialistas em segurança disseram que a atualização era inadequada e ainda permitia o uso indevido.

As conclusões contrariam a insistência de Musk de que a Tesla é uma empresa de inteligência artificial que está prestes a lançar um veículo totalmente autónomo para uso pessoal. A empresa planeia revelar um robotáxi ainda este ano, que supostamente dará início a esta nova era para a Tesla.

Durante a teleconferência de resultados do primeiro trimestre desta semana, Musk reforçou a noção de que os seus veículos eram mais seguros do que os carros dirigidos por humanos.

Se tem, em escala, uma quantidade estatisticamente significativa de dados que mostra conclusivamente que o carro autónomo tem, digamos, metade da taxa de acidentes de um carro conduzidoo por humanos, acho que é difícil ignorar. Porque, nesta altura, parar a autonomia significa matar pessoas.

Disse Elon Musk.

Exit mobile version