Tesla considerada culpada de acidente fatal com o piloto automático
O Autopilot da Tesla volta a estar no centro de problemas. A marca terá de pagar uma multa de 243 milhões de dólares depois de um júri da Florida a ter considerado parcialmente responsável por um acidente fatal. Este acidente deixou uma mulher de 22 anos morta e o seu namorado gravemente ferido.
A Tesla considerada culpada de acidente
Esta decisão representa um grave revés para a marca de Elon Musk. Abre um precedente perigoso para futuros processos judiciais que envolvam acidentes com os Tesla. Segundo as estatísticas de mortes da Tesla, 58 pessoas faleceram em acidentes com o piloto automático acionado, embora em alguns deles o veículo Tesla não tenha tido culpa.
Em 2019, George McGee conduzia um Tesla Model S em piloto automático enquanto verificava o telemóvel. Deixou-o cair e baixou-se para o apanhar. Segundo revelado, pensou que o piloto automático travaria em caso de problemas. Isso não aconteceu e acelerou num cruzamento a 100 km/h, embatendo num carro estacionado cujos ocupantes estavam a sair.
Naibel Benavides, uma mulher de 22 anos, foi projetada a 22 metros de distância e faleceu com o impacto. O seu namorado, Dillon Angulo, sobreviveu, mas com múltiplas fraturas, traumatismo craniano e sequelas psicológicas.
Piloto automático é parcialmente culpado
Os advogados dos queixosos adiantam que “a Tesla concebeu o Autopilot apenas para autoestradas de acesso controlado, mas optou deliberadamente por não restringir os condutores de o utilizarem noutros locais, enquanto Elon Musk disse ao mundo que o Autopilot conduzia melhor do que os humanos”.
Foram mais longe e disseram ainda que “as mentiras da Tesla transformaram as nossas estradas em pistas de teste para a sua tecnologia fundamentalmente falhada, colocando em perigo americanos comuns como Naibel Benavides e Dillon Angulo”.
A Tesla afirma em comunicado que não tem culpa e coloca a responsabilidade no condutor. Defende-se que “o veredicto de hoje é falhado e serve apenas para prejudicar a segurança automóvel e comprometer os esforços da Tesla e de toda a indústria para desenvolver e implementar tecnologias que salvam vidas. Pretendemos recorrer da decisão, dados os erros substanciais na lei e as irregularidades no julgamento”.
Empresa defende-se com teoria de ataque à marca
As provas têm demonstrado consistentemente que este condutor foi o único culpado, pois estava a alta velocidade. Tinha o pé no acelerador, o que anulou o piloto automático, enquanto procurava o telemóvel caído sem olhar para a estrada. Para ser claro, nenhum carro em 2019, e nenhum hoje, teria evitado este acidente.
A marca continua: “isto nunca teve nada a ver com o Piloto Automático. Foi uma ficção inventada pelos advogados dos autores, culpando o carro quando o condutor, desde o primeiro dia, admitiu e aceitou a responsabilidade”.
A realidade é que o condutor pensava que o piloto automático estava a funcionar de determinada forma, quando não estava. A Tesla está a fornecer informações suficientes, explicando exatamente o que o piloto automático faz e o que não faz. A decisão estabelece um precedente sério para futuros julgamentos envolvendo acidentes do piloto automático.






















Fazem bem em recorrer, Piloto Automático não é autonomia, nunca foi, culpa 100% do condutor.
A questão está no markting que fazem e sempre fizeram e que ainda é agressivo nos EUA.
Por isso, fazem bem em recorrer, mas a Tesla continua a ter culpa no produto que mete em Beta nas estradas e que está constantemente a vender como seguro, muito bom e melhor que qualquer humano a conduzir.
Isso é verdade acima de tudo para o FSD, mas um sistema de autopilot não é o mesmo que autonomo, o mesmo é valido na aviação, são cruze control glorificados.
cruise*, como o Tom.
gostava de perceber o fascínio pelo uso deste tipo de auxiliares à condução…
Os jovens já não são o que eram. Agora só sabem conduzir smartphones…e mal!
Se é verdade o que a Tesla diz, que o condutor meteu o pé ao acelerador e foi procurar um telemóvel caído, então a culpa é de gente idiota a ser idiota. Iam duas pessoas no carro. Uma pode conduzir e a outra procura o tlm caído, que nem devia ter caído. Certamente iam no “hihihi hahaha” em brincadeira com o tlm e depois olha.
Por muito que não goste da Tesla, neste caso eles não têm culpa de nada.
@Zé pela minha intepretação e baseando-me na frase “Naibel Benavides, uma mulher de 22 anos, foi projetada a 22 metros de distância”, o condutor ia sozinho, a pessoa que morreu era passageiro da viatura que estava parada a “descarregar” ocupantes.
Pelo menos é assim que estou a interpretar a noticia.
Tal como acontece em aviões sofisticados e com muita tecnologia, e mesmo com o Autopilot ligado, o piloto é sempre o culpado das ações do avião, e neste caso, do carro.
O Autopilot deve de ser encarado como uma ajuda à condução e nunca como uma substituição do condutor. Não entendo é como as pessoas conseguem confiar tanto assim numa tecnologia que está constantemente a ser melhorada.
É sempre mais fácil culpar os outros do que assumir os nossos próprios erros. enfim..
A questão é a publicidade que é feita ao produto. Aliás começa a ser um problema cada vez mais evidente principalmente nos países que imitam a cultura americana.
O que a ti te parece não é o que risca.
Jornal de Negócios: “Diretor da Tesla confessa que video sobre condução autónoma foi encenado” (18/01/2023)
Em 2016, a Tesla divulgou um video que promocional do Autopilot (que está nessa notícia) que começava com a frase, bem destacada, “A pessoa que vai sentada no lugar do condutor não vai lá a fazer nada, vai lá apenas por razões legais”. Só em 2023, quando o diretor de engenharia de software da Tesla teve que depor em Tribunal, se soube que vídeo foi encenado e, por exemplo, na altura o sistema não detetava os sinais vermelhos.
Em 2015-2016, Musk afirmou que, dentro de dois anos, se podia fazer uma viagem a dormir no banco de trás, de uma costa à outra dos EUA. E todos os anos vem prometendo a condução totalmente autónoma, dispensando o condutor, até final desse ano ou no seguinte. Embora o nível de automação mais avançado, o FSD, ainda não tenha passado do nível 2, Musk diz que está entre o 4 e o 5. Há muita gente enganada com as reais capacidades, ou que possa ter a curto prazo, o Autopilot e o FSD.
Era apenas uma questão de tempo até um Tribunal atribuir responsabilidades, parciais, à Tesla em acidentes. O que se prevê é que esta sentença incentive a apresentação de mais queixas e pedidos de indemnização à Tesla, numa altura em que tem em curso a sua campanha dos robotáxis e do FSD.
Em tom de brincadeira, para quê comprar um carro que se conduz sozinho, se é para não se conduzir há transportes públicos e plataformas de transporte, escusa de pagar seguro, impostos, estacionamento, manutenção, combustíveis /energia etc. 🙂 🙂 🙂
O júri repartiu a percentagem de responsabilidade: 66% para o condutor, 33% para a Tesla. Como só a Tesla era réu neste processo, os valores referidos das indemnizações só se aplicam à Tesla.
– Disse o advogado de defesa que “a Tesla avisa os motoristas que eles devem manter os olhos na estrada e as mãos no volante, mas [o condutor] optou por não fazer isso enquanto procurava um telemóvel caído, aumentando o perigo por excesso de velocidade
– Disse o condutor no seu depoimento que: “Eu confiei demais na tecnologia. Eu acreditava que se o carro visse algo na frente dele, ele daria um aviso e aplicaria os travões.”
– O júri do tribunal federal considerou que: a “Tesla tinha uma responsabilidade significativa porque sua tecnologia falhou e que nem toda a culpa pode ser colocada em um motorista imprudente, mesmo aquele que admitiu que estava distraído com o seu telemóvel antes de embater num jovem casal a olhar para as estrelas.”
Em casos anteriores, a Tesla tem-se safado com o que diz o manual dos Teslas em letras miudinhas (que repetiu o advogado), ao mesmo tempo que faz propaganda do seu sistema de “condução completamente autónomo”, iludindo os compradores. Desta vez o júri não se deixou levar.
Um aspeto que não abonou a favor da Tesla foi ter perdido uns segundos de gravação dos sistemas antes do acidente, o que não aconteceu noutros casos (a Tesla reconheceu, dizendo que se tratou de um lapso).
O que vale é que a rapaziada não entendeu nada do que está escrito…
O que não surpreende.
Se a moda pega, me pergunto quem vai produzir carros assim. Falhas mecânicas eu entendo, de resto, parece que só tem oportunistas.
O cérebro das pessoas é que devia estar em piloto automático.
O Autopilot desliga-se automaticamente 1 segundo antes de detetar uma colisão. Assim a Tesla nunca é culpada em tribunal.
Se George McGee é o típico cidadão americano estamos tramados. Chico esperto e com um QI muito fraquinho. Não admira que tenham elegido Donald Trump para presidente.
Experimenta pesquisar por “dormir volante Tesla”. Vais ver que, em piloto automático, deixar cair o telemóvel e baixar-se para o apanhar não é nada de extraordinário.
Com o pé no acelerador é
Ir com o pé no acelerador impede o Autopilot de travar – mas isso não “anulou o piloto automático”, ao contrário do que se diz no post.
É que o Autopilot nem um aviso deu (ou a Tesla não conseguiu demonstrar isso por ter “perdido” alguns segundos de gravação antes do embate).
A grande questão que se colocou ao júri foi o de avaliar se o aviso que está no manual do Tesla – de que o condutor deve ir com os olhos na estrada pronto para intervir a qualquer momento – era suficiente. O júri considerou que não, porque:
“Os sistemas de assistência ao motorista semelhantes feitos pela General Motors e pela Ford Motor têm câmeras que rastreiam os olhos de um motorista para garantir que eles estejam olhando para a estrada. A versão do piloto automático no Tesla do Sr. McGee continuaria a operar enquanto o motorista tocasse o volante ocasionalmente, quer os seus olhos estivessem na estrada ou não. Os carros Tesla mais novos têm câmeras que monitoram os motoristas.” (NY Times, 01/08/2025)
Resumindo, o Autopilot não sabia para onde estava condutor a olhar, se estava à procura do telemóvel e por isso não podia ser anunciado como “mais seguro que o condutor humano”, como acontecia e muitos continuam a repetir.
A culpa é repartida entre o condutor (33%) e a tesla (66%), e penso que a culpa está bem repartida. A Tesla vai recorrer.
Contínua a surpreender-me como as pessoas confiam a sua vida, e principalmente a dos outros, a sistemas que estão demonstrados que não são 100% fiáveis. Lamento a morte da jovem.
Foi ao contrário: condutor 2/3 e Tesla 1/3.
Tem razão, erro meu.
O Luke Cooper mostra que o auto pilot funciona…
Então não é que eu acelerei a fundo e o carro acelerou mesmo!!! Idiocracy!
O Tesla embateu a 62 mph (100 km/h), numa zona em que a velocidade permitida é de 45 mph (52 km/h). Não é dito se acelerou ou manteve a velocidade ao chegar ao cruzamento.
O excesso de velocidade também funcionou contra a Tesla por – àquele excesso de velocidade – manter o Autopilot ativo, sem aviso, apesar do condutor por estar a pisar o acelerador estar a impedir o Autopilot de usar os travões.
Mais uma vez, tudo se joga num aspeto – a advertência da Tesla, que vem no manual em letras miudinhas, de que o condutor deve manter os olhos na estrada pronto a intervir é suficiente ou não. O júri entendeu que não – nomeadamente porque “sistemas semelhantes feitos pela General Motors e pela Ford Motor tinham câmeras que rastreiam os olhos dos condutores para garantir que eles estejam a olhar para a estrada”.
Estou muito preocupado por ver que o JL ainda não veio aqui explicar aos outros porque é que tem razão…
Não entendi essa ? quer explicar ?