Vídeo exclusivo mostra AutoPilot da Tesla a causar acidente grave com viaturas de socorro
Os acidentes com os carros da Tesla têm aumentado nos últimos meses, nomeadamente aqueles que acontecem com o AutoPilot ativado. Apesar de a fabricante estar confiante, o sistema carece de muitas melhorias. A comprová-lo está um vídeo recente, que mostra um acidente com um carro da marca a falhar a deteção de viaturas de socorro.
Novos problemas para o Autopilot da Tesla
A NHTSA (National Highway Traffic Safety Administration) está a investigar a Tesla com vários objetivos. Um deles passa por perceber se o AutoPilot dos carros da marca tem uma falha na deteção de viaturas de socorro. Do seu lado tem já 16 relatos de situações em que aconteceram acidentes, pelo que procura entender se o AutoPilot estava ativo no momento das ocorrências.
Existem fortes suspeitas de que o software dos carros da Tesla possa ser enganado com as luzes destas viaturas de socorro. As suas luzes intermitentes parecem ser a causa da falha, que aparentemente só acontece quando é tarde demais.
Um vídeo de um acidente no Texas, agora disponibilizado, mostra como um Tesla Model X de 2019 teve este problema. Aparentemente falhou na deteção de todas as viaturas de socorro presentes, em especial uma que estava na sua faixa de rodagem. Esta é vista tarde demais, sendo que o embate acontece a 90 km/h, 2 segundos depois do AutoPilot se desligar.
Carros não detetam viaturas de socorro
Deste acidente, para além dos danos materiais que são bem visíveis, houve vários feridos: 5 polícias presentes foram afetados, estando agora a processar a Tesla devido aos problemas que o AutoPilot alegadamente tem.
Especula-se que as luzes intermitentes que as viaturas de socorro emitem podem ser a causa do problema. As luzes criam imagens pouco claras, dificultando o reconhecimento pelas câmaras Vision, que equipam os carros da Tesla.
Esta é, aparentemente, mais uma prova de que o AutoPilot da Tesla tem de ser melhorado. Ainda assim, e como a marca revela, os utilizadores têm de estar atentos e prontos a assumir o controlo a qualquer momento, para evitar situações destas.
Este artigo tem mais de um ano
Fonte: WSJ
Titulo –> video exclusivo mostra autopilot da tesla a causar acidente grave..
Na noticia –> “(..) Ainda assim, e como a marca revela, os utilizadores têm de estar atentos e prontos a assumir o controlo a qualquer momento, para evitar situações destas.”
Ou seja, o acidente foi causado por um condutor desatento e negligente. Sim, e como dito na noticia (e até pela propria tesla) o autopilot precisa ser melhorado e o carro dá constantes avisos para se estar com as mãos no volante (que condutores tentam contornar colocando pesos no volante) e, até ocmo mostra o video, há quem coloque fita na camara interna para também mitigar os alertas.
Ou seja, sim o autopilot teve, e tem, dificuldade em ver viaturas de emergencia no meio de nevoeiro no entanto o acidente foi causado por um condutor negligente. Se nesta situação o condutor estava a “dormir” (não estamos a falar de um contexto normal mas, sim, de um contexto de nevoeiro com luzes de emergencia por uma boa distancia) a culpa não é do autopilot.
Primeiro nunca se devia chamar autopilot……..é tão imperfeito que nunca devia sequer ser possível usado
Por essa ordem de ideias temos que remover o nome “limpa-tudo” de muitos os detergentes, dos carros SMART também, pois não são inteligentes, e claro todas as palavras e expressões como “delicioso”, “o melhor”, “perfeito para” das embalagens de produtos… acho que percebe a ideia. Já agora, o nome “Autopilot” é igual ao nome da funcionalidade que existe nos aviões, e faz MUITO MAIS que essa funcionalidade neles! Quantos pedem a remoção do nome ou funcionalidade “autopilot” dos aviões? ZERO
É o que dá o pessoal ser desinformado. Quem se informa minimamente sabe que o auto pilot da tesla é de nível 2, o que nao inibe o condutor de responsabilidade… se o condutor cumprisse o protocolo do auto pilot 2 e fosse atento à estrada, nada disto tinha acontecido. Temos auto pilot de nivel 2 e as pessoas pensam que já estamos no nivel 5…
Se o condutor fosse minimamente atento (que o nivel 2 assim obriga) teria evitado o acidente.
Não acredito… Então o mais melhor bom carro do mundo, o famoso EV-1 causa acidentes com o seu (aqui muitas vezes) celebrado, não Auto-Pilot?
Qualquer dia ficamos a saber que também há truques nas baterias…. Ups.
Também pensamos que todos tiraram a carta legalmente, e depois é o que se vê
dizes algo que não sabes do que falas , ou não tens ou nunca estivestes ao volante um fsd .assunto esperto comentado por gente burra
Em primeiro lugar o título deveria ser “Autopilot não evita acidente”. Não causou nada, não mudou de direção, não passou no vermelho, não se sobrepôs à ação do condutor.
Como já foi comentado este sistema não é autónomo, requer monitorização constante do condutor. Há outros casos sob investigação que requerem esclarecimento, este parece-me mais negligência grave do condutor.
Só porque não ages não significa que não sejas o causador.
Foi o autopilot/condutor que causou o acidente. Se havia uma acção obrigatória a fazer e não foi feita então a causa está nessa inação!
“Se havia uma acção obrigatória a fazer e não foi feita então a causa está nessa inação!”
Precisamente, a culpa é do condutor, não é do sensor de estacionamento, nem do cruise control, nem da assistência da faixa de rodagem, nem do autopilot de nível 2!
Mais uma vez fica provado que a teimosia da Tesla não querer usar um sensor Lidar vai deixar o AutoPilot no nível 2 e com falhas…
O AutoPilot foi a maior porcaria inventada que só serve para publicidade.
Se nunca usou, abtenha-se de comentar. É uma funcionalidade excelente, mas como o regulador de velocidade – ou cruise-control – quem está a conduzir é o condutor. Lá porque não é preciso carregar no pedal do acelerador para manter a velocidade as marcas não assumem acidentes quando o condutor não carrega no travão. É a mesma coisa – uma assistência à condução. E a notícia é falaciosa: diz “vídeo recente” quando na realidade é de 2021. Quanto ao nome “Autopilot” é igual ao usado nos aviões e faz BEM MAIS que o Autopilot desses!
A responsabilidade será SEMPRE do condutor! Até os comboios que andam em carris têm que ter um condutor ou dois para que haja responsabilização! Parem de ver filmes de ficção científica, os erros vão sempre existir e as seguradoras não andam a comer gelados com a tesla, aliás, testa!
Não será bem assim. A Volvo com o novo EX90 já terá condução autónoma nível 3, onde a resposnabilidade será assegurada pela Volvo sempre que o carro estiver com a funcionalidade ativa.
Na Tesla, É. Está na documentação do carro. É como o regulador de velocidade, ou cruise-control: quem está a conduzir é o condutor. Lá porque não é preciso carregar no pedal do acelerador para manter a velocidade as marcas não assumem acidentes quando o condutor não carrega no travão. É a mesma coisa. E a notícia é falaciosa: diz “vídeo recente” quando na realidade é de 2021.
Queres ver que a Volvo agora vai sobrepor-se à legislação de cada pais? Um automóvel autónomo ainda não tem estatuto jurídico em Portugal, a responsabilidade será sempre do condutor, esse sim com estatuto jurídico dotada de direitos e deveres.
Não é o automóvel que assume a responsabilidade. É a marca.
Essa, como suponho devas saber, sim com estatuto jurídico dotada de direitos e deveres.
exato.
É evidente quando a Tesla faz a publicidade ao sistema como sendo seguro cria nas pessoas um sentimento de segurança que é manifestamente excessivo. É natural é humano.
A Tesla não faz publicidade. Nunca fez até há cerca de 1 mês atrás, e apenas no Google Ads. E em todas as comunicações públicas (conferências) acerca do sistema sempre se referiu ser uma assistência à condução, tal como o cruise control. Nenhuma marca assume responsabilidade se alguém tiver o cruise control acionado e tiver um acidente por não carregar no travão! A notícia é enganadora (o vídeo não é recente, é de 2021), clickbait pela atenção que a Tesla cativa, e se vir o vídeo o acidente é um absurdo, facílimo de evitar, o condutor devia estar atento!
A culpa não é só da Tesla, a culpa também é das autoridades que admitem que veículos destes possa circular. É evidente que condutor é, lógicamente, responsável pelo acidente, se fosse atento podia o ter evitado. Infelizmente as pessoas habituam-se aos automatismos e facilitam, é normal, é humano.
Outro assunto, o que as pessoas querem em condução autónoma só no nível 5.
Tenho de alterar a minha opinião. Se bem que os sistemas de self-driving tem os seus problemas, devo dizer que neste acidente a culpa é exclusiva do condutor por estar conduzido alcoolizado. O que lhe desejo é muitos anos de cadeia. Felizmente não matou ninguém.
Aqui a questão é que Elon Musk é um influencer nato, há muita gente que o segue cegamente acredita em tudo o que ele diz e ele aproveitou o facto para enganar deliberadamente os consumidores com declarações falsas e exageradas sobre as capacidades e os limites do AutoPilot, ao criar uma falsa sensação de confiança e de segurança nos condutores.
“January 2016
Tesla CEO Elon Musk tells reporters on a conference call that the Autopilot system is “probably better” than a human driver. He also promises that Teslas will be able to drive significantly better than humans within two to three years, and he says that within two years it will be possible to remotely summon a Tesla from across the country.”
https://www.consumerreports.org/autonomous-driving/timeline-of-tesla-self-driving-aspirations-a9686689375/
Seria bom atualizarem as aulas de código de forma a instruir os condutores sobre os níveis de auto pilot
E também ensinar a polícia a não deixar as viaturas expostas (como se fossem donos da estrada), se não é um caso de urgência (acidente) deve encostar a berma em vez de ocupar a uma faixa de rodagem. Para mim há dois culpados, condutor do Tesla e Policia.
E se a policia precisasse realmente de estar na faixa de rodagem?
Já mudava a responsabilidade?
E se fosse um condutor humano num carro de outra marca e não o auto-pilot da Tesla, mudava a responsabilidade?
Argumento fraco!
Os veículos da policia estavam bem sinalizadas. Não é desculpa.
Causou ou não evitou?
Segundo a informação o sistema estava ativo e tinha assumido a condução. Nesse caso causou.
O motorista idiota estava bêbado e deveria ser totalmente responsável por suas ações. Ele foi avisado 150 vezes pela AP antes do acidente para assumir a direção.
O sistema continuou ativo depois de tantos avisos? 😉 não foi assim seguramente como contas.
Autopilot = SCAM.
Os Musk charlatão encheu os bolsos.
Deviam era obrigar a Tesla a tirar este sistema de uma vez por todas…aliás ela e qualquer marca que o tivesse… a pessoa só tem que conduzir o carro….está cansado, para e descansa.
O marketing faz as pessoas acreditar que o carro conduz sozinho…
É como a malta que compra o relógio da apple porque detecta problemas de coração e salva vidas…