Condutor expõe FSD: vídeos mostram Tesla a desviar-se de repente e a capotar
A condução (semi-)autónoma da Tesla é recorrentemente alvo de críticas, com os utilizadores a apontarem-lhe defeitos. De facto, apesar de o Full Self-Driving (FSD) ser uma ambição pertinente, o sistema não ainda não está totalmente preparado para as estradas. Um condutor procurou mostrar isto mesmo, por via de quatro vídeos, onde se vê um Tesla a desviar-se de repente e a capotar.
Recentemente, um canal do YouTube carregou quatro vídeos curtos, com menos de um minuto, que alegam mostrar cada lado de um Tesla durante um suposto acidente.
Segundo o dono do canal, trata-se de um Model 3 a executar a versão 13.2.8 do FSD da Tesla, a versão mais recente disponível.
Em três dos quatro vídeos, vê-se o carro em movimento durante alguns segundos e, em todos eles, parece tudo totalmente normal, enquanto o carro se desloca por uma estrada reta e calma de duas faixas.
Entretanto, num processo rápido, assim que passa um carro em sentido contrário, vê-se o Tesla a virar para a esquerda, a atravessar a faixa de rodagem oposta, a sair da estrada e a bater numa árvore antes de capotar.
De acordo com a pessoa que publicou os vídeos, no Reddit, citada pela imprensa, o carro seguia a cerca de 90 km/h quando o acidente aconteceu.
Eu adorava o FSD até isto acontecer. Eu acreditava plenamente nos veículos autónomos até isto me acontecer. Lição aprendida.
Disse a pessoa, garantindo que sofreu apenas um corte no queixo e algum desconforto na zona lombar.
De ressalvar que, apesar de os vídeos parecerem legítimos, existem muitas incógnitas relacionadas com o acidente, que serve, ainda assim, de alerta para a Tesla, que terá de ser rigorosa aquando do desenvolvimento do seu robotáxi.





















Após tantos anos o Autopilot ainda continua em fase alpha. Que software tão mau!
Eu não sou fã da Tesla, mas acho isto um bocado estranho.
Para ter certezas só com um video do volante e da estrada ao mesmo tempo (que não existe), ou então analisando os logs, do carro.
Só assim se fica a saber, se por algo motivo, o volante não foi manobrado, pelo condutor.
Concordo 100%, sem ver as ações do condutor não se pode concluir nada!
Sou só eu que vejo um roda aparecer no video momentos dps de capotar? Não me parece ser coerente com o embate… Isto precisa de fact check ;D
Na foto do carro há uma roda fora do sítio, deve ser essa, mas com IA já não digo nada.
Bateu a 90kmh numa árvore com a parte frente direita e saltou a roda. Tá checkado 😀
Câmara de frente, câmara de trás, câmara da esquerda, câmara da direita (link para os quatro vídeos debaixo da primeira imagem) – o carro sai da estrada e enfeixa-se numa árvore.
Onde estavam os vídeos dessas câmaras todas é que eu gostava de ter visto publicados pela Teslacam (o canal do YouTube dos fanáticos da Tesla) que deu origem ao post: “Ódio contra a Tesla (e Elon Musk) resulta na destruição total de uma Cybertruck (vídeo)”
https://pplware.sapo.pt/motores/odio-contra-a-tesla-e-elon-musk-resulta-na-destruicao-total-de-uma-cybertruck-video/
Quanto ao que pode ter levado o FSD a desorientar-se, comprando com uma situação normal de um condutor humano – as câmaras do Tesla vêm o que vê o olho humano e que é interpretado pelo software, o que noto é que: 1) o sol já está bastante baixo, a aparecer brilhante a desaparecer atrás das árvores e das vedações, 2) com bastantes sombras projetadas na estrada e zonas de luz forte e sombra; 3) linhas horizontais da marcação da estrada, mas também das vedações (câmara do lado direito). Notei também bastantes marcas de travagem a fundo, que costuma corresponder a zonas de acidentes. Se tivesse que apostar, diria que não é um bom sítio e hora para um condutor conduzir, nem para um carro que vê o mesmo que o olho humano mas não está treinado para todas as situações, como esta.
Acima: “veem”, com “dois olhos” (os “ee”) tal como em “leem”.
Um indivíduo qualquer coloca 4 videos num canal youtube existente desde 2010, em que apenas existem esses mesmos 4 videos e vai para o Reddit fazer comentário extremamente detalhado sobre o acidente. Depois vamos a ver o twitter, e são dezenas de artigos, todos de “pessoas” diferentes, com este vídeo e com descrições iguais entre si. Nem muda uma virgula….É esperar até que venha confirmação da Tesla que isto foi de facto uma falha do FSD ou erro do condutor. Até lá….vamos chamar-lhe o que é: Propaganda jornalística. Só acredita quem quer.
Tenho um Xpeng G6, tem um software de condução autónoma fantástico, para mim melhor que a Tesla. Dito isto, sobre esta notícia já vi o vídeo várias vezes e parece manipulado, esta história está mal contada.
Tambem tive um modelo chines, mas era o tamagoshi 😀
As proteções ativas tb me deixa muito desconfortavel e quase que somos obrigados a andar com elas ligadas. Ja em diversas situaçoes, o carro travou sozinho, porque idiotas que andam na estrada nao sabe conduzir e por varias vezes faz rravagens de emergencia quando ha carros parados em 2a fila. Isto para nao falar da insistencia em colocar o carro no centro da via em autoestrada, com muito pouca tolerancia e insistencia na direcção. É um acidente a espera de acontecer …
Quase todos os dias assisto a razias com teslas a moverem-se magicamente para a faixa central, no passo vagaroso de Lisboa acontece com muita frequência, ainda hoje de manhã foi um na segunda circular, a mulher da faixa central até suou
FSD ou a cenourinha da moda, se não querem conduzir chamem um Uber, Bolt, vão de avião, barco, etc.
Mas pronto, há quem goste de correr atrás da cenoura e nunca a consiga comer, e goste disso
Acho que as pessoas confiam demasiado em tecnologias que deviam ser os humanos a controlar, e esta é uma delas.
Se eu tivesse um tesla era das primeiras coisas a desligar e nunca a usar. Ponto.
Para mim,
Da area da informática,
1 carro so devia ter.
Direcção assistida
Fecho central
E abs e “airbag”,
De resto tudo manual.
Sem câmaras, nem sensores nem o diabo a quatro..
Como vamos para a estrada do guinco namorar?
Com meio mundo a ver.
Tem a certeza que é da área da informática ? Se fosse não fazia essas afirmações absurdas.
Nao e nada absurda, trabalhando na área de informática também desde 1995, tendo escrito milhares de linhas de código, tudo o que não dependa de mim é sempre questionável, seja a condução seja milhares de linhas de código feitas por outros. Basta ver a produção de aviões altamente controlada, testada, feita por pessoas cientificamente muito competentes. Um avião demora anos a produzir, testar, no entanto anos após entrarem em voo descobrem-se bugs que por vezes são responsáveis por acidentes muito muito graves. Até admito que exista um modo de condução mais autónoma no entanto de forma alguma considero seguro a substituição a 100% da decisão humana. A decisão humana não é dedutiva, não é imperativa, não é lógica. Existe o instinto, o reflexo, a análise da situação.
Um humano pode por vezes decidir sacrificar a vida em prol de algo maior, salvar milhares, uma máquina não decide nem nunca decidirá dessa forma.
Para termos algo semelhante a um humano temos de conseguir produzir um humano em laboratório com todas a suas virtudes e defeitos.
Existem inumeras vantagens em todos os automatismos que se têm criado ultimamente mas existem também muitos muitos riscos. Porque em última instância, grande parte do que está feito para estes automatismos e máquinas é, imagine-se, pensado e feito por humanos que …. cometem erros.
Em momento algum conseguimos ver a imagem do Tesla, como se pode dizer que era um Tesla ? Sejam verdadeiros e não difamem uma marca como a Tesla….
Oi? As imagens são do próprio Tesla e o testemunho é do condutor e possivelmente o proprietário do Tesla 😀 vocês t~em cá cada coleção de balsamo!