Tesla: EUA lançam investigação sobre o sistema Autopilot
Temos conhecido contratempos ao sistema de Autopilot da Tesla, nomeadamente através dos acidentes que resultam do excesso de confiança depositada nele. É exatamente nesse sentido que surge uma nova investigação levada a cabo pelos Estados Unidos.
Após 11 acidentes a envolver o Autopilot da Tesla, os EUA começaram uma investigação ao sistema.
O governo dos EUA lançou uma investigação formal ao sistema de piloto automático da Tesla, após uma série de colisões. Aquela será levada a cabo pela US National Highway Traffic Safety Administration (NHTSA) e terá em conta as 11 colisões, das quais resultaram 17 feridos e um morto.
De acordo com a nota emitida pela NHTSA, a investigação vai abranger praticamente todos os carros da Tesla vendidos nos EUA, desde 2014, incluindo o Model S, Model X, Model 3 e Model Y.
A NHTSA explicou que o seu Office of Defects Investigation (ODI) identificou 11 acidentes, que ocorreram quando os carros da Tesla se depararam com “cenários de primeiros socorros” protagonizados por veículos de emergência. Além disso, acrescentou que a maioria dos acidentes aconteceu após o anoitecer e envolveram medidas de controlo, como luzes de emergência, painéis de sinalização rodoviária iluminados e cones de trânsito.
Alegadamente, o Autopilot da Tesla teve dificuldade em responder às condições rodoviárias. Afinal, segundo a NHTSA, todos os Tesla envolvidos nos 11 acidentes tinham o sistema ativado no local.
Embora promissor, o Autopilot da Tesla ainda precisa de evoluir. Aliás, foi o próprio Elon Musk que mencionou a sua complexidade. Nesse sentido, a NHTSA referiu que o condutor mantém a “responsabilidade primária de deteção e resposta a eventos ou objetos”.
Então, a investigação irá "avaliar as tecnologias e métodos utilizados para monitorizar, assistir e impor o envolvimento do condutor na tarefa de condução dinâmica durante o modo Autopilot".
Este artigo tem mais de um ano
Estamos a centenas ou milhares de anos de termos um verdadeiro sistema de inteligência artificial. Até lá teremos o Machine Learning… A moda de colocarem AI em qualquer função de um smartphone, carro ou outra porcaria qualquer, não passa de puro Marketing. Depois temos os incautos que nada percebem de programação a fiarem-se no AI que nada tem de AI, e depois temos acidentes aos pontapés… Os espertos são a Tesla, Apple, Huawei e outros que se aproveitam do AI para vos cobrarem um extra pelo “AI”
Centenas ou milhares? Ainda deves pensar que a terra está no centro do universo…
acho que ninguém ainda falou num sistema de AGI… Estamos a falar de AI, logo, com um foco, um objectivo.
(mas também discordo com a teoria de porem “AI” em tudo)
Um foco? Um objetivo? A tesla está a cobrar por um sistema que não é AI. Como é óbvio num carro devem ser cometidos ZERO erros, e isso é 100% impossível no Machine Learning, nunca será alcançado. No nosso ambiente existem infinitas variáveis que só o ser humano consegue entender… até termos o AI, mas isso está longe, muito longe de ser alcançado.
“num carro devem ser cometidos ZERO erros, e isso é 100% impossível no Machine Learning”, já nos humanos isso esta garantido :-), basta ver há quantos anos há piloto automático na náutica e na aviação. Já agora nunca ouvi a Tesla falar em AI mas sim em Autopilot que há vários níveis tipificados.
Daqui a 5 anos falamos Luis.
Foi o que o outro disse a 5 anos. 🙂
Abc
Acho que o grande problema que se calhar induz as pessoas em erro é o nome que lhe deram, em vez de autopilot deviam chamar ajuda à condução ou algo do género, é que com este nome assumo que muitas pessoas que se calhar não são capazes de lidar com a tecnologia que compraram, não tenham noção que elas é que vão a conduzir o carro, não é o carro que as vai a conduzir, o carro simplesmente dá uma ajuda (mantendo-se na facha, detetando o carro em frente e adaptando a velocidade, etc). Tenho a certeza que estes sistemas já salvaram muitas vidas e milhões de acidentes, não se vai agora colocar o mesmo em causa porque meia dúzia de ignorantes acham que o carro tem de conduzir sozinho, nunca vão haver erros, etc e a responsabilidade já não é deles, estamos a ser mais estúpidos que eles. Se o sistema falhou por algum motivo a culpa é 100% do condutor pois o carro não decidiu ir contra uma parede sozinho e os comandos humanos deixaram de funcionar. Simplesmente houveram acidentes porque o sistema por alguma razão falhou, pois não detetou algum obstáculo ou algo do género e o condutor também não, pois não ia atento, caso contrário assumia o comando e evitava ele o acidente. Conclusão, toda a ajuda é bem vinda, mas por exemplo se o GPS no meio de uma ponte me mandar virar à direita, não me vou atirar ao rio e culpar o GPS, o software ou os mapas e a seguir proibir tudo porque houve um imbecil que decidiu matar-se e virar quando o GPS lhe mandou.
Falamos de 2 ou 3 acidentes por ano desde 2018 da Tesla, só podem estar a brincar… E os outros milhões de acidentes diários?
Para não ter de conduzir mais vale ir de Táxi. Feitas todas as contas provavelmente fica mais barato.