Uber proibida de realizar testes com carros autónomos no Arizona
O fatal acidente ocorrido com um carro autónomo da Uber na passada semana deixou uma marca muito profunda neste projeto da empresa. Os testes foram de imediato interrompidos no Arizona, local do acidente.
Para dar um golpe ainda maior às aspirações da Uber, a entidade responsável pela gestão das licenças para a realização destes testes revogou indefinidamente a autorização emitida e a Uber está proibida de realizar testes com carros autónomos no Arizona.
A Uber pretende criar o seu veículo autónomo, para que possa colocar na rua a sua frota de táxis autónomos e capazes de prestar o serviço da empresa, sem a necessidade de qualquer intervenção humana.
O acidente com o veículo autónomo da Uber
Os desenvolvimentos estavam a decorrer em vários locais dos Estados Unidos e o recente acidente ocorrido, em que um carro autónomo da Uber atropelou mortalmente uma transeunte, veio colocar uma pausa no seu programa de teste.
Após uma primeira avaliação do incidente pelas entidades competentes, a DMV da Califórnia resolveu revogar a licença da Uber e assim colocar em pausa todos os esforços da empresa, pelo menos esse estado Norte Americano.
NEW: In light of the fatal Uber crash in Tempe, Governor Ducey sends this letter to Uber ordering the company to suspend its testing of autonomous vehicles in Arizona indefinitely #12News pic.twitter.com/gO5BZB9P2e
— Bianca Buono (@BiancaBuono) March 27, 2018
O fim da licença da Uber para os testes de estrada
A carta da DMV refere que a licença da Uber para a realização dos testes com o seu veículo autónomo termina no próximo dia 31 de março e que a mesma não será renovada.
A Uber já tinha, por decisão própria, interrompido os testes que decorriam no Arizona, até que as conclusões das investigações, que ainda decorrem, sejam surjam.
Um possível problema com o LIDAR dos carros da Uber
Ainda está longe a obtenção de uma razão para o acidente fatal, mas o que parece ter não ter funcionado de forma correta ou estaria desligado foi o lidar do carro da Uber.
Este sistema é responsável por detetar objetos que estão na proximidade destes veículos, tendo um alcance de cerca de 200 metros. É com essa informação que depois os sistemas de gestão tomam a decisão de travar ou tomar medidas para evitar esses objetos.
A Velodyne, a empresa que desenvolveu o Lidar que os carros da Uber utilizam já veio a público garantir que os seus sistemas não têm qualquer problema ou má conceção e que por isso esta deverá ser uma hipótese a ser colocada de parte, apontando o dedo ao software proprietário da própria Uber.
Na verdade, esta não é a primeira situação de problemas com estes carros da Uber. Já antes houve informações de que a cada 21 km os assistentes que acompanham estes carros tinham de assumir o comando, sem que tenha sido dada qualquer justificação para este comportamento.
Leia também
Este artigo tem mais de um ano
Onde está a lógica ? Acontece um acidente e e logo “banido” do estado americano, mas esquecem que porte de armas continua a ser legal para a maioria e mesmo aqueles que não podem compram com grande facilidade uma m4a1 ou uma kalashnikov e não se ve nada contra isso!! Acidentes vai sempre haver estão em testes!
Mesmo, quantidade de pessoas que têm morrido com os shootings nas escolas e não se faz nada relativamente a isso. Um acidente com um carro autónomo (que provavelmente se fosse uma pessoa a conduzir tinha acontecido o mesmo, pois atravessou-se à frente do carro) e é banido…
Boas
Realmente 1 acidente com um carro autónomo é um escândalo mas os milhares de acidentes diários por erro humano já é pacífico!
Hummm…
Já está tudo a chutar pro lado.
Bem, como comentei na outra noticia, era mais que óbvio uma de duas coisas, ou não tinham o Lidar ligado, e estavam a fazer testes só recorrendo a cameras, ou estando ele ligado, algo no software não correu como esperado, e ai está aberto um manancial de argumentos técnicos que vão desde politicas de segurança activa e passiva, que neste contexto seria que tipo de condução é adoptada pelos algoritmos na deslocação do ponto A para o ponto B, e dado um perigo real de eminente colisão, qual é o padrão de condução e procedimentos de imobilização do veiculo que os algoritmos tentam seguir.
Só estes dois tópicos vão dar muito que falar entre os técnicos ligados à segurança e ligados ao motor de AI e as autoridades, isto se realmente querem as coisas bem esclarecidas claro.
Depois entramos ainda noutro campeonato, muito mais duro (a Liga dos Campeões). Sim, se se pensa que um carro autónomo a passear pelas ruas, cheio de sensores e com um brutal motor de AI, algo que em tempo real consegue recolher dados de varias fontes, “mastigar” todos esses dados, produzir acções em tempo real que respeitem, quer todo o código da estrada, quer seja (o carro) tanto ou mais seguro que a condução humana, quer promover maior eficiência na deslocação do ponto A ao ponto B, se isto ja parece, e é, super complexo, agora é “só” meter uma camada adicional em cima dessa complexidade e conceber todo o tipo de testes para tal sistema.
Sim, o “motor” de testes para tal sistema, se for desenvolvido seriamente, por gente competente, é bem mais complexo e mais moroso do que o próprio software a correr naqueles computadores.
Alias, ainda hoje em dia, que a AI está de novo na moda, e que a analise massiva de dados é ouro, a area mais pesada e mais complexa da ciência da computação, não são os algoritmos de AI, nem os seus novos desenvolvimentos, são os sistemas que testam e validam que o software faz realmente aquilo que é suposto fazer.
Acho bem… que passem a fazer os testes em locais onde a probabilidade de atropelar e matar é nula!
rsssrs “pode entrar se o cachorro morder eu bato nele”