Quando um Tesla em piloto automático mata alguém, quem é o responsável?
O tema é muito interessante, pois estamos a entrar numa nova era no que respeita ao conceito de condutor. Há uma discussão importante em volta da responsabilidade do condutor quando ativa o piloto automático no seu carro.
Caso haja um acidente e o sistema estiver ativo, quem será o responsável?
Se o Piloto Automático de um Tesla matar alguém, quem é o culpado?
O artigo que dedicou uma especial atenção ao tema debruçou-se sobre uma análise de um perito em direito da NYU, Mark Geistfeld, que examinou a primeira acusação criminal de um condutor usando um sistema de assistência ao condutor e o precedente legal que estabelece.
O caso ocorreu em finais de 2019, o carro de Kevin George Aziz Riad, de 27 anos, saiu de uma autoestrada da Califórnia, passou um sinal vermelho, e bateu contra outro carro, matando as duas pessoas. O carro de Riad, um Tesla Model S, estava no piloto automático.
Sobre Riad caíram duas acusações de homicídio involuntário por condução perigosa de veículo e de um acidente de viação fatal envolvendo um sistema de assistente ao condutor. Esta é também a primeira acusação criminal de um acidente a envolver a função de piloto automático de um Tesla.
Relembramos que existem, só nos EUA, mais de 750 mil carros Tesla. A família das vítimas do acidente está a instaurar processos civis contra Riad e contra a empresa de Elon Musk.
O que diz a Tesla sobre a responsabilidade do Piloto Automático?
Se virmos no site da empresa, a marca tem o cuidado de distinguir entre a sua função de piloto automático e um carro sem condutor, comparando o seu sistema de Autopilot (piloto automático) com a tecnologia que os pilotos de aviões utilizam quando as condições são claras.
O Autopilot, o Autopilot Aperfeiçoado e a Capacidade de condução autónoma total destinam-se a ser utilizados por um condutor totalmente atento, com as mãos no volante e preparado para assumir o controlo a qualquer momento. Embora estas funcionalidades tenham sido concebidas para se tornarem mais capazes ao longo do tempo, as funcionalidades atualmente ativadas não tornam o veículo autónomo.
A Tesla defende que os seus vários sistemas são um trabalho em progresso, tecnologias que se estão a especializar, a aperfeiçoar:
O piloto automático Tesla alivia os condutores dos aspetos mais tediosos e potencialmente perigosos das viagens rodoviárias. Estamos a construir o Piloto Automático para lhe dar mais confiança ao volante, aumentar a sua segurança na estrada, e tornar a condução na autoestrada mais agradável.
Enquanto os carros verdadeiramente sem condutor ainda estão a alguns anos de distância, o Tesla Autopilot funciona como os sistemas que os pilotos de avião utilizam quando as condições são claras. O condutor continua a ser responsável e, em última análise, a controlar o carro. Além disso, tem sempre acesso intuitivo à informação que o seu carro está a utilizar para informar as suas ações.
Refere a marca no seu site.
"A culpa não é nossa!!!"
O fabricante de veículos elétricos coloca claramente o ónus da segurança sobre o condutor, mas a investigação sugere que os seres humanos são suscetíveis de uma tendência para a automatização, uma confiança excessiva em ajudas automatizadas e sistemas de apoio à decisão.
Agora cabe aos tribunais decidir quem é culpado quando a utilização destes sistemas resulta em erros fatais.
Atualmente, Riad está em liberdade sob fiança e declara-se inocente das acusações de homicídio involuntário.
No ar ficam algumas questões cada vez mais pertinentes. Esta será uma que terá de ser respondida:
Que obrigação tem uma empresa de tecnologia avançada como a Tesla, ao informar os condutores, diretamente ou através de mensagens publicitárias, de que estes são responsáveis por todos os danos, independentemente de o carro estar em piloto automático?
Provavelmente não têm de ter essa responsabilidade, até porque está implícita no momento em que o condutor habilitado toma conta das ações do veículo. Contudo, têm claramente a obrigação de avisar a pessoa sentada no banco do condutor para assumir o veículo - de que não é capaz de fazer tudo sozinho.
E é um facto que se vê este aviso nos veículos Tesla e, na verdade, quase todos os veículos têm este tipo de aviso. Por exemplo, quando se usa uma função de mapa enquanto se conduz, muitos carros mostram um aviso: "Isto irá distraí-lo, preste atenção à estrada".
Além disso, os fabricantes também têm a obrigação de ter em mente o sentido de complacência que vem com a tecnologia de condução enquanto concebem o carro.
A Tesla ou qualquer outro fabricante não pode simplesmente dizer: "Ei, presta atenção, isto é da tua responsabilidade".
Na verdade, têm de tentar colocar algo na conceção para garantir que os condutores se mantêm atentos. Assim, vários fabricantes estão a adotar abordagens diferentes ao problema. Alguns carros estão a parar (e a tomar outras medidas complementares) se as mãos do condutor não estiverem no volante. Há ainda outros carros que têm câmaras que disparam sinais sonoros quando o condutor deixa de prestar atenção à estrada.
Diferença entre expectativa e realidade
No caso concreto dos Estados Unidos, ao abrigo da lei atual, se o condutor tiver um acidente e houver um aviso adequado (e se as tecnologias existentes tiverem os alertas suficientes para manter o condutor atento), o fabricante do carro não será responsabilizado.
Mas há aqui uma possível exceção: existe uma formulação da regra de responsabilidade que é bastante adotada em todo o país, incluindo na Califórnia, onde esta exceção terá lugar.
Basicamente a regra diz que o apurar de responsabilidades baseia-se no que os consumidores esperam que o fabricante faça. E as expectativas dos consumidores podem ser fortemente influenciadas pelo marketing e pela publicidade, entre outros fatores.
Por exemplo, se Tesla anunciasse que, com o piloto automático, nenhum carro da marca teria acidentes, e depois um consumidor tivesse um acidente, a Tesla seria responsável por ter frustrado estas expectativas.
Em resumo, atualmente o grande problema que fabricantes de veículos autónomos como a Tesla enfrentam é conseguir ganhar a confiança do consumidor quando estão a introduzir uma nova tecnologia no mercado. Se no início houver problemas de confiança, as tecnologias poderão nunca chegar a estágios mais maduros, porque ninguém as quer.
Este artigo tem mais de um ano
Estes automatismos são meras ajudas para o condutor.
– Quando um Tesla em piloto automático mata alguém, quem é o responsável?
Resposta: Quem vai ao volante do automóvel.
Não têm de quê.
+1
E para todos os efeitos o carro tambem gravou o que aconteceu pois por vezes há peões suicidas
Pq não limitam o autopiloto para velocidades baixas, exemplo, menos de 40 km por hora, ou até menos de 20 km /h, pra ser usado em situações de congestionamento e manobras?!
Claro que a culpa é do condutor! Vc constroi um telhado na sua casa e ele cai em alguém, a culpa é de quem, do telhado? Vc tá usando um computador e cria um projeto errado, a culpa é do pc? Vc atira em alguém, a culpa é da arma?
É muitas vezes nas “velocidades baixas” que ocorrem os atropelamentos, mesmo
os mortais. Muitas vezes não é o embate com o carro que provoca as piores consequências . A solução passa por não autorizar o condutor a tirar os olhos da estrada , recorrendo à tecnologia . Mas ainda assim sejamos muito honestos : se estamos com um auxílio à condução os nossos níveis de atenção e resposta diminuem automaticamente por relaxamento natural . Ainda assim e apesar de concordar que o condutor deve ser responsabilizado , temos de ter em conta que um sistema informático pode ter um bug que faça algo inesperado e nesse caso o condutor pode nem ter tempo de reagir . Portanto responsabilidade sim, mas após verificar que não houve alguma anomalia catastrófica no sistema
“Portanto responsabilidade sim, mas após verificar que não houve alguma anomalia catastrófica no sistema”
Vais no teu carro, ficas sem travões, provocas um acidente, de quem é a culpa? Tua.
Um pneu rebenta despistas-te provocas um acidente, de quem é a culpa? Tua.
És responsável pela manutenção e conservação do veiculo que conduzes ponto final.
Dani, muito obrigado pela resposta 🙂
assim evito de ler aquele texto enorme.
Se ficar provado que a responsabilidade do sinistro é do Tesla, estivesse ou não em piloto automático, responde a a cobertura de Responsabilidade Civil obrigatória da apólice que segura o Tesla.
Não é essa a questão neste tópico. Lê melhor.
Quando uma arma automática acidentalmente dispara de quem é a culpa? A) Do atirador; B) Do proprietário; C) do Fabricante; D) De Deus todo o poderoso que dotou alguns seres de inteligência e outros tantos de tão pouca…
De A, B e C,
Atirador – porque empunhava a arma
Proprietario – porque uma arma tem registo de propriedade e não deve ser emprestada e deve estar trancada num armeiro
Fabricante – caso seja provado que existia defeito que provocou o disparo acidental
Apenas Deus é ilibado de todas as acusações porque Deus não existe.
E se existisse também seria ilibado de todas as acusações porque o Homem tem livre-arbítrio.
😀 +1
Um dia irão retirar o volante e pedais. Depois a responsabilidade será atribuida ao fabricante ou à manutenção (ou falta dela) após investigação, como no caso dos elevadores…
A Tesla já retirou metade do volante no model S
Isso não é questão, nem é preciso pensar muito.
É o condutor
“Nim “. Você coloca o seu carro em modo automático , até vai com atenção à estrada, ele abranda quando vê um sinal vermelho e de repente , de forma inesperada acelera a fundo . Sente-se responsável? É preciso perceber que sim, temos de ser responsáveis mas até certo ponto . Se o seu carro novo em folha tiver uma avaria nos travões e por isso tiver um acidente, mesmo a 10 kms/h, ficará a pensar “não vou chatear o fabricante porque podia ter usado o travão de mão e não batia “ ?
Sentir-se responsável moralmente é uma coisa, ser responsável legalmente é outra.
O sistema em causa é uma ajuda a condução, não é obrigatório e, muito menos se ativa sozinho.
Isso n retira a responsabilidade do condutor.
A Airbus retirou a manche dos avioes substituindo por um joystick caso seja necessario. Em condicoes óptimas um piloto pode automatizar completamente o levante, a viagem e a aterragem. Em todo e qualquer momento a responsabilidade é do piloto.
Quando o teu cão está em piloto automático e ataca alguém, quem é o respossavel?
Resposta: D) De Deus todo o poderoso que dotou alguns seres de inteligência e outros tantos de tão pouca… Claro!!
A culpa é do usuário mas o mínimo que a Tesla podia fazer é dar um nome honesto à ferramenta porque está de longe de ser um auto piloto
Reparei no início do texto, face ao respetivo título. “O tema é muito interessante”!!!!
Fala-se em possível morte em… ” tema é muito … Interessante”????
Não compreendo bem esta introdução.
Caro Cláudio, o facto de ser interessante não tem a ver com a morte de alguém, mas sim o desafio de poupar muitas vidas no presente e no futuro.
Isto é sempre aquela base do copo meio cheio e meio vazio, por norma vemos o copo sempre meio cheio.
O tema torna-se interessante porque com a evolução destas tecnologias, o ser humano, o condutor, será obrigado a perceber/confiar de/na tecnologia, para usar os sistemas que o poderão ajudar. Acreditar não é depositar a confiança cega na máquina, é sempre confiar, desconfiando. Em última análise, o condutor é sempre o responsável, mesmo que lhe digam que tem uma máquina que tem sistemas para evitar acidentes.
Possivelmente o que falhou nesse acidente foi o condutor do Tesla ter confiado demais na máquina, confiado cegamente.
Autopiloto para carros só prejudica. Mesmo que o condutor vá atento, aquela fracção de segundo que o condutor espera ser o carro a tomar uma decisão em resolver pode ser suficiente para que haja um acidente. E sendo assim, serve para quê? A marca entrega o carro com essa função disponível e espera que todos sejam responsáveis e não a usem? Ou que ninguém se distraia com outra coisa qualquer enquanto o carro conduz? É o mesmo que entregar uma garrafa aberta de vinho a um alcoólico e esperar que ele nem o prove.
Espera que o carro tome decisão? Ao contrario de humanos o carro toma a decisao no instante em que a detecta. Num sinal vermelho ele imediatamente comeca a perder velocidade lentamente e aparece sinalizacao no computador de bordo a justificacao.
Se um condutor quer dormir, mandar mensagens ou ler o jornal enquanto conduz é pura irresponsabilidade do condutor.
E nao é entregar garrafas abertas a alcoólicos é ter publicidade de alcool a frente de um alcoólico.
O meu carro tem assistencia de condução. Mantem se na via usando as marcacoes (virando volante), cruise control mais distancia do carro em frente. Ou seja em auto estrada ou para arranca nem sequer tenho de me preocupar com nada que ele conduz sozinho. Tiro os olhos da estrada? Nao. Talvez mexa no tlmv enquanto estou parado. Pois ele arranca assim que o da frente avança… Mas olho sempre quando ele esta em movimento. Se ele arrancar e tiver uma pessoa em frente e atropela la… É responsabildiade minha.
No caso referido neste artigo o carro não abrandou. Passou o sinal vermelho e ceifou duas vidas. Não sabemos se o condutor ia a dormir ou o que tenha levado o carro a ignorar que ali havia um cruzamento com um sinal que estava no vermelho. Podemos especular que caso o condutor fosse atento, parasse no sinal. Devem circular centenas de clips com falhas de sistema de autopilot, muitos dão em despiste mas a maioria são o condutor quem consegue corrigir a tempo o erro do carro.
Foi uma comparação algo estúpida da minha parte mas comparei o carro com a garrafa de vinho, não posso comparar com uma publicidade. O cliente compra um carro com esta função, é mais que natural que a queira testar, nem que seja para ver se funciona. Bem ou mal. Mas se não estiver ainda mais atento que num carro sem autopilot, o carro pode pregar-lhe uma partida e dar raia.
Mas uma pessoa pode testar. É normal querermos testar estas coisas. Mas tal como um cruise control com distance control e lane assistant temos de continuar a olhar para a estrada.
A tesla exige maos no volante para sinalizar a responsabilidade do condutor. No momento em que pessoas dormem com a mao no volante ou metem sacos com peso no volante para simular maos estao a ter atitudes perigosas. Neste caso possivelmente foi um deles. La por o carro funcionar assim nao quer dizer que seja esse o esperado funcionamento
Não exige mãos no volante, podes ver imensos clips onde os condutores vão com as mãos nas pernas ou nos joelhos. Tenta ver esta reportagem recente a beta testers do FSD:
https://www.cnbc.com/2022/02/15/tesla-fsd-beta-users-show-cnbc-how-the-system-works-and-doesnt.html
É barraca atrás de barraca. Ok, é software beta em testes e não a versão final, mesmo assim é um perigo e a versão final não é por aí melhor. E deves saber que a maioria das pessoas são inconscientes e irresponsáveis ainda que possam estar convictas do contrário. Compram isto e acreditam ter um Kitt melhorado, mas não é assim. Talvez um dia seja mas não será ainda nesta década. Para já o FSD é um perigo e muito mais stressante que conduzir sem esse tipo de “ajuda”, porque o condutor nunca sabe quando o carro vai fazer a próxima asneira mas tem que contar que uma asneira fará.
O carro pede constantemente as maos no volante. Sim podes tirar por momentos. Mas aparece o pedido para confirmar que estamos atentos e para termos a mao no volante.
Agora a questao de ainda nao estar aperfeicoado. As pessoas pensam que quando algo é inventado tudo é perfeito. Nao. As coisas têm de ser inventadas. Testadas e so apos mts anos de uso é que as coisas sao aperfeicoadas.
Pedir pode ser que sim, mas não desliga o FSD caso o condutor mantenha as mãos fora do volante. Pelo que percebi, o FSD só é desligado nos modelos com camera interior e quando esta detecta que o condutor não está a olhar em frente e para a estrada por um período de tempo maior. Por ex se fica a olhar para o tablet ou para o telemóvel. Tentaram tapar a camera no documentário que deixei e levaram imediatamente um strike, eventualmente após X números de strikes perdem acesso a ser beta testers ou quiçá o FSD deixe permanentemente de funcionar para quem use a versão final, isso já não sei.
Como disse, um dia lá chegará em que os carros não trazem volante e os bancos da frente possam até ser virados para trás… Mas não será nos tempos mais próximos. Por enquanto, já não basta o condutor seguir atento às asneiras dos outros, tem que estar muito mais atento às asneiras do seu próprio carro quando usa o FSD.
Isto é uma questão um tanto complexa.
Vamos ver, o autopilot requer que estejamos atentos à estrada e preparados para intrevir caso seja necessário.
Agora pode existir na minha opinião duas situações com o autopilot activo:
O condutor está desatento e nem fez nada para impedir, ai nesse caso tem culpa.
Agora o condutor está atento, tenta fazer de tudo para evitar o acidente mas mesmo assim o sistema falha e causa o acidente, ai penso já ser culpa de terceiros.
Porque mesmo num carro normal, se tiveres um acidente por causa de por exemplo um pneu arrebentar ou falha de travões (supondo que o condutor tenha revisões em dia) é culpa do condutor?
Aqui só muda o facto de haver ou não autopilot.
Agora tem de se provar se o condutor negliscenciou ou não a situação.
“Porque mesmo num carro normal, se tiveres um acidente por causa de por exemplo um pneu arrebentar ou falha de travões (supondo que o condutor tenha revisões em dia) é culpa do condutor?”
A resposta é simples, sim, a culpa é do condutor.
“Agora o condutor está atento, tenta fazer de tudo para evitar o acidente mas mesmo assim o sistema falha e causa o acidente, ai penso já ser culpa de terceiros.”
É um sistema auxiliar que nem sequer é obrigatório os carros virem equipados com tal coisa, tal como por exemplo os sensores de estacionamento, são auxiliares de condução, se não funcionarem bem e bateres a fazeres a manobra achas que te livras de ser culpado?
Depende se o sistema de erro, por erro entenda-se exclusão de qualquer possibilidade do condutor intervir. Se deu erro é culpa da Tesla se não é culpa do condutor.
Os travoes e o volante sao mecanicos. Ptt em caso de falha absoluta o condutor consegue sempre travar ou desviar se… A nao ser que haja fuga de oleo dos travoes ou dano critico da coluna de direccao. Ptt 99% dos erros podem ser intervidos pelo condutor
Elon Musk
Código Civil Português:
ARTIGO 503º
(Acidentes causados por veículos)
1. Aquele que tiver a direcção efectiva de qualquer veículo de circulação terrestre e o utilizar no seu
próprio interesse, ainda que por intermédio de comissário, responde pelos danos provenientes dos
riscos próprios do veículo, mesmo que este não se encontre em circulação.
2. As pessoas não imputáveis respondem nos termos do art. 489º.
3. Aquele que conduzir o veículo por conta de outrem responde pelos danos que causar, salvo se
provar que não houve culpa da sua parte; se, porém, o conduzir fora do exercício das suas funções
de comissário, responde nos termos do nº 1.
De nada…
Já agora…
ARTIGO 505º
(Exclusão da responsabilidade)
Sem prejuízo do disposto no artigo 570º, a responsabilidade fixada pelo nº 1 do artigo 503º só é
excluída quando o acidente for imputável ao próprio lesado ou a terceiro, ou quando resulte de
causa de força maior estranha ao funcionamento do veículo.
Se eu ligar o Cruise Control do meu BMW (que existe desde pelo menos os anos 2000) e tiver um acidente, a culpa não é minha? Porque agora haveria de ser diferente?
A responsabilidade deve ser sempre do condutor. Se houver uma falha técnica que cause o acidente, aí depois é uma guerra em tribunal e pode até nem ser fácil provar que houve falha técnica caso o carro tenha ficado destruído. Mesmo que tudo tenha ficado gravado em vídeo e “caixa negra” do carro, o construtor só não delega responsabilidade para o condutor se não puder. O mal neste caso e ao contrário do controle de cruzeiro que é uma boa ajuda, é que o autopilot é um sistema que está longe de ser bom ou confiável. Bem pelo contrário. Aqui tens um caso em que passou um sinal vermelho, em Dezembro também aqui foi notícia outro que atravessou uma linha contínua numa estrada bem sinalizada e só não colidiu de frente com outro carro porque o condutor desviou a tempo, mas não evitou o despiste. No máximo dos máximos, o autopilot só devia funcionar em autoestradas e apenas na faixa mais à direita. E mesmo assim…
Elon Musk… Quem mais?
Não percebo a questão filosófica que o título quer imprimir.
Se for um carro banal e atropelar mortalmente alguém, quem é o culpado? A pergunta é igual…
No caso de ser um carro com condução autónoma, o veículo há de ter um prioritário que é o responsável por ele, e, em caso de atropelamento, impõeem-se as perguntas habituais no caso de um acidente…
Ainda assim, é um assunto tão válido como qualquer outro!
Isso porque não leste mais que o título, e é uma pena, o assunto é realmente muito interessante. Até porque em determinado ponto fica essa mesma questão “O fabricante de veículos elétricos coloca claramente o ónus da segurança sobre o condutor, mas a investigação sugere que os seres humanos são suscetíveis de uma tendência para a automatização, uma confiança excessiva em ajudas automatizadas e sistemas de apoio à decisão.
Agora cabe aos tribunais decidir quem é culpado quando a utilização destes sistemas resulta em erros fatais.”
A decisão cabe aos tribunais, até porque apesar de parecer que é fácil, que a culpa é do condutor, a lei também diz que:
“se o condutor tiver um acidente e houver um aviso adequado (e se as tecnologias existentes tiverem os alertas suficientes para manter o condutor atento), o fabricante do carro não será responsabilizado.
Mas há aqui uma possível exceção: existe uma formulação da regra de responsabilidade que é bastante adotada em todo o país, incluindo na Califórnia, onde esta exceção terá lugar.
Basicamente a regra diz que o apurar de responsabilidades baseia-se no que os consumidores esperam que o fabricante faça. E as expectativas dos consumidores podem ser fortemente influenciadas pelo marketing e pela publicidade, entre outros fatores.
Por exemplo, se Tesla anunciasse que, com o piloto automático, nenhum carro da marca teria acidentes, e depois um consumidor tivesse um acidente, a Tesla seria responsável por ter frustrado estas expectativas.”
É verdade que num primeiro relance parece fácil a decisão, mas começamos a entrar num novo mundo quer da tecnologia quer na responsabilidade dessa tecnologia (quem a produz ou quem a usa) no dia a dia.
Basicamente será algo que iremos presenciar mais de agora em diante 😉
Vítor,
Na verdade li, porque gosto de o fazer, especialmente, quando me dou ao trabalho de comentar!
Não discordo em nada do que escreveu. Diria que, provavelmente, só discordo mesmo do sensacionalismo do título.
Aprecio e agradeço a sua argumentação. É sempre enriquecedora, quando acontece de forma respeitosa.
Abraço
Eu percebo o tema que se tenta lançar. Mas isso é a criação de um problema a la americana.
Lá, em alguns estados, é obrigatório ter o aviso nas garrafas de lixivia pura que nao podemos beber aquilo.
Esta discussao é apenas levantada porque seguros querem despejar responsabilidades.
A Airbus trocou a manche por um joystick e é possivel levantar voo, fazer a viagem e aterrar apenas com programação do piloto automático sem tocar no joystick (à excepcao de testes enquanto está em terra).
Uma coisa é um anúncio de que algo funciona de forma autonoma. Os teslas assim como outros carros com sistemas semelhantes obrigam a dizer OK a que é um sistema que necessita supervisao permanente.
A responsabilidade por excesso de confiança continua a ser do condutor. Por exemplo um mercedes topo de gama é bastante seguro ate velocidades de 180km/h (bem mais do que o meu antigo chaço velho a 120km/h) mas isso n me habilita ir a 180 e depois culpar a mercedes por fazer um carro seguro.
A expectativa de um cliente nao serve de nada para decidir responsabilidades. Se assim o for estamos a dar cartas de condução a adultos com capacidades de decisao de uma criança de 10 anos. E por algum motivo uma crianca de 10 anos nao pode tirar a carta.
E esta frase
“se Tesla anunciasse que, com o piloto automático, nenhum carro da marca teria acidentes, e depois um consumidor tivesse um acidente, a Tesla seria responsável por ter frustrado estas expectativas.”
Nao existe qualquer marca que se mete neste buraco juridico. Podem dizer que nunca tiveram acidentes e é estatisticamente improvável. E se uma pessoa teve o acidente nao pode reclamar… Porque também é estatisticamente improvavel sair o euromilhoes no entanto as pessoas continuam a jogar.
Estas discussoes sao só as seguradoras a ver se escapam… Até haver uma viatura com um sistema 100% autonomo (e ja ha algumas por aí) nao podem culpar o sistema… Apenas o condutor.
A culpa é de quem estiver no lugar do condutor. Isso não é discutível. Passa a ser do fabricante apenas caso haja provas claras de que o condutor tentou evitar o acidente mas o carro não respondeu como o pretendido porque o Autopilot (ou outro sistema de condução automático) interferiu negativamente.
Todos os equipamentos têm um proprietário que os usa ou os empresta.
Em última instância o responsável será sempre o proprietário. Se este identificar alguém que o tenha usado e provocado o dano pode responsabiliza-lo, nos limites da lei.
Se foi usado de forma indevida e sem a sua autorização tem de o provar e mostrar que diligenciou para a sua recuperação.
Penso que todas as opções estão cobertas pela resposta.
OBS: não percebo o porquê deste publicação estar constantemente a colocar noticias negativas, associadas à Tesla: Por pura maldade, desconhecimento ou ignorância?
Há pilotos automaticos em quase todas as marcas, há acidentes e problemas em todas as marcas. Nao consigo identificar nestas noticias nenhuma intenção isenta de transmitir conhecimentos.
Desculpem-me, mas só têm a ganhar com a imparcialidade.
A culpa é do dono que é otário e da Tesla que vende gato por lebre! Ora citando o que está no artigo “O Autopilot, o Autopilot Aperfeiçoado e a Capacidade de condução autónoma ….não tornam o veículo autónomo.” portanto é autonomo, mas não é autonomo! É como dizer “esta maçã, na realidade é uma laranja…”
Chamar Autopilot é um golpe de marketing incrível, mas o carro é tudo menos autonomo… Tem salvo erro capacidade de condução autonoma de nivel 2, e deveria ter sistemas que desliguem caso o condutor se mantenha demasiado “ausente”, nesse aspecto consigo encontrar ainda mais responsabilidade dos lados da Tesla…
Não foram eles que criaram uma fabrica em que não era necessarios humanos e virou flop??? Se uma fabrica a coisa não funciona, em que há movimentos repetitivos, vai funcionar condução em que tudo é “novo” a toda a hora?
“… deveria ter sistemas que desliguem caso o condutor se mantenha demasiado “ausente”,…” Tem e funcionam mesmo dessa maneira. Só contrariados pela “chica-esperteza de alguns é que têm comportamentos anormais.
Mesmo a Condução autónoma total (FSD) é comercializado como extra (um dos poucos extras) e numa versão Beta (o que significa não definitiva).
Na Europa a condução autónoma, em qualquer marca é proibida.
Os sistemas de radar ou identificação de imagens (como no caso da TESLA) são ajudas preciosas na condução, são mais “olhos” na estrada que permitem dispersar a atenção sem reduzir a concentração.
São normalmente mal utilizados e alvo de conversas paralelas muitas vezes por quem não conhece os sistemas (repórteres). Apenas falam do que viram ou ouviram dizer.
Só serve para “ódios” e desinformação, como já o tinha referido noutro comentário.
Conduzir um carro com estes sistemas, para quem tem Dinheiro para os comprar, cumprimdo o código da estrada, circula muito mais seguro.
Desejo que todos, num futuro próximo possam desfrutar destas ajudas nos vossos próprios veículo.
Eu sei o que significa Beta… E a meu ver é só ridículo vender algo que ainda está em teste, porque depois quem usa é tester… E alguém que vá na rua ainda vira bug…Aqueles bugs que ficam colados nos carros quando andamos na auto-estrada por exemplo….
So ha dois culpados possiveis, ou o condutor ou defeito de fabrico. O carro so provoca acidentes porque alguem o colocou a trabalhar. Agora se a eficacia das tecnologias nao sao o suficiente para garantir seguranca para quem quer relaxar mais na conducao, isso e discutivel em tribunal.
Nem é assim tão discutível, se tiveres dois carros em que um deles o sistema de controlo de tração é mais eficaz que no outro e caso tenhas acidente com o pior, vais para tribunal com a marca porque até tens um carro que tem um melhor sistema de controlo de tração?
O meu golf tem um sistema de deteção de sinais que por vezes falha, diz que é 90kmh em limites de 50kmh. Se for multado posso culpabilizar a VW?
Quando um Cabrita conduzido por um motorista mata alguém, quem é o responsável?
tao facil
A culpa foi de que o criou