Carros autónomos: a falha que ninguém esperava está na cabeça dos condutores
A promessa da condução autónoma pode estar a ignorar o elo mais fraco: a psicologia humana. Sim, o problema poderá ser humano, neste serviço para.... humanos!!!
Carros autónomos tem um preço escondido
É curioso que vemos o mundo a dar passos largos para trazer ao comum mortal os carros que irão conduzir-nos do ponto A ao ponto B. Aliás, a indústria automóvel promete que os veículos autónomos tornarão as estradas mais seguras, eliminando os erros humanos da equação.
Contudo, uma investigação recente revela que o verdadeiro problema não está na tecnologia em si, mas na forma como esta interage com o comportamento humano. Ronald McLeod, Professor Honorário de Psicologia da Engenharia na Universidade Heriot-Watt, explica no seu livro "Transitioning to Autonomy" que existe uma falha de comunicação crítica entre os sistemas de condução autónoma e os seus utilizadores.
Muitos condutores sentem-se desconfortáveis ao entregar o controlo a um sistema que toma decisões por eles. O problema agrava-se quando a interface do carro não consegue transmitir claramente o que está a acontecer ou o que vai acontecer a seguir, criando uma sensação de incerteza permanente.
Quando a tecnologia falha em explicar-se
A questão torna-se evidente em situações críticas: o surgimento súbito de um obstáculo ou peão pode espoletar uma reação inesperada do veículo, deixando o condutor como mero espetador sem capacidade de antecipar a resposta do sistema. Esta imprevisibilidade mina a confiança na tecnologia.
Nem gigantes como a Tesla conseguiram resolver o problema. A marca acumula várias investigações após acidentes graves envolvendo sistemas Autopilot e Full Self-Driving (FSD) ativados.
Além disso, a própria empresa recomenda que os condutores estejam preparados para retomar o controlo caso detetem falhas no sistema, uma admissão tácita de que a autonomia total ainda não existe.
O passageiro ansioso no lugar do condutor
Esta situação coloca os condutores numa posição psicologicamente desgastante. McLeod descreve-a como uma "tarefa de vigilância": os condutores não podem relaxar verdadeiramente, mantendo-se em estado de alerta constante para eventuais falhas do sistema.
Esta vigilância permanente gera fadiga mental e, paradoxalmente, reduz o tempo de reação em emergências, precisamente quando mais seria necessário.
O stress cognitivo é real e mensurável. Os condutores oscilam entre confiar demasiado no sistema (perdendo atenção) ou desconfiar excessivamente (anulando os benefícios da automação), nunca encontrando um equilíbrio confortável.
O caminho para carros autónomos verdadeiramente inteligentes
A solução passa por repensar a tecnologia com foco no ser humano. Abordagens como o Human-in-the-loop (HITL), que integram feedback humano direto no desenvolvimento de sistemas de IA, representam um caminho promissor.
O livro de McLeod defende a criação de interfaces centradas nas necessidades psicológicas dos utilizadores, não apenas nas capacidades técnicas dos veículos.
Enquanto a indústria não compreender que conduzir não é apenas um problema de engenharia, mas também de psicologia humana, os carros autónomos continuarão a ser uma promessa incompleta, tecnologicamente avançados, mas humanamente inadequados.






















É este o AVISO do Manual do Tesla Model 3 sobre o FSD (supervisionado):
“O FSD – Direção Totalmente Autónoma (Supervisionado) requer que você preste atenção à estrada e esteja pronto para assumir a todo o tempo. Fique atento, esteja atento às condições das estradas e ao tráfego ao redor, preste atenção aos pedestres e ciclistas e esteja sempre preparado para tomar medidas imediatas (especialmente em curvas fechadas, cruzamentos de cruzamentos e em vias estreitas). O não cumprimento destas instruções pode causar danos, ferimentos graves ou morte. É sua responsabilidade familiarizar-se com as limitações de FSD (Supervisionado) e as situações em que pode não funcionar como esperado. Para mais informações, consulte Limitações e Avisos.”
É aviso bem real, não é um problema de psicologia, na cabeça dos condutores.
Pareceu-me que não leu o artigo, ou então não o quis entender. Obrigado por citar o manual da tesla relativamente ao FSD.
A Tesla lançou o sistema de “condução completamente autónoma”, o FSD, a que depois acrescentou supervisionado, devido aos processos judiciais e aos reguladores, que consideram o nome publicidade enganosa.
Na Europa ainda não foi homologado – pode ser vendido, mas com funcionalidades desativadas.
É o melhor a que a Tesla chegou, mas ainda não passou do nível 2 de automação – que exige que se vá atento à estrada, com as mãos no volante, pronto para assumir a condução a qualquer momento.
Mas qual é o grande problema? É psicológico – os condutores têm dificuldade em se adaptar a esta maravilha da tecnologia e só a usam debaixo de grande stress, enquanto outros aproveitam para bater uma soneca 😉
Quais usam para bater uma soneca ?
Depende do sistema acompanhar ou não os olhos do condutor. No julgamento de agosto de 2025, a Tesla foi condenada a pagar 33% da indemnização (de 329 milhões de dólares), num caso, de 2019, em que o condutor se baixou para apanhar o telemóvel que caiu – chocou com um carro de que resultou um morto e um ferido grave. Um dos motivos para o júro considerar que a Tesla tinha parte da responsabilidade foi, ao contrário de concorrentes, não ter ainda nessa altura desenvolvido um sistema com uma câmara que acompanhasse os olhos do condutor.
Outro caso que mereceu grande destaque foi, numa autoestrada alemã, um bêbado a dormir, com pesos no volante para simular os toques no volante.
Portanto nenhum.
Enfim o MAX, ou melhor Aves no seu melhor, copy paste da net e siga para bingo…
Tenham juizo carros a combustao sao o futuro, estas mariquices de nerd nunca conseguira ter sucesso nas pessoas normais…os nerds do linux em 20 anos estarao extintos
Tenha juízo, o que isto tem a ver com carros a combustão ou outros ?
O receio deste sistema por parte dos humanos, deve-se ao simples facto de ter sido criado por eles… onde há humanos, há erros.
O que acontece se o carro em modo autónomo de condução tiver um acidente? quem é o responsável? O carro? ou o Condutor que entregou o controlo ao carro?
Foi o outro…
Como já vimos em casos recentes: ninguém. É “Ups better luck next time”.
O fabricante.
Mas praticamente só tens Waymo, o resto está muito atrasado
Como já disse por aí, o grande problema dos sistemas autónomos é q não têm poder de antecipação, faculdade apenas ao alcançe de um condutor humano experiente.
Também é verdade.
Finalmente disseste uma verdade relativamente ao mundo automóvel…
Mas também não deixa de ser verdade que isso seja por agora.
Eu tenho um dos meus carros com o sistema Lidar, que trava se perceber que vamos bater!
O sistema tem muito boas intenções e até assusta quando entra em funcionamento, mas há alturas em que só atrapalha, como quando estou a fazer tangentes a paredes ou a estacionar perto dos outros carros!!!!
E há outro que nunca vivi, mas posso ter de o fazer. Se alguém tentar barrar-me a estrada para um assalto ou carjaking, o carro impedir de eu bater num obstáculo, humano ou outro, pode ser um problema!!!!!!
Os carros deveriam ter um botão para desligar estes sistemas automáticos, tal e qual como fazem na aviação!
Aliás, já que falamos na aviação, muitas das quedas dos aviões, ultimamente, até se devem a sistemas automáticos que fazem asneiras (caso do Boeing 777).
Está, então, explicado o porquê de tantos acidentes (Alguns com mortalidade) com este tipo de sistema…