Os carros autónomos estão prestes a chegar aos mercados em força e, embora seja uma tecnologia confiável, permanece sempre a questão: como reagirá um carro autónomo quando necessitar de tomar uma decisão ética?
Esta é de facto uma questão pertinente que muitos céticos levantam. Como reagirá o veículo autónomo quando, num caso extremo, tiver de tomar a decisão de poupar os passageiros ou poupar os peões?
As questões não se ficam por aqui. O veículo poderá ter mesmo de decidir em vários cenários reais, do dia-a-dia, que lhe serão propostos em variadíssimos momentos no tempo. Depositaremos as decisões de vida na consciência mecânica e na inteligência artificial?
Ao estudar o comportamento humano em vários ensaios realizados em realidade virtual, uma equipa da universidade de Osnabruck, Alemanha, tentou descrever a tomada de decisão humana num algoritmo.
O comportamento humano em situações de dilema pode ser modelado por um modelo bastante simples, do valor de vida atribuído pelo indivíduo para um ser humano, animal, ou inanimado
Referiu Leon Sütfeld da Universidade de Osnabruck, Alemanha.
Se analisarmos, os humanos são maus condutores, propensos a distrações, fúria no volante, condução com excesso de álcool e excesso de velocidade. Todos os anos existem 1,25 milhões de mortes em todo o mundo e cerca de 93% destes são causados por erro humano.
Sendo assim, é fácil de perceber que a condução autónoma será mais segura. Vários relatórios estimam que com os carros autónomos conseguiremos reduzir as mortes na estrada em 90%.
Dilema de Trolley
Numa viagem, um veículo está em direção a 5 pessoas e, para as salvar, terá de se desviar e atingir uma pessoa. Qual a decisão moral que o veículo deverá tomar? Que faria um humano nesta situação?
Com a utilização da realidade virtual, para simular uma estrada com má visibilidade num ambiente suburbano, o grupo de investigadores colocou um grupo de participantes num simulador que estava numa estrada de duas faixas. Uma variedade de obstáculos eram colocados, como seres humanos, animais e objetos. Em cada cenário, os participantes foram forçados a decidir o obstáculo a salvar e o obstáculo a sacrificar.
Em seguida, os investigadores usaram esses resultados para testar três modelos diferentes que prevêem a tomada de decisões:
- O primeiro modelo prevê que as decisões morais podem ser explicadas por um simples modelo do valor de vida, um termo estatístico que mede os benefícios de prevenir a morte.
- O segundo modelo assumiu que as características de cada obstáculo, como a idade de uma pessoa, desempenharam um papel no processo de tomada de decisão.
- O terceiro modelo previu que os participantes eram menos propensos a fazer uma escolha ética quando tiveram que responder rapidamente.
Agora que sabemos como implementar decisões éticas humanas em máquinas, nós, como sociedade, ainda temos um duplo dilema. Em primeiro lugar, temos que decidir se os valores morais devem ser incluídos nas diretrizes para o comportamento da máquina mas, se o forem, as máquinas funcionarão exatamente como seres humanos?
Questiona Peter Konig, um dos investigadores responsáveis pelo estudo.
Este é um problema que ocupará a sociedade nos próximos tempos. Estaremos nós preparados para ver alguma morte causada por um veículo autónomo?