Pplware

Veículos Autónomos conseguirão tomar decisões?

Os carros autónomos estão prestes a chegar aos mercados em força e, embora seja uma tecnologia confiável, permanece sempre a questão: como reagirá um carro autónomo quando necessitar de tomar uma decisão ética?

Esta é de facto uma questão pertinente que muitos céticos levantam. Como reagirá o veículo autónomo quando, num caso extremo, tiver de tomar a decisão de poupar os passageiros ou poupar os peões?


As questões não se ficam por aqui. O veículo poderá ter mesmo de decidir em vários cenários reais, do dia-a-dia, que lhe serão propostos em variadíssimos momentos no tempo. Depositaremos as decisões de vida na consciência mecânica e na inteligência artificial?

Ao estudar o comportamento humano em vários ensaios realizados em realidade virtual, uma equipa da universidade de Osnabruck, Alemanha, tentou descrever a tomada de decisão humana num algoritmo.

O comportamento humano em situações de dilema pode ser modelado por um modelo bastante simples, do valor de vida atribuído pelo indivíduo para um ser humano, animal, ou inanimado

Referiu Leon Sütfeld da Universidade de Osnabruck, Alemanha.

Se analisarmos, os humanos são maus condutores, propensos a distrações, fúria no volante, condução com excesso de álcool e excesso de velocidade. Todos os anos existem 1,25 milhões de mortes em todo o mundo e cerca de 93% destes são causados por erro humano.

Sendo assim, é fácil de perceber que a condução autónoma será mais segura. Vários relatórios estimam que com os carros autónomos conseguiremos reduzir as mortes na estrada em 90%.

 

Dilema de Trolley

Numa viagem, um veículo está em direção a 5 pessoas e, para as salvar, terá de se desviar e atingir uma pessoa. Qual a decisão moral que o veículo deverá tomar? Que faria um humano nesta situação?

Com a utilização da realidade virtual, para simular uma estrada com má visibilidade num ambiente suburbano, o grupo de investigadores colocou um grupo de participantes num simulador que estava numa estrada de duas faixas. Uma variedade de obstáculos eram colocados, como seres humanos, animais e objetos. Em cada cenário, os participantes foram forçados a decidir o obstáculo a salvar e o obstáculo a sacrificar.

Em seguida, os investigadores usaram esses resultados para testar três modelos diferentes que prevêem a tomada de decisões:

Agora que sabemos como implementar decisões éticas humanas em máquinas, nós, como sociedade, ainda temos um duplo dilema. Em primeiro lugar, temos que decidir se os valores morais devem ser incluídos nas diretrizes para o comportamento da máquina mas, se o forem, as máquinas funcionarão exatamente como seres humanos?

Questiona Peter Konig, um dos investigadores responsáveis pelo estudo.

Este é um problema que ocupará a sociedade nos próximos tempos. Estaremos nós preparados para ver alguma morte causada por um veículo autónomo?

Via

 

Leia também:

Exit mobile version