Pplware

Éticos querem renovar as 3 Leis da Robótica

Há dois anos atrás, um robô militar usado no exército da África do Sul matou nove soldados devido ao seu mau funcionamento. No começo deste ano, uma fábrica sueca foi multada depois de um robô quase matar um dos seus trabalhadores (embora parte da culpa tenha sido humana).

Os robôs têm sido culpados por outras atitudes menores tais como responder insatisfatoriamente a um pedido. Atribuir a culpa no caso de um acidente que envolva robôs não é sempre linear. Então como prevenir problemas como estes?

Durante anos, as leis do autor de ficção científica Isaac Asimov imortalizadas na sua obra foram consideradas suficientes entre os entusiastas dos robôs. Mas, à medida que a complexidade das máquinas cresce, torna-se urgente uma reformulação das mesmas. As leis em si, são simples:

Cada uma destas leis tem precedência sobre as outras que lhes seguem, por isso, um robô não pode ser ordenado para matar um ser humano e tem de obedecer às ordens mesmo que isso resulte no seu próprio extermínio.

“Se se constrói inteligência artificial mas não se pensa sobre o seu senso moral ou de consciência que faz sentir o arrependimento ao fazer algo errado, então tecnicamente, criou-se um psicopata”, afirma Josh Hall, o cientista que escreveu o livro Beyond AI: Creating the Conscience of a Machine.

Enquanto os robôs se vão tornando mais sofisticados e integrados na vida humana, as leis de Asimov tornam-se demasiado simplistas, afirma Chien Hsun Chen, co-autor de um artigo publicado no International Journal of Social Robotics no mês passado. O artigo lançou uma discussão entre os especialistas em robôs, que afirmam ser altura de se discutir sobre estes dilemas éticos.

Os robo-éticos pretendem desenvolver um conjunto de linhas de orientação que possam estabelecer quando punir um robô, decidir quem os regula e até mesmo criar uma “linguagem máquina legal” que poderá ajudar a polícia da nova geração de dispositivos automáticos inteligentes.

Mesmo que os robôs não sejam inteiramente autónomos, existe necessidade de criar uma linha de responsabilidade pelas suas acções, afirma Leila Katayama, uma cientista de investigação na empresa de desenvolvimento robótico open-source Willow Garage. “Temos de saber quem carrega a responsabilidade quando algo corre ou não corre bem”, afirma. “Isso tem de ser muito transparente”.

Uma sociedade onde humanos e robôs co-existem poderá emergir por volta de 2030, afirma Chen no seu artigo. O aspirador-robô da iRobot, Roomba (ver vídeo) e o limpador de chão Scooba já fazem parte dos lares de mais de 3 milhões de americanos. A próxima geração de robôs será mais sofisticada e poderá fornecer serviços ligados à saúde, segurança, trabalhos domésticos e educação.

Estas máquinas terão a capacidade de tomar decisões independentes e de trabalhar com pouca supervisão. É por isso que, afirma Chen, já é altura de decidir o que regula os robôs. As regras para este novo mundo terão de esclarecer de que forma os humanos deverão interagir com os robôs e como estes se deverão comportar.

A responsabilidade pelas acções de um robô, hoje em dia, é simplesmente linear. “Até agora, a culpa pelo facto de algo funcionar mal é colocada sobre a forma como a máquina foi construída”, afirma. “Mas haverá um dia, no futuro, em que iremos construir máquinas tão complexas que já poderão tomar decisões e é para isso que devemos estar preparados”.

“As máquinas evoluirão até um ponto onde teremos, cada vez mais, que decidir se a culpa de algo correr mal é de quem desenhou a máquina ou na máquina em si”, afirma Hall.

As regras precisarão também de controlar a interacção social entre robôs e seres humanos, afirma Henrik Christensen, chefe de robótica no College of Computing do Georgia Institute of Technology’s. Por exemplo, o especialista em robótica Hiroshi Ishiguro criou um robô baseado no seu aspecto físico. “Agora estamos a confrontar-nos com a questão relativa a como se quer interagir com estes robôs”, afirma Christensen. “Dever-se-á ser simpático para uma pessoa e rude com o seu aspecto?. Tolera-se um pontapé num cão-robô mas dir-se-á aos filhos para não o fazer com um cão normal? Como explicar às crianças a diferença?”.

Christensen diz que a ética à volta do comportamento dos robôs e a interacção humana não é tanto a necessidade de proteger ambos, mas a de ter a certeza que o tipo de interacção que temos com os robôs é “o que está certo”.

Algumas destas linhas de orientação serão embutidas no código das máquinas, algumas tornar-se-ão parte do software e outras poucas irão requerer agências de monitorização independentes, afirmam os especialistas. Isso requererá a criação de uma “linguagem máquina legal”, afirma Chen, um conjunto de regras não verbais, partes ou mesmo por inteiro, embutidas nos robôs. Estas regras cobririam áreas como a usabilidade e ditariam, por exemplo, quão perto um robô se pode aproximar de um humano considerando as mais variadas circunstâncias, e linhas de segurança que que estaria de acordo com os nosso ideais actuais acerca do que está ou não está dentro da lei.

Mesmo assim, os esforços para criar um robô que possa interagir satisfatoriamente com seres humanos parecem não ser suficientes. “Temos tentado sumarizar o que entendemos por comportamento moral durante milhares de anos”, afirma Hall. “Mesmo que consigamos as linhas de orientação da robo-ética, o tamanho deste código “judicial” seria ainda pequeno. É impossível escrever a moralidade em termos formais”. Wired

Exit mobile version