Inteligência Artificial vai passar a ser regulamentada na União Europeia
A Inteligência Artificial é hoje usada para os mais diversos fins. Ao contrário do que acontecia há uns anos, onde o software era "estático", com a Inteligência Artificial e outras tecnologias, o software tem a capacidade de aprender e até tomar decisões.
O Parlamento Europeu (PE) aprovou recentemente um pacote de novas iniciativas legislativas que visam uma maior regulamentação da Inteligência Artificial (IA) na União Europeia (UE), de maneira a assegurar que a tecnologia respeita princípios éticos e de confiança.
Inteligência Artificial deve ser antropocêntrica e antropogénica
O Parlamento Europeu aprovou um conjunto de medidas que visam regulamentar a Inteligência Artificial na UE. De acordo com o que foi aprovado, o PE reforça que a IA deve ser "antropocêntrica e antropogénica (centrada no, e produzida pelo, ser humano)".
Segundo o comunicado do próprio parlamento, os eurodeputados aprovaram três iniciativas que preveem novas regras no domínio da IA em "matéria de ética, responsabilidade e direitos de propriedade intelectual". O PE realça ainda a necessidade de as tecnologias "de alto risco" decorrentes da IA - como a tecnologia de autoaprendizagem, que inclui, por exemplo, a condução autónoma - serem "concebidas de forma a permitir a supervisão humana a qualquer momento".
Se uma funcionalidade utilizada puder constituir um sério compromisso dos princípios éticos e tornar-se perigosa, a capacidade de autoaprendizagem deve ser suspensa e retomado o total controlo humano
Stéphane Séjourné, um dos relatores de uma das iniciativas legislativas aprovadas, refere também que o reconhecimento facial como outras ferramentas precisam de maior legislação.
A utilização do reconhecimento facial pelos smartphones é uma boa ferramenta quando funciona, mas pode levar a certas derivas, nomeadamente quando utilizada por Estados autoritário.
Cabe agora à Comissão Europeia apresentar uma proposta legislativa sobre a IA, que está prevista para 2021. O PE encontra-se reunido em sessão plenária esta semana, numa sessão que está a ser feita por videoconferência devido à pandemia de COVID-19.
Leia também...
Este artigo tem mais de um ano
Estou curioso por ver os resultados. Será que vão permitir que a IA continue a funcionar em modo black box? Será que na referida condução autónoma vão atribuir responsabilidade pelas acções ao condutor ou à IA? E a responsabilidade da IA cai sobre quem? O programador?
No sentido da condução autónoma, o código de estrada terá de responsabilizar o condutor, já que é o dono do veículo e é ele que inicia e pára a marcha ( exceptuando os modos de táxi, auto-park e auto-sair-da-garagem (lol) , que terão de ser contemplados no dito código ). A IA para ser responsabilizada teria de ser reconhecida como uma pessoa ou como uma entidade legal (?), que é coisa que não estou a ver. A responsabilidade do programador ou empresa, é algo a ver com mais detalhe, até porque se a IA aprende sozinha, o programador deixa de ter mão no estado atual do produto. Estar a responsabilizar o fabricante de uma peça de software e/ou hardware equivale a abrir um precedente do género: “um tipo com uma moto-serra cortou os braços”; fez mau uso ou, uso inseguro da ferramenta. No caso de uma IA que auto-aprenda, eu poderia equivaler a responsabilidade legal que os pais têm quando uma criança comete um crime. Se a criança/IA não aprendeu, ou o conjunto de “valores” que ambos possuem, está na responsabilidade do pai/dono da ferramenta inteligente tomar uma atitude quanto a isso.
Quando digo responsabilizar a IA, estou a falar na pessoa a quem esta se possa imputar.
A IA aprende sozinha de acordo com aquilo que o programador predefiniu. Se um carro ativar, por defeito, o ABS ou outra ajuda (quando não devia) e provocar um acidente, a culpa é do condutor ou da empresa? A condução autónoma (ou IA) é só uma extensão dessas ajudas, atualmente, generalizadas e nem considero que haja sequer limite entre elas. Mas quem é o “pai” da IA? Quem a produziu ou quem a comprou?
Se o software dos carros for atualizado, como é, do tipo “as service” e o condutor não tiver controlo sobre o mesmo sendo passivo, o carro pode ter um dono, mas o software tem outro proprietário.
Se a bateria de um iPhone ou Samsung inchar e rebentar, pegar fogo e propagar-se morrendo pessoas, a culpa é do utilizador ou da marca?
Foi falha de uso ou falha de concepção?
As coisas não são lineares, dependerá da situação.
É a regulamentação que é necessária, contemplando as diversas situações, mas como se percebe não é uma matéria consensual.
Sim, no caso dos carros pelo menos a Tesla e a Google assumiam sempre a despesa (mesmo que não tivessem culpa, arrumavam o caso). Presumo que seja uma das medidas embora aqui estejam a pensar mais á frente, parece me que aqui já estão a referir se aos cães robô da Boston ou a pensar em algo mais avançado ainda.
Sim, essencialmente o carro autónomo, poderia ser considerado um auto-robô ( indirecta aos Autobots heheheheh ), na medida que pode desempenhar tarefas sem supervisão do condutor. Mas acredito que o fluxo de responsabilidade teria de ser visto caso a caso. Se o condutor não tinha as mãos no volante para evitar um acidente ou se estava a jogar Tetris então é da responsabilidade do condutor em ultima instância. Em caso de perigo iminente, se o condutor estava a querer recuperar o controlo manual do veículo e a IA considerar que ele estava bêbado o suficiente para negar o controlo ( mas na realidade sóbrio o suficiente para pelo menos desviar-se ou travar ) e no fim aconteceu um acidente, aí a responsabilidade, penso que pode ser movida parcialmente para a empresa, quando se provar que de facto existiu a tentativa de evitar o acidente mas que o software negou essa tentativa.
A IA pode, e certamente já está a ser aplicada em robôs militares. Contudo, dar o poder à máquina sem um botão para desligar ou um mecanismo na programação, Leis da Robótica de Asimov, é dar azo a que a máquina tenha “poder” para se virar contra os humanos ( cenário Matrix ou Skynet ). Contudo, as Leis de Asimov, poderão ser intepretadas de outra forma, caso a IA ser avançada o suficiente para interpretar ( cenário I, Robot ) que tem de nos proteger de nós próprios…
Em todo o caso, em minha opinião, deverá ser colocado sempre um mecanismo manual, facilmente acessível e mecânico ( não digital, que a própria IA seja programada para tratar esse componente como uma peça vital para o funcionamento do hardware ) que possa invocar a auto-destruição de todo software responsável pela condução e forçar o abrandamento e/ou paragem do harware. Falha em desenvolver destes mecanismos, resultaria na não adopção do mercado e/ou responsabilização indirecta de acidentes.
A IA precisa de ser regulamentada em todo o seu âmbito.
Para responder a essa pergunta, pode dar-se o exemplo dos carros com cruise-control não adaptativo, daqueles que mantêm a velocidade do carro sem que haja controlo sobre a distância ao carro da frente. Ou seja, nestes casos, o cruise-control mantem o carro numa determinada velocidade, se o carro da frente trava, o carro de trás vai bater. A culpa é de quem? Do condutor do carro que bateu.
No caso da IA na condução autónoma, a culpa deverá ser imputada ao condutor/pessoa que vai a monitorizar a condução autónoma ou, em última análise, ao proprietário do carro. É só a minha opinião…
E se for cruise control adaptativo e bater (mesmo dentro dos limites do sistema), de quem é a responsabilidade?