A Inteligência Artificial continua a ser um tema forte, que reúne as mais diversas opiniões. Uns são a favor, outros demonstram alguns receios, mas no geral é quase unânime que é preciso legislar a Inteligência Artificial. Esta é a primeira lei da União Europeia.
Inteligência Artificial: Risco inaceitável, Alto Risco, IA generativa e Risco limitado
A utilização da inteligência artificial na UE será regulada pela Lei da IA, a primeira lei abrangente do mundo sobre a IA. As novas regras estabelecem obrigações para os fornecedores e utilizadores em função do nível de risco da IA. Embora muitos sistemas de IA representem um risco mínimo, é necessário avaliá-los.
Risco inaceitável
- Os sistemas de IA de risco inaceitável são sistemas considerados uma ameaça para as pessoas e serão proibidos. Estes sistemas incluem:
- manipulação cognitivo-comportamental de pessoas ou grupos vulneráveis específicos: por exemplo, brinquedos ativados por voz que incentivam comportamentos perigosos nas crianças
- pontuação social: classificação de pessoas com base no comportamento, estatuto socioeconómico, características pessoais
- sistemas de identificação biométrica em tempo real e à distância, como o reconhecimento facial
Podem ser permitidas algumas exceções: Por exemplo, os sistemas de identificação biométrica à distância “pós”, em que a identificação ocorre após um atraso significativo, só serão permitidos para a repressão de crimes graves e após aprovação do tribunal.
Alto risco
Os sistemas de IA que afetam negativamente a segurança ou os direitos fundamentais serão considerados de alto risco e serão divididos em duas categorias.
- Sistemas de IA que são utilizados em produtos abrangidos pela legislação da UE em matéria de segurança dos produtos. Isto inclui brinquedos, aviação, automóveis, dispositivos médicos e elevadores.
- Sistemas de IA que se enquadram em oito áreas específicas que terão de ser registados numa base de dados da UE:
- identificação biométrica e categorização de pessoas singulares
- gestão e funcionamento de infraestruturas críticas
- educação e formação profissional
- emprego, gestão dos trabalhadores e acesso ao trabalho por conta própria
- acesso e usufruto de serviços privados essenciais e de serviços e benefícios públicos
- aplicação da lei
- gestão da migração, do asilo e do controlo das fronteiras
- assistência na interpretação jurídica e na aplicação da lei.
Todos os sistemas de IA de alto risco serão avaliados antes de serem colocados no mercado e durante todo o seu ciclo de vida.
IA generativa
A IA generativa, tal como o ChatGPT, teria de cumprir os requisitos de transparência:
- divulgar que o conteúdo foi gerado pela IA
- conceber o modelo para evitar que este gere conteúdos ilegais
- publicar resumos dos dados protegidos por direitos de autor utilizados para a formação
Risco limitado
Os sistemas de IA de risco limitado devem cumprir requisitos mínimos de transparência que permitam aos utilizadores tomar decisões informadas. Depois de interagir com as aplicações, o utilizador pode decidir se quer continuar a utilizá-las. Os utilizadores devem ser alertados para o facto de estarem a interagir com a IA. Isto inclui sistemas de IA que geram ou manipulam conteúdos de imagem, áudio ou vídeo (por exemplo, deepfakes).