A União Europeia (UE) não descansou enquanto não viu a Inteligência Artificial (IA) regulada, tendo feito história, após aprovar a primeira legislação sobre a tecnologia. Agora, a Califórnia estará a inspirar-se nas suas medidas.
De acordo com David Harris, conselheiro político sénior da Initiative for Technology and Democracy da Califórnia, o estado americano está a colaborar com os europeus e a tentar aprender, no sentido de determinar como implementar regras de IA.
A Califórnia é casa de algumas das maiores empresas de IA e, por isso, os seus legisladores estatais apresentaram pelo menos 30 medidas que abordam várias áreas da tecnologia.
Uma vez que a UE já trabalhou na sua legislação, e tal como fizeram no passado com os regulamentos sobre dados privados, os legisladores do estado americano estão a inspirar-se nela.
As leis propostas pela Califórnia vão desde a exigência de que os responsáveis pelos sistemas baseados em IA revelem o que foi utilizado para treinar modelos até à proibição de anúncios políticos que utilizem características geradas por computador.
Por exemplo, Gail Pellerin, membro da assembleia estadual, apoia uma lei que, segundo ela, proibirá efetivamente a distribuição de conteúdos digitais falsos desenvolvidos por IA generativa nos meses que antecedem e nas semanas seguintes às eleições.
Conforme vimos aqui, a legislação da UE para a IA basear-se-á no risco, ou seja, quanto maior o risco, mais rigorosas serão as regras a serem aplicadas.
A nova lei europeia implica os seguintes pontos
Classificação de risco: a regulamentação propõe analisar e classificar os sistemas de IA segundo o risco que representam para os utilizadores. Os níveis de perigo determinarão o grau de regulação. Desde sistemas de baixo risco até aqueles que são inaceitáveis, serão estabelecidas diferentes obrigações para fornecedores e utilizadores.
Prioridades do Parlamento: o Parlamento Europeu concentrou-se em garantir que os sistemas de IA sejam seguros, transparentes, rastreáveis, não discriminatórios e ecológicos. O objetivo é evitar resultados prejudiciais através da supervisão humana, em vez da automação.
Definição uniforme de IA: o objetivo é estabelecer uma definição tecnologicamente neutra de IA que possa ser aplicada a sistemas futuros. Isso permitirá uma compreensão clara e consistente do que esta tecnologia abrange.
Risco inaceitável: alguns sistemas de IA são considerados uma ameaça inaceitável e serão banidos. Os exemplos incluem manipulação cognitiva, pontuação social e reconhecimento facial remoto e em tempo real.
A Lei da Inteligência Artificial pode ser consultada aqui. Espera-se que durante os vinte e quatro meses seguintes à sua entrada em vigor, todas as empresas de desenvolvimento de IA se tenham adaptado aos regulamentos.