Pplware

AI Act: conheça 4 níveis de risco da Inteligência Artificial

A União Europeia deu um passo fundamental na regulação da Inteligência Artificial com a aprovação do AI Act, o primeiro quadro legal abrangente do mundo dedicado a esta tecnologia. O objetivo é simples: garantir que os sistemas de IA são seguros, transparentes e respeitam os direitos fundamentais. Conheça os 4 níveis de risco definidos para o uso da Inteligência Artificial.


O regulamento classifica os sistemas de IA em quatro níveis de risco, aplicando regras mais ou menos exigentes consoante o impacto potencial da tecnologia na sociedade.

Risco Inaceitável: sistemas proibidos

No topo da hierarquia estão os sistemas de risco inaceitável, considerados uma ameaça direta aos direitos e liberdades dos cidadãos. Estes sistemas são totalmente proibidos na União Europeia.

Exemplos incluem:

A UE entende que estas aplicações ultrapassam limites éticos e democráticos.

Alto Risco: fortemente regulados

Os sistemas de alto risco não são proibidos, mas estão sujeitos a regras rigorosas, dado o seu impacto significativo na vida das pessoas.

São exemplos de IA de alto risco:

Estas soluções terão de cumprir requisitos como:

Risco Limitado: obrigações de transparência

Aqui entram sistemas que apresentam riscos menores, mas que ainda exigem transparência para proteger o utilizador.

Exemplos comuns:

Nestes casos, o utilizador deve ser claramente informado de que está a interagir com uma IA ou que o conteúdo foi gerado artificialmente.

Risco Mínimo: uso livre

A maioria das aplicações de IA enquadra-se no nível de risco mínimo, não estando sujeita a obrigações legais adicionais.

Incluem-se aqui:

A UE incentiva a inovação nestas áreas, mantendo o mercado aberto e competitivo.

 

AI Act: Datas importantes

O AI Act entrou em vigor a 1 de agosto de 2024, mas a sua aplicação é faseada até 2027, com diferentes marcos para diferentes obrigações:

Com o AI Act, a União Europeia procura equilibrar inovação tecnológica e proteção dos cidadãos, criando um modelo que poderá servir de referência a nível global.

Para empresas, developers e profissionais de cibersegurança, este regulamento representa novos desafios, mas também oportunidades para desenvolver soluções de IA mais éticas, seguras e confiáveis.

Exit mobile version