AI Act: conheça 4 níveis de risco da Inteligência Artificial
A União Europeia deu um passo fundamental na regulação da Inteligência Artificial com a aprovação do AI Act, o primeiro quadro legal abrangente do mundo dedicado a esta tecnologia. O objetivo é simples: garantir que os sistemas de IA são seguros, transparentes e respeitam os direitos fundamentais. Conheça os 4 níveis de risco definidos para o uso da Inteligência Artificial.
O regulamento classifica os sistemas de IA em quatro níveis de risco, aplicando regras mais ou menos exigentes consoante o impacto potencial da tecnologia na sociedade.
Risco Inaceitável: sistemas proibidos
No topo da hierarquia estão os sistemas de risco inaceitável, considerados uma ameaça direta aos direitos e liberdades dos cidadãos. Estes sistemas são totalmente proibidos na União Europeia.
Exemplos incluem:
- Sistemas de pontuação social (social scoring) por parte de governos
- IA que manipula comportamentos humanos de forma subliminar
- Identificação biométrica em tempo real em espaços públicos (com raras exceções legais)
A UE entende que estas aplicações ultrapassam limites éticos e democráticos.
Alto Risco: fortemente regulados
Os sistemas de alto risco não são proibidos, mas estão sujeitos a regras rigorosas, dado o seu impacto significativo na vida das pessoas.
São exemplos de IA de alto risco:
- Sistemas usados em recrutamento e seleção de pessoal
- IA aplicada a avaliação de crédito
- Tecnologias usadas em educação, saúde, justiça ou controlo de fronteiras
Estas soluções terão de cumprir requisitos como:
- Avaliação e mitigação de riscos
- Qualidade e segurança dos dados
- Registos de atividade (logs)
- Supervisão humana
- Robustez e cibersegurança
Risco Limitado: obrigações de transparência
Aqui entram sistemas que apresentam riscos menores, mas que ainda exigem transparência para proteger o utilizador.
Exemplos comuns:
- Chatbots e assistentes virtuais
- Sistemas que geram conteúdos sintéticos (texto, imagem, áudio ou vídeo)
Nestes casos, o utilizador deve ser claramente informado de que está a interagir com uma IA ou que o conteúdo foi gerado artificialmente.
Risco Mínimo: uso livre
A maioria das aplicações de IA enquadra-se no nível de risco mínimo, não estando sujeita a obrigações legais adicionais.
Incluem-se aqui:
- Sistemas de recomendação (música, filmes, produtos)
- Filtros de spam
- IA em videojogos
- Ferramentas de edição de imagem ou texto
A UE incentiva a inovação nestas áreas, mantendo o mercado aberto e competitivo.
AI Act: Datas importantes
O AI Act entrou em vigor a 1 de agosto de 2024, mas a sua aplicação é faseada até 2027, com diferentes marcos para diferentes obrigações:
- Desde 2 de fevereiro de 2025, já são aplicáveis:
- As proibições de sistemas de IA de risco inaceitável
- As obrigações de literacia em IA (Art.º 4.º)
- A partir de 2 de agosto de 2025, entram em aplicação:
- As regras de governação e supervisão do regulamento (Capítulo VII)
- As obrigações específicas para modelos de IA de finalidade geral (GPAI) (Capítulo V)
- As obrigações de confidencialidade (Art.º 78.º)
- A 2 de agosto de 2026, o AI Act torna-se aplicável na sua generalidade.
- Até 2 de agosto de 2027, aplica-se o prazo alargado de transição para sistemas de risco elevado incluídos em produtos regulados (ex: dispositivos médicos).
Com o AI Act, a União Europeia procura equilibrar inovação tecnológica e proteção dos cidadãos, criando um modelo que poderá servir de referência a nível global.
Para empresas, developers e profissionais de cibersegurança, este regulamento representa novos desafios, mas também oportunidades para desenvolver soluções de IA mais éticas, seguras e confiáveis.





















