Pplware

Especialista alerta: IA com preconceitos raciais pode levar a falsas detenções

A inteligência artificial (IA) com preconceitos raciais não só é enganadora, como também pode ser prejudicial, destruindo a vida das pessoas. É este o aviso que o professor assistente da Faculdade de Direito da Universidade de Alberta, Dr. Gideon Christian, fez num comunicado de imprensa da instituição.


 

Christian recebeu uma subvenção de 50.000 dólares do Office of the Privacy Commissioner Contributions Program para um projeto de investigação intitulado Mitigating Race, Gender and Privacy Impacts of AI Facial Recognition Technology.

A iniciativa tem por objetivo estudar as questões raciais na tecnologia de reconhecimento facial baseada na IA no Canadá. Christian é considerado um especialista em IA e direito.

Existe esta falsa noção de que a tecnologia, ao contrário dos humanos, não é tendenciosa. Isso não é exato.

Foi demonstrado que a tecnologia tem a capacidade de reproduzir o preconceito humano. Em algumas tecnologias de reconhecimento facial, a taxa de precisão no reconhecimento de rostos de homens brancos é superior a 99 %.

Mas, infelizmente, quando se trata de reconhecer rostos de cor, especialmente os rostos de mulheres negras, a tecnologia parece manifestar a sua maior taxa de erro, que é de cerca de 35 %.

Explicou Christian, no comunicado de imprensa da instituição, acrescentando ainda que a tecnologia de reconhecimento facial pode fazer coincidir erradamente um rosto com o de outra pessoa que possa ter cometido um crime.

 

A culpa é apenas e só dos algoritmos de aprendizagem automática?

O que temos visto no Canadá são casos de mulheres negras, imigrantes que apresentaram com sucesso pedidos de asilo, a quem foi retirado o estatuto de refugiado com base no facto de a tecnologia de reconhecimento facial fazer corresponder o seu rosto ao de outra pessoa.

Assim, o governo argumenta que elas apresentaram pedidos usando identidades falsas. Mas, atenção, trata-se de mulheres negras – o mesmo grupo demográfico em que a IA tem a sua pior taxa de erro.

Disse o professor.

Christian explicou que a IA nunca é inerentemente tendenciosa, mas que a culpa é dos dados utilizados para treinar os algoritmos de aprendizagem automática. A tecnologia produzirá resultados de acordo com os dados que lhe são fornecidos.

 

Livre de preconceitos e discriminação racial na IA

A maioria de nós quer viver numa sociedade livre de preconceitos raciais e de discriminação.

É essa a essência da minha investigação, especificamente na área da IA. Não creio que queiramos uma situação em que o preconceito racial, que tanto nos esforçámos por resolver, esteja agora a ser subtilmente perpetuado pela tecnologia da IA.

Afirmou Christian.

O professor referiu que, em muitos aspetos, este é um problema antigo que se está a mascarar como uma questão nova. O professor avisou que, se não for abordado, pode destruir anos de progresso.

 

Leia também…

Exit mobile version