Pplware

Cientistas provam que detetores de deepfakes podem ser manipulados

E porque não só de coisas positivas se pauta a tecnologia, várias universidades, organizações e gigantes tecnológicos têm trabalhado para mitigar um problema chamado deepfake. Isto é, manipulação de imagens através de Inteligência Artificial, de modo a concretizar fotografias e vídeos altamente credíveis.

Apesar das tentativas, um grupo de cientistas provou que os detetores de deepfake podem ser enganados.


Detetores de deepfakes com falhas

Tendo maioritariamente figuras públicas na mira, os deepfake são imagens manipuladas através de Inteligência Artificial. Por serem tão credíveis, podem facilmente passar despercebidos e representar possíveis problemas.

Então, empresas como a Microsoft e o Facebook, bem como universidades e outras organizações e empresas, têm trabalhado em detetores, ferramentas que possam reconhecer deepfakes. Afinal, como motores de grande adesão, influência e educação, devem garantir que não se difundem informações erradas e maliciosas.

No entanto, um grupo de cientistas da UC de San Diego alertou que, afinal, os detetores podem ser enganados. Para o demonstrar, a equipa introduziu inputs chamados “exemplos contraditórios” em cada frame de vídeo na conferência WACV 2021, que aconteceu em janeiro.

Formação adversária pode resolver os “exemplos contraditórios”

No seu comunicado, os cientistas explicaram que os “exemplos contraditórios” são nada mais do que imagens que podem enganar e levar os sistemas de IA a cometer erros.

Isto, porque a maioria dos detetores de deepfakes rastreia rostos em vídeos e envia-os recortados para uma rede neural artificial. Posteriormente, o sistema pode certificar a autenticidade de um vídeo, detetando elementos mal reproduzidos, como o pestanejar.

Ainda que os vídeos deepfake sejam muito credíveis, porque os rostos são modificados para que se assemelhem ao de uma pessoa real, a esperança de os mitigar levou a trabalhos conduzidos por várias entidades.

Contudo, os cientistas descobriram que, com os tais “exemplos contraditórios” do rosto e da sua inserção em cada frame de vídeo, os detetores de deepfake de última geração foram enganados. Além disso, revelaram que a técnica pode ser usada também em vídeos longos e que até mesmo um amador pode contornar os detetores.

Para o evitar, os cientistas sugerem o uso de formação adversária. Ou seja, um adversário adaptável que continue a gerar deepfakes que possam contornar o detetor, enquanto está a ser treinado. Dessa forma, este pode melhorar a sua performance na deteção de imagens manipuladas.

Exit mobile version