Pplware

Deepfake: Banco perdeu $35 milhões por falsificação da voz de um executivo

Por estar de tal forma avançada, a tecnologia acaba por servir bens, mas também, males maiores. Através da tecnologia deepfake, um grupo de ladrões foi capaz de roubar 35 milhões de dólares a um banco, falsificando a voz do executivo de uma empresa.

O caso é real e aconteceu nos Emirados Árabes Unidos (EAU), em 2020.


Assalto motivado por tecnologia deepfake

A tecnologia deepfake tornou-se altamente sofisticada, permitindo confundir os menos atentos. Aquela consiste na manipulação de imagens e sons, por forma a colocar “palavras na boca de quem nunca as pronunciou ou ações no corpo de quem nunca as desempenhou”, de acordo com a Visão. Assim, por serem muito credíveis, algumas pessoas utilizam-na para fins duvidosos.

Exemplo disso foi o assalto a um banco dos EAU, no início de 2020. De acordo com um relatório da Forbes, que se baseia em documentos recentemente divulgados, os autores da fraude copiaram a voz do executivo de uma empresa, através da tecnologia deepfake, para enganar o gerente do banco, levando-o a transferir os 35 milhões de dólares.

A voz do executivo disse ao banco que a empresa ia fazer uma aquisição e, portanto, precisava do dinheiro para a garantir. Por reconhecer a sua voz, o gerente do banco autorizou a transferência, que enviou o valor milionário para a conta dos criminosos.

Agora, os EAU estão a solicitar a ajuda de investigadores dos Estados Unidos da América, para localizar cerca de 400.000 dólares que foram transferidos para contas americanas, de acordo com o mesmo relatório. Os investigadores do Dubai acreditam que a operação envolveu, pelo menos, 17 pessoas e, através da tecnologia deepfake, enviou dinheiro para vários bancos em todo o mundo.

Já em 2019, segundo o The Wall Street Journal, os autores de um assalto recorreram à IA para copiar a voz de um executivo, com o objetivo de roubar 243.000 dólares.

Embora pareça uma realidade preocupante, efetivamente, quanto mais refinada a tecnologia deepfake ficar, mais atentos estarão os reguladores e mais formas de a detetar surgirão.

 

Leia também:

Exit mobile version