Pplware

Como saber se uma chamada telefónica é IA ou não? A ESET explica

A ESET, maior empresa europeia de cibersegurança, alerta para o crescimento significativo de fraudes efetuadas em chamadas falsas com recurso a deepfakes de áudio, uma ameaça emergente que está a permitir a criminosos contornar mecanismos de autenticação, manipular colaboradores e desencadear fraudes financeiras de elevado impacto.


Hoje, com o avanço da inteligência artificial generativa (GenAI), a criação de áudio sintético realista tornou-se amplamente acessível, permitindo que os criminosos clonem vozes com base em apenas alguns segundos de gravação disponíveis online.

Dados recentes indicam que milhões de ficheiros de áudios sintéticos circulam atualmente na internet, evidenciando a rápida democratização desta tecnologia. O número real poderá ser ainda mais elevado, considerando a proliferação de ferramentas acessíveis ao público.

Como funcionam os scams de chamadas falsas

De acordo com Jake Moore, consultor global de segurança da ESET Global, nunca foi tão simples lançar um ataque de clonagem de voz direcionado a uma organização.

O processo tende a seguir um padrão:

Em muitos casos, a pressão psicológica é parte central da estratégia — urgência, confidencialidade e autoridade são exploradas para reduzir o pensamento crítico da vítima.

Porque estes ataques são tão convincentes?

As ferramentas mais recentes de GenAI conseguem replicar:

Quando a interação ocorre por telefone, um meio já limitado em pistas visuais, as inconsistências tornam-se mais difíceis de identificar. Além disso, o facto de o interlocutor parecer ser um executivo sénior aumenta a probabilidade de cumprimento imediato do pedido.

Sinais de alerta a considerar

Embora cada vez mais sofisticados, os deepfakes de áudio podem apresentar indícios como:

«Os ataques de CEO Fraud ou Business Email Compromise (BEC) tendem a ser muito bem elaborados com a ajuda da tecnologia de inteligência artificial», alerta Ricardo Neves, Responsável de Marketing e Comunicação na ESET Portugal.

«Para mitigar estes riscos, as organizações devem implementar medidas sólidas, tais como: processos de dupla aprovação para transferências ou alterações de dados bancários, a utilização de autenticação multifator (MFA) nas contas corporativas e a formação regular dos colaboradores para reconhecer sinais de engenharia social e fraudes com recurso a deepfakes», acrescenta. «Estas recomendações são essenciais para a proteção das empresas e entidades públicas, que serão visadas com maior frequência em resultado da adoção massiva de ferramentas acessíveis de IA».

A ESET Portugal reforça que as fraudes de clonagem de voz são de baixo custo e de alto impacto, o que exige uma atenção urgente e constante das organizações. A atualização regular de políticas de segurança e a revisão de planos de resposta são essenciais para mitigar riscos no cenário atual de fraude cibernética.

Exit mobile version