Pplware

ESET alerta para cibercrime baseado em ChatGPT

Nos últimos tempos muito se tem ouvido falar sobre uma plataforma revolucionária de Inteligência Artificial capaz de produzir textos como humanos e não só! Falamos do ChatGPT, onde, por exemplo, a Microsoft já informou que quer investir 9 mil milhões de euros.

A ESET alertou recentemente para o cibercrime baseado em ChatGPT.


A rápida difusão e potencial de utilização de chatbots ou de conversação, como o ChatGPT assinala a entrada numa nova fase de ciberameaças cada vez mais difíceis de detetar sem tecnologias de neutralização.

A ESET, especialista europeia em cibersegurança, alerta que a chegada ao grande-público de um dos primeiros exemplos reais de tecnologia de inteligência artificial (IA) gratuita e fácil de usar pode reduzir quer a capacidade de reconhecimento das ameaças pelos utilizadores, quer a barreira de entrada a novos agentes maliciosos que tiram partido da capacidade do ChatGPT para escrever emails de phishing e malware.

Já com mais de um milhão de utilizadores, o ChatGPT potenciado por IA mobiliza grandes volumes de dados na Internet para responder a questões com aparente autoridade, naturalidade e em múltiplas línguas, incluindo português europeu. Segundo a ESET, este tipo de automação está a tornar-se numa enorme ameaça para a segurança dos utilizadores, que precisam de treinar a sua capacidade de deteção humana para reconhecer situações de perigo enquanto as tecnologias de resposta não recuperarem terreno.

Para Ricardo Neves, Marketing Manager da ESET em Portugal…

O ChatGPT tem um potencial de uso virtualmente ilimitado e, nesse sentido, proporciona-se a aplicações de cibercrime. Desde emails de phishing passando por malware incrivelmente bem elaborado e difícil de reconhecer, é provável que esta atividade potenciada por IA exponha mais utilizadores e dispositivos a ciberameaças. No entanto, o ChatGPT ainda está numa fase embrionária. Os utilizadores devem ficar atentos a erros suspeitos no texto que indiciem que se trata de uma tentativa de fraude

Hackers já estão a conseguir que o ChatGPT produza ciberameaças para atingir qualquer alvo a qualquer momento. Com a ajuda do ChatGPT, os emails de phishing podem conseguir manipular os utilizadores com padrões de comunicação ainda mais convincentes e sem erros gritantes. A criação de infostealers básicos também se pode tornar mais célere e avançada, corrigindo inclusive erros no código. E embora esse código ainda não se compare ao de grupos cibercriminosos estabelecidos, a automação por IA reduz a barreira de entrada a agentes maliciosos menos experientes.

À medida que ferramentas potenciadas por IA como o ChatGPT se tornam mais amplamente disponíveis, é provável que mais cibercriminosos comecem a usá-las. Já se conhecem exemplos disso, como o uso indevido de imagens geradas por IA em campanhas de desinformação. Para a ESET, a maior preocupação é a automação e escalabilidade desta tecnologia. Apesar de não existirem atualmente APIs oficiais do ChatGPT, existem opções criadas pela comunidade. Segundo a especialista em cibersegurança, isto tem o potencial de industrializar a criação e personalização de páginas web maliciosas, campanhas de phishing direcionadas e manobras de engenharia social, entre outras.

Exit mobile version