A presença da IA no dia a dia abre as portas para novas possibilidades, que muitos aproveitam ao máximo, para criar ferramentas que podem ajudar a humanidade. Ao mesmo tempo, e no campo oposto, há quem escolha a IA para criar malware e outro tipo de ataques. A OpenAI, dona do ChatGPT, veio agora confirmar que a sua IA é usada para estes fins menos nobres por hackers.
ChatGPT usado para criar malware sofisticado
A OpenAI confirmou que os hackers exploram o seu modelo de inteligência artificial ChatGPT para criar malware e conduzir ataques cibernéticos. A empresa de investigação de IA divulgou um relatório que detalha mais de 20 casos em que os agentes de ameaças tentaram utilizar o ChatGPT para fins maliciosos desde o início de 2024.
O relatório, intitulado “Influência e Operações Cibernéticas: Uma Atualização”, revela que grupos de hackers patrocinados pelo Estado de países como a China e o Irão aproveitam as capacidades do ChatGPT para melhorar as suas operações cibernéticas ofensivas. Estas atividades vão desde a depuração de códigos de malware até à geração de conteúdos para campanhas de phishing e desinformação nas redes sociais.
- Um caso envolveu um agente de ameaças chinês apelidado de “SweetSpecter”, que tentou utilizar o ChatGPT para reconhecimento, pesquisa de vulnerabilidades e desenvolvimento de malware. O grupo chegou mesmo a atacar diretamente a OpenAI com ataques de spear phishing mal sucedidos contra os funcionários da empresa.
- Outra ameaça significativa veio dos “CyberAv3ngers”, um grupo iraniano associado ao Corpo da Guarda Revolucionária Islâmica. Este utilizou o ChatGPT para pesquisar vulnerabilidades em sistemas de controlo industrial e gerar scripts para possíveis ataques a infraestruturas críticas.
- A OpenAI identificou também um terceiro grupo iraniano, “STORM-0817”. Este grupo usou o modelo de IA para desenvolver malware Android capaz de roubar dados confidenciais dos utilizadores, incluindo contactos, registos de chamadas e informações de localização.
OpenAI tem armas para combater estes hackers
Embora estas descobertas sejam alarmantes, a OpenAI enfatizou que a utilização do ChatGPT não levou a quaisquer avanços significativos na criação de malware ou na capacidade de construir públicos virais para operações de influência.
Em resposta a estas ameaças, a OpenAI implementou medidas para interromper atividades maliciosas, incluindo a proibição de contas associadas às operações identificadas. A empresa está também a colaborar com parceiros do setor e partes interessadas relevantes para partilhar informações sobre ameaças e melhorar as defesas coletivas de cibersegurança.