Pplware

OpenAI confirma que hackers usam ChatGPT para criar malware sofisticado

A presença da IA no dia a dia abre as portas para novas possibilidades, que muitos aproveitam ao máximo, para criar ferramentas que podem ajudar a humanidade. Ao mesmo tempo, e no campo oposto, há quem escolha a IA para criar malware e outro tipo de ataques. A OpenAI, dona do ChatGPT, veio agora confirmar que a sua IA é usada para estes fins menos nobres por hackers.


ChatGPT usado para criar malware sofisticado

A OpenAI confirmou que os hackers exploram o seu modelo de inteligência artificial ChatGPT para criar malware e conduzir ataques cibernéticos. A empresa de investigação de IA divulgou um relatório que detalha mais de 20 casos em que os agentes de ameaças tentaram utilizar o ChatGPT para fins maliciosos desde o início de 2024.

O relatório, intitulado “Influência e Operações Cibernéticas: Uma Atualização”, revela que grupos de hackers patrocinados pelo Estado de países como a China e o Irão aproveitam as capacidades do ChatGPT para melhorar as suas operações cibernéticas ofensivas. Estas atividades vão desde a depuração de códigos de malware até à geração de conteúdos para campanhas de phishing e desinformação nas redes sociais.

OpenAI tem armas para combater estes hackers

Embora estas descobertas sejam alarmantes, a OpenAI enfatizou que a utilização do ChatGPT não levou a quaisquer avanços significativos na criação de malware ou na capacidade de construir públicos virais para operações de influência.

Em resposta a estas ameaças, a OpenAI implementou medidas para interromper atividades maliciosas, incluindo a proibição de contas associadas às operações identificadas. A empresa está também a colaborar com parceiros do setor e partes interessadas relevantes para partilhar informações sobre ameaças e melhorar as defesas coletivas de cibersegurança.

Exit mobile version