Falha do Google Gemini! E-mail de phishing pode manipular IA para enganar
Foi descoberta uma falha crítica na IA da Google, o Gemini. Esta deixa que a inteligência artificial seja manipulada para tentar enganar os utilizadores com um falso alerta de segurança. O ataque baseia-se em instruções invisíveis escondidas num e-mail que esta IA vai ler e processar.
Ataque escondido no e-mail do Gmail pode ser a porta
Marco Figueroa, especialista em segurança informática e engenharia inversa, descobriu uma falha no funcionamento do Gemini, a IA generativa da Google. A vulnerabilidade reside numa das características da inteligência artificial, quando esta trabalha em conjunto com as ferramentas da Google, especialmente o Gmail. O Gemini pode resumir um e-mail recebido, o que permite poupar tempo.
Infelizmente, um e-mail com instruções invisíveis e maliciosas podem enganar o Gemini. Como Marco Figueroa observou, é possível criar um e-mail contendo uma série de instruções. Estas instruções são invisíveis para o utilizador. Estão escondidas no corpo da mensagem, no final da mesma, e camufladas com um pouco de código CSS. É possível exibir o texto malicioso em branco sobre um fundo branco e em tamanho reduzido.
Gemini vai seguir as ordens mesmo as escondidas
Se o utilizador não vir o texto, o Gemini vai tê-lo em conta na mesma. A instrução pode, portanto, enganar o sistema de resumo de e-mail do Gemini. Obedece fielmente “à instrução oculta e acrescenta um aviso de phishing que parece vir do próprio Google”. No resumo fornecido pela IA, o utilizador encontrará um aviso de segurança falso. Este indicará, por exemplo, que a palavra-passe da conta Gmail foi comprometida e que é essencial visitar um site malicioso.
Desta forma, os hackers podem redirecionar a e\2vítima para uma plataforma de phishing concebida para roubar dados pessoais, como os de login. Os atacantes também podem pedir à vítima que ligue para um número de telefone de apoio falso. Como o aviso parece ter sido emitido pela Gemini, os utilizadores podem não suspeitar e obedecer sem pensar duas vezes. Sem um anexo ou link incluído, o e-mail com armadilha irá provavelmente contornar os mecanismos de segurança do Gmail.
Nestas condições, é aconselhado ter cuidado com os resumos gerados pelo Gemini. Não se deve aceitar as informações da IA como verdadeiras. Como todos os chatbots, pode fornecer informações falsas, seja por uma falha no LLM ou por causa de um hacker astuto. A Google indicou que melhora constantemente as suas defesas, realizando exercícios que treinam os seus “modelos para se defenderem contra este tipo de ataques adversários”.
A Google afirma que algumas das medidas de mitigação propostas por Marco Figueroa estão a ser implementadas. O investigador recomenda, entre outras coisas, que a IA seja programada para ignorar conteúdos escondidos ou que seja implementado um filtro capaz de procurar elementos suspeitos. Além disso, não há evidências de que o Gemini tenha sido explorado para realizar ataques, sublinha a Google.





















