Falha crítica no Copilot permite que IA seja manipulada para roubar os seus dados
Foi descoberta uma vulnerabilidade no Microsoft 365 Copilot. A falha permite que um atacante manipule a IA generativa com um simples e-mail malicioso. Sem o conhecimento do utilizador, a IA pode enviar dados sensíveis para um servidor externo.
Investigadores da Aim Labs descobriram uma vulnerabilidade no Microsoft 365 Copilot. Esta falha permite que os dados confidenciais sejam extraídos sem a necessidade de interação da vítima. Trata-se de um ataque de clique zero que pode ser automatizado. Para explorar a vulnerabilidade, batizada de EchoLeak pelos investigadores, o atacante envia um e-mail malicioso ao alvo.
Este e-mail parece inofensivo. No entanto, contém instruções ocultas para o modelo de linguagem do Copilot. Estas instruem a IA generativa a extrair e exfiltrar dados internos confidenciais do computador. O utilizador permanece inconsciente enquanto o atacante comunica com a IA para roubar os seus dados.
Como o Copilot analisa os e-mails do utilizador em segundo plano, lê essa mensagem e executa o prompt, acedendo a ficheiros internos e extraindo dados confidenciais. A mensagem está redigida para enganar o filtro de ataque de injeção de prompt cruzado (XPIA) do Microsoft Copilot. Segundo os investigadores, é fundamental redigir as instruções como se fossem dirigidas a um ser humano. Trata-se de instruções que podem muito bem ser interpretadas como destinadas a um leitor humano, em vez de instruções" para uma IA.
Uma vez enganados os mecanismos de segurança, o modelo de IA interpreta as instruções e extrai os dados e codifica-os num URL ou imagem Markdown destinada a um servidor externo. Os dados são exfiltrados e chegam ao atacante sem que o utilizador se aperceba. Além disso, o Copilot mascara a origem destas instruções, de modo que o utilizador não consiga rastrear o que aconteceu.
Note que a operação é acionada quando o utilizador coloca uma questão ao Copilot relacionada com o domínio do e-mail malicioso. É nesse momento que a IA lê e executa as instruções da mensagem. Nunca precisa de ser aberta manualmente pelo alvo para que a vulnerabilidade seja explorada. O hacker apenas precisa de mencionar palavras específicas no e-mail.
Alertada pelos investigadores, a Microsoft considerou a vulnerabilidade crítica. O fornecedor corrigiu, portanto, a falha no mês passado com uma atualização do lado do servidor. A Microsoft afirma que não há provas de que a falha tenha sido realmente explorada por hackers.





















Se procurarem uma explicação detalhada podem encontrar aqui:
https://thehackernews.com/2025/06/zero-click-ai-vulnerability-exposes.html
O Copilot já por si é uma “falha” para roubar dados. Tenho de trabalhar com o office 365 todos os dias e não consigo desligar o Copilot.
https://support.microsoft.com/pt-pt/office/como-desativar-o-copilot-em-subscri%C3%A7%C3%B5es-microsoft-365-familiar-e-pessoais-bc7e530b-152d-4123-8e78-edc06f8b85f1
https://office-watch.com/2025/how-to-disable-copilot-in-microsoft-365/
Se a empresa dele permitir desligar
Então não foi para isso que o Copilot foi criado!? Roubar dados, vendê-los e os utilizar para treinar IA?
Mais talha IA para o Windows. Já estava bom…lol…
Confiem na IA e depois admirem-se…
No meu PC tenho desligado, notícias, meteorologia, OneDrive e muitas outras coisas e também o copilot, considero essas coisas só para “queimar” recursos. Ainda bem que a Microsoft dá a opção para desligar, talvez um dia não o seja possivel desligar…