Agente de IA invadiu chatbot da McKinsey em apenas 2 horas
Um agente de inteligência artificial conseguiu comprometer o chatbot interno da McKinsey & Company em apenas duas horas, acedendo a dezenas de milhões de mensagens internas e a centenas de milhares de ficheiros confidenciais. O incidente levanta novas preocupações sobre a segurança de plataformas empresariais baseadas em IA.
Investigadores da startup de cibersegurança CodeWall demonstraram que um agente autónomo de IA conseguiu invadir a plataforma interna de inteligência artificial da McKinsey, conhecida como Lilli.
Segundo os investigadores, o ataque, realizado como teste de segurança, permitiu obter acesso completo de leitura e escrita à base de dados do sistema em cerca de duas horas.
Com esse acesso, o agente conseguiu consultar aproximadamente 46,5 milhões de mensagens de chat, além de 728 mil ficheiros com dados confidenciais de clientes, 57 mil contas de utilizadores e dezenas de prompts do sistema que controlam o comportamento da IA.
Falha explorada era relativamente “clássica”
A investigação revelou que o ataque foi possível devido a vários problemas de segurança, incluindo endpoints de API expostos sem autenticação e uma vulnerabilidade de SQL injection que permitiu aceder diretamente à base de dados do chatbot.
O agente de IA analisou automaticamente a superfície de ataque, encontrou documentação pública da API e identificou 22 endpoints que não exigiam autenticação. A partir daí conseguiu explorar a vulnerabilidade e extrair dados do sistema.
Um dos aspetos mais preocupantes é que o acesso obtido não permitia apenas ler informação. Como os prompts do sistema estavam armazenados na mesma base de dados, um atacante poderia alterá-los silenciosamente.
Na prática, isso significaria manipular as respostas geradas pela IA para milhares de consultores da empresa, influenciando análises, recomendações estratégicas ou relatórios internos.
Após receber o relatório da investigação, a McKinsey afirmou ter corrigido rapidamente os problemas identificados, bloqueando os endpoints expostos e ajustando a configuração do sistema.
Apesar de o teste ter sido realizado de forma controlada, o caso mostra como agentes de IA podem acelerar ataques informáticos, sendo capazes de identificar vulnerabilidades e explorá-las automaticamente em grande escala




















