Sem saberem, funcionários divulgam segredos da empresa através do ChatGPT. Como evitá-lo?
O ChatGPT democratizou verdadeiramente o acesso à Inteligência Artificial (IA), não apenas a estudantes, mas a toda a gente com acesso à Internet. Um novo relatório alerta, agora, que os funcionários divulgam, sem saberem informações sobre as empresas onde trabalham através do ChatGPT.
À medida que mais empresas adotam IA generativa como o ChatGPT, Copilot e Claude, com o objetivo de melhorarem a produtividade e o fluxo de trabalho, estão a descobrir que essas ferramentas estão a expor segredos da empresa a um ritmo alarmante.
De acordo com um novo relatório da Cyera, os chatbots de IA são, agora, a principal causa de fuga de dados no local de trabalho, ultrapassando, pela primeira vez, o armazenamento em nuvem e o e-mail.
De forma preocupante, a maioria dessas fugas está a acontecer discretamente, passando despercebidas pelas empresas.
A investigação mostra que quase 50% dos funcionários de empresas estão a usar IA generativa no trabalho, muitas vezes colando informações confidenciais, como informações financeiras, dados pessoais identificáveis e até documentos estratégicos, diretamente em chatbots de IA.
Apesar de este tipo de informação não dever ser partilhado com chatbots de IA, o fenómeno está a ocorrer por meio de contas pessoais e não geridas, como ChatGPT ou Gemini, tornando-as invisíveis para os sistemas de segurança corporativos.
No entanto, 77% dessas interações envolvem dados reais da empresa.
Conforme a investigação, como os dados são partilhados por via de ações de copiar/ colar nas janelas de chat, e não por uploads diretos de arquivos, contornam completamente as ferramentas tradicionais de prevenção.
Outro relatório de 2025, conduzido pela LayerX, descobriu que 67% das interações de IA acontecem em contas pessoais, pelo que as equipas de TI não podem monitorizá-las ou restringi-las.
Como evitar esta partilha de dados através dos chatbots de IA
Os relatórios não sugerem proibir totalmente a IA, conforme compilado, mas antes alertar as empresas e os utilizadores para que reforcem os controlos, melhorem a visibilidade e forneçam supervisão crítica, nomeadamente por via de:
- Bloquear o acesso à IA generativa a partir de contas pessoais;
- Exigir o login único para todas as ferramentas de IA utilizadas em dispositivos da empresa;
- Monitorizar palavras-chave sensíveis e a atividade da área de transferência;
- Trate as interações de chat com o mesmo rigor que as transferências de ficheiros;
- Se for um funcionário, não cole nada num chat de IA que não publicaria publicamente na Internet.
Uma vez que a IA é relativamente nova para todos os utilizadores comuns, os funcionários estão, também, a aprender a usar as ferramentas e a reconhecer as suas limitações.
Cabe, portanto, a cada empresa, gerir a introdução destas novas ferramentas nos ambientes de trabalho, de forma segura, e a cada utilizador compreender que um simples copiar/ colar pode ser suficiente para expor informação confidencial.






















No início ainda dei o benefício da dúvida de que esta tecnologia viria para servir a humanidade, mas rapidamente constatei que apenas serve o propósito de quem as cria…
Não faltam já casos públicos de que tudo que se escreve nesses chats de IA não é privado e nem tem esse objetivo.
Abram a pestana…
Cada um deve ter o discernimento de usar ou não e de que forma
Não usem contas públicas.
As únicas contas, que eventualmente possam ter alguma privacidade, são as contas de equipa / empresariais. As outras é uma ilusão, acreditarem que existe privacidade.
Por razões de segurança, há empresas a proibir que os programadores – habitualmente de empresas terceirizadas, usem o ChatGPT ou outra IA. Isto obriga essas empresas, que prestam serviços de programação, a desenvolver a sua própria IA.
Mas as falhas de segurança são múltiplas e estão por todo o lado. O caso clássico é o da Samsung que descobriu que um funcionário passava para o ChatGPT as atas de reuniões onde eram tomadas decisões estratégicas – para que lhe fizesse um resumo.