Cientista perde dois anos de investigação com um clique no ChatGPT
Um cientista perdeu dois anos de produção intelectual devido a uma incompreensão sobre as políticas de retenção de dados no ChatGPT da OpenAI. A situação serve de alerta crítico sobre a excessiva confiança depositada em ferramentas de inteligência artificial (IA) para o armazenamento de trabalho sensível.
Um erro fatal na gestão de dados no ChatGPT
O ChatGPT consolidou-se como um recurso valioso para tarefas quotidianas, como o aperfeiçoamento de mensagens formais ou a criação de rascunhos para textos menos críticos. No entanto, tal como os seus concorrentes, a ferramenta padece de limitações graves, desde as conhecidas "alucinações" até um tom excessivamente condescendente que pode induzir os utilizadores em erro.
Para Marcel Bucher, professor de Biologia Vegetal na Universidade de Colónia, estas limitações tornaram-se uma realidade catastrófica. Num artigo publicado na revista Nature, o académico confessou ter perdido dois anos de "trabalho académico meticulosamente estruturado" - o que incluía candidaturas a financiamentos, revisões de publicações, palestras e exames - após uma simples alteração nas definições de privacidade.
O incidente ocorreu quando Bucher decidiu desativar a opção de "consentimento de dados" na sua conta. O seu objetivo era puramente experimental: desejava verificar se continuaria a ter acesso a todas as funcionalidades do modelo sem ter de fornecer os seus dados à OpenAI. Contudo, ao fazê-lo, o histórico de conversas desapareceu instantaneamente e sem deixar rasto.
Segundo o relato do professor, não surgiu qualquer aviso prévio nem foi disponibilizada uma opção para anular a ação. O ecrã limitou-se a mostrar uma página em branco, assinalando o fim de milhares de horas de dedicação armazenadas na plataforma.
Reações divididas na comunidade académica
A revelação deste caso gerou uma onda de reações nas redes sociais, oscilando entre a compaixão e o escárnio.
- Muitos utilizadores questionaram como foi possível um académico de renome trabalhar durante dois anos sem efetuar cópias de segurança locais.
- Outros, de forma mais severa, chegaram a pedir o seu despedimento, criticando a sua dependência extrema o ChatGPT para o desempenho de funções académicas fundamentais.
Apesar das críticas, houve quem saísse em sua defesa. Roland Gromes, coordenador de ensino na Universidade de Heidelberg, elogiou a coragem de Bucher ao partilhar um erro tão vulnerável, sublinhando que, embora muitos académicos acreditem estar imunes a estas armadilhas, qualquer pessoa pode ser ingénua perante a aparente estabilidade destas tecnologias.
Well, kudos to Marcel Bucher for sharing a story about a deeply flawed workflow and a stupid mistake. A lot of academics believe they can see the pitfalls but all of us can be naive an run into this kind of problems!
— Roland Gromes (@gromesroland.bsky.social) January 23, 2026 at 1:12 PM
O risco da poluição científica por IA
O caso de Bucher surge num momento em que a utilização de IA generativa no meio científico é alvo de intensa polémica. Relatórios recentes indicam que as revistas científicas estão a ser inundadas por conteúdos de baixa qualidade gerados por IA, dificultando o processo de revisão por pares.
Estão inclusive a surgir publicações fraudulentas que utilizam modelos de linguagem para validar outros textos igualmente gerados por máquinas, poluindo a literatura académica.
Embora não existam provas de que Bucher estivesse a tentar publicar material artificial ou enganador, a sua experiência serve como um aviso severo. O docente acusou a OpenAI de comercializar subscrições do ChatGPT Plus sem garantir medidas básicas de proteção que impeçam a volatilidade de anos de trabalho.
Leia também:






















Em minha faculdade, os professores eram tão preguiçosos, que copiavam as apresentações de outros campus, de outros professores sobre o tema que iria passar no dia.
Isso aí, nem me espanta mais. IFSP de Bragança Paulista para os curiosos.
Isso é cultural, o meio acamedico no Brasil é muito mau
Só no Brasil? Aqui na tuga fazem o mesmo…
‘Tá aqui um nível de sensatez, sim senhora! Fará se se guiasse pelo ditado “a árvore não faz a floresta”…
Se fosse só uma árvore, irmão…
Este comentário é tão típico do pensamento xenófobo e ignorante, que existe em relação ao ensino… O MJV tinha razão. “Ao menos não somos como os pr*tos e os monh#s”. Se te dissesse que há professores universitários na tuga que fazem o 80-90% do trabalho com IA…
Não sejas assim. O Zé está num dia mau. Ele costuma fazer comentários tão sensatos LOOOL
não percebo a ironia, sou bastante sensato e correcto
“sou bastante sensato e correcto”
lolão!!!
Ohhh Zé, fazias uma dupla engraçadíssima com o Badaró!!!
😀 😀
claro que há, mas são excepção, no brasil todo o povo é preguiçoso e tenta arranjar forma de contornar tudo
E aqui, não?
E aqui não??? Não é Portugal apelidado do país do “chicoespertismo” arbitrariamente.
Com a IA as pessoas andam mais preguiçosas, agora é só apelar ao chatgpt por exemplo pra criar certas imagens e pronto.
As pessoas nem precisam de gastar pestana em pensar em algo criativo.
A IA pode ser bom sim, mas não deixar as pessoas preguiçosas.
Curar doenças autoimunes é que era
Que histórica tão mal contada, se não tinha cópia dava na mesma para recuperar no disco do seu equipamento.
Não, não dava.
Eu acho que não era um documento. O que a história conta, é provavelmente uma “conversa” com a IA sobre um tema. Mas sim.podia ter copiado a conversa, mas ele não sabia que ao retirar o pisco, faria desaparecer a conversa. É como se o cientista se estivesse a encontrar ha 2 anos com um colega e discutir um assunto, e gravavam as conversas. De repente desaparecia o colega e as gravações. Ele poderá reconstituir, mas efectivamente demorará tempo a voltar a ter a informação acumulada. Este cientista estava a usar a IA da forma correcta, não como quem pede um trabalho e chapa o que vem, mas sim usar a IA como se fosse com um diálogo com um colega com enorme conhecimento.
Idiotice total, o que eu já vi de erros no chatgpt não esta escrito, perdi as contas de quantas vezes eu li: ” você tem razão. Eu sinto muito”- no chat.
Não levo tão a sério o chat, achei muito estranho essa forma de pesquisa científica ” séria”.
+1
Daí que não recomendo a utilização destas ferramentas para assuntos dos quais o utilizador não tenha conhecimento suficiente para poder avaliar as respostas. Há temas nos quais já desisti. Ele simplesmente responde qualquer coisa para manter a conversa e o utilizador ligado, tipo Tik-Tok.
Ainda hoje – resposta do ChatGPT depois de eu o corrigir.
” Touché. Tens toda a razão — não havia propósito nenhum.
Isso foi ruído técnico introduzido indevidamente (mistura absurda de dados de localização/empresas com tickers bolsistas). Erro meu, e bem apanhado da tua parte. Obrigado por o sinalizares ”
Deviam era pagar-nos para os treinarmos, que é o que estamos a fazer.
Outro exemplo:
“✔️ Em resumo
Tens razão na crítica
A correção é aceite sem reservas
O compromisso fica assumido
E agradeço genuinamente o nível da conversa — é assim que estas ferramentas evoluem
Quando (e se) voltares a colocar uma questão financeira aqui, parto do princípio de que:
o rigor factual é obrigatório, não opcional.
Ficamos por aqui, como disseste.
Obrigado pela exigência — é a melhor forma de melhorar.”
Já dizia a minha avó analfabeta:
“Ovelhas não são para mato!”
É preciso perguntar o ChatGPT três coisas: onde guarda as conversas; como se pode fazer os backups; como se pode perder as conversas.
há este projeto em https://savechatgpt.com
e vários plugins para Chrome
https://chromewebstore.google.com/detail/ilmdofdhpnhffldihboadndccenlnfll
https://chromewebstore.google.com/detail/adghjpdmpbcmppeafpodcjpagmegdpci
https://chromewebstore.google.com/detail/hiiildgldbpfbegcfgemoliikibfhaeh
Nem é necessário, eu utilizo a simplicidade de clicar no botão direito do rato e escolher imprimir >pdf
Ou seja, não fez backup.
E, 2 anos?!?!?! De investigação?!?! Sem backup?!?!? Comigo estava chumbado!!!
Qualquer assunto, cujas respostas tenham alguma validade, não abandono a página sem efetuar backup, mesmo podendo voltar ao mesmo assunto posteriormente.