Wikipédia tem nova estratégia para combater o conteúdo de má qualidade gerado por IA
Com a popularização da inteligência artificial (IA), os editores da Wikipédia enfrentam uma ofensiva de artigos gerados por esta tecnologia, que frequentemente contêm informações falsas. A comunidade de voluntários já se mobilizou para combater este "lixo" digital, numa resposta que Marshall Miller, diretor de produto da Wikimedia Foundation, compara a uma espécie de "sistema imunitário".
A nova política de eliminação rápida da Wikipédia
Uma das principais estratégias dos editores da Wikipédia para lidar com o problema é a "eliminação rápida" de artigos mal redigidos, conforme noticiado pelo 404 Media. Um revisor da Wikipédia que manifestou o seu apoio à medida descreveu a situação como uma "inundação constante de rascunhos horrendos".
Este voluntário acrescenta que a remoção expedita "ajudaria muito os esforços para combater [este fenómeno] e pouparia inúmeras horas a limpar o lixo que a IA deixa para trás". Outro editor refere que as "mentiras e referências falsas" presentes nos textos gerados por IA exigem "uma quantidade incrível de tempo de editores experientes para serem corrigidas".
Normalmente, os artigos sinalizados para remoção na Wikipédia entram num período de discussão de sete dias, durante o qual os membros da comunidade decidem se a página deve ser eliminada. A nova regra, entretanto adotada, permitirá que os administradores da Wikipédia contornem estas discussões se um artigo for claramente gerado por IA e não tiver sido revisto pela pessoa que o submeteu.
Para isso, devem ser procurados três sinais principais:
- Linguagem dirigida ao utilizador, como "Aqui está o seu artigo da Wikipédia sobre..." ou "Espero que isto ajude!";
- Citações "sem nexo", incluindo aquelas com referências incorretas a autores ou publicações;
- Referências inexistentes, como ligações inativas, ISBNs com somas de verificação inválidas ou DOIs que não podem ser resolvidos.
Como identificar conteúdo gerado por IA na Wikipédia
Estes não são, contudo, os únicos sinais de alerta. No âmbito do projeto "WikiProject AI Cleanup", que visa combater o "problema crescente de conteúdo gerado por IA, sem fontes e mal escrito", os editores compilaram uma lista de frases e características de formatação típicas de artigos redigidos por chatbots.
A lista inclui:
- Uso excessivo de travessões ("—"), que se tornaram uma marca associada aos chatbots de IA;
- O abuso de certas conjunções, como "além disso";
- Uso de linguagem promocional, como descrever algo como "deslumbrante";
- Outros problemas de formatação, como o uso de aspas curvas e apóstrofos em vez dos retos.
No entanto, a política de eliminação rápida da Wikipédia salienta que estas características "não devem, por si só, servir como base única" para determinar que um texto foi escrito por IA e, consequentemente, sujeito a remoção.
Visão da Wikimedia Foundation passa pela IA como problema e solução
A Wikimedia Foundation, que aloja a enciclopédia mas não interfere na criação de políticas para o site, nem sempre esteve em sintonia com a sua comunidade de voluntários no que diz respeito à IA. Em junho, a fundação suspendeu uma experiência que colocava resumos gerados por IA no topo dos artigos, após enfrentar uma forte oposição da comunidade.
Apesar das diferentes perspetivas, a Wikimedia Foundation não se opõe ao uso da IA, desde que esta resulte em textos precisos e de alta qualidade.
É uma faca de dois gumes. Está a permitir que as pessoas gerem conteúdo de menor qualidade em maior volume, mas a IA também pode ser uma ferramenta para ajudar os voluntários a fazer o seu trabalho, se o fizermos corretamente e colaborarmos com eles para encontrar as formas certas de a aplicar.
Explica Miller. Por exemplo, a fundação já utiliza IA para ajudar a identificar revisões de artigos que contêm vandalismo, e a sua estratégia de IA, recentemente publicada, inclui o apoio aos editores com ferramentas que os ajudarão a automatizar "tarefas repetitivas" e traduções.
Novas ferramentas para garantir a qualidade dos artigos da Wikipédia
A Wikimedia Foundation está também a desenvolver ativamente uma ferramenta não baseada em IA, chamada "Edit Check", destinada a ajudar os novos contribuidores a alinharem-se com as políticas e diretrizes de escrita do site. Eventualmente, poderá também aliviar o fardo das submissões geradas por IA não revistas.
Atualmente, a "Edit Check" pode lembrar os editores de adicionar citações se escreverem uma grande quantidade de texto sem uma, bem como verificar o seu tom para garantir que se mantêm neutros.
A fundação está ainda a trabalhar na adição de uma "Paste Check" à ferramenta, que perguntará aos utilizadores que colem um grande bloco de texto num artigo se foram eles que o escreveram. Os contribuidores também submeteram várias ideias para aprimorar a ferramenta, com um utilizador a sugerir que se peça aos suspeitos de usarem IA para especificar que parte do texto foi gerada por um chatbot.
Estamos a acompanhar o que as nossas comunidades fazem e o que consideram produtivo. Para já, o nosso foco ao usar machine learning no contexto da edição é mais em ajudar as pessoas a fazer edições construtivas e também em ajudar aqueles que patrulham as edições a prestar atenção às que realmente importam.
Conclui Miller.
Leia também:
























O artigo é bom e completo, e desde já, PPWARE, que durem mais 300 anos de edição. Mas os meus 2 centimos, wikipédia e a palavra Qualidade não combinam. Demasiado activismo politico. Encyclopaedia Britannica, tem o mais rigor academico que até agora conheço. Pode ser que estas mudanças a melhorem um pouco
Vídeo com um bombeiro com a cara marcada e olhos vermelhos do fumo e do choro nas redes sociais:
“Eu sou o Tiago, sou bombeiro há nove anos. Ontem, por pouco, não voltei.
Num dos acessos encontrei um carro virado. Lá dentro um homem ferido gritava ‘a minha filha ainda está lá dentro, salve-a por favor’. Voltei quase sem ar, peguei na menina e consegui trazê-la, sobreviveu, mas quando voltei para o pai já era tarde.”
É uma história dramática, disso não haja dúvida. Só há um pequeno problema. Nada disto é verdade. Nem a história, nem o vídeo, nem o bombeiro Tiago. Foi tudo feito com inteligência artificial. Chama-se ‘AI SLOP’. (SIC Notícias, 10/08/2025)
https: //sicnoticias.pt/especiais/inteligencia-artificial/2025-08-10-eu-sou-o-tiago-bombeiro-ha-nove-anos-cruzou-se-com-este-video-nas-redes-sociais–e-falso–e-como-este-ha-muitos–c3c4cc43