Wikipédia quis seguir a moda da IA. Os próprios editores foram os primeiros a protestar
A Fundação Wikimedia, organização por detrás da Wikipédia, viu-se forçada a suspender uma nova funcionalidade baseada em inteligência artificial (IA). Esta decisão surgiu após uma onda de críticas por parte da sua própria comunidade de editores voluntários, que consideraram a iniciativa uma ameaça aos princípios fundamentais da plataforma.
Discórdia total entre a Wikipédia e os seus editores
O projeto, denominado Simple Article Summaries, tinha como objetivo utilizar a IA para gerar resumos de artigos longos e complexos. Estes sumários, criados a partir do modelo Aya da empresa Cohere, seriam apresentados no topo das páginas com um aviso de que o conteúdo "não foi verificado" por humanos. A intenção era, supostamente, tornar a informação mais acessível.
Contudo, a reação da comunidade foi imediata e negativa. Nos fóruns de discussão internos, os editores, que dedicam o seu tempo a curar e verificar o conteúdo da plataforma, não pouparam nas críticas. Comentários como "uma péssima ideia", "a minha mais forte oposição" e outras expressões de desdém demonstraram a profunda insatisfação com a introdução de conteúdo automatizado.
Este episódio sublinha a posição única da Wikipédia na internet atual. Numa era em que a Google integra IA diretamente no seu motor de pesquisa e a OpenAI ambiciona redefinir o acesso à informação, a Wikipédia permanece como um dos últimos grandes guerreiros de conhecimento protegido por seres humanos. A qualidade e a confiança da enciclopédia derivam precisamente do seu rigoroso processo de edição e verificação manual.
Os editores da plataforma filtram ativamente contribuições geradas por IA, vistas como "slop" - um termo para designar lixo digital ou conteúdo de baixa qualidade. Esta vigilância constante transformou a Wikipédia num refúgio de informação confiável, onde os utilizadores sabem que não encontrarão o ruído automatizado que degrada outras plataformas.
O dilema: evoluir ou preservar a identidade?
O protesto dos editores reflete um receio muito mais profundo do que a simples rejeição de uma nova tecnologia. De um lado, existe a necessidade de a Wikipédia evoluir para continuar a ser relevante e atrair novas gerações de utilizadores. Do outro, há o medo de que a automação possa destruir o ecossistema colaborativo que foi construído ao longo de décadas.
Nenhuma outra comunidade dominou a colaboração a um ponto tão maravilhoso, e isto deitaria tudo por terra.
Resumiu um editor, citado pelo 404 Media. A tensão reside no equilíbrio entre inovação e a preservação da alma do projeto.
Apesar de ter pausado a experiência, a Fundação Wikimedia não descartou completamente o uso de IA. A organização prometeu que qualquer implementação futura exigirá uma "participação ativa dos editores" e "fluxos de trabalho com moderação humana".
Para muitos, isto soa a uma pausa tática, em vez de um abandono definitivo da tecnologia. Curiosamente, a ideia para esta funcionalidade surgiu de debates na Wikimania de 2024, onde alguns membros da comunidade viram potencial na IA.
A grande questão que permanece é se a Wikipédia conseguirá manter a sua enorme relevância histórica - já abalada pelo surgimento de ferramentas como o ChatGPT - sem sacrificar o critério humano que a distingue.
Leia também:






















Sou todo a favor da IA na Wikipédia!
A ver se finalmente nos libertávamos de editores que seguem as próprias crenças e agendas!
É por isso que a Wikipédia nunca vai longe! Falta o rigor científico!
Como é que pode haver rigor científico se IA tem como fonte a informação disponibilizada e criada por humanos. Sendo muita dessa informação, falsa.
A IA fornece informação sempre baseada em fontes. Se as fontes forem criteriosas e com bases cientificas, a informação fornecida pela mesma assim será (fora as possíveis alucinações, claro…).
É a abordagem tomada no Watson da IBM (e dai ser usado/destinado a empresas de topo). A informação é sempre cientifica e não a “javardice” que sai do ChatGPT & Cia
Claramente que a AI é mais fiável que os humanos. Tal como vimos o Grok a “negar” o holocausto, as várias AI chinesas a não falarem em coisas que o regime não quer e bem que estávamos aqui o dia todo a procurar exemplos.
Qualquer AI é tão boa como quem a programa e as fontes que usa. E o problema das fontes é que muitas vezes, mesmo aquelas com a chancela de credíveis, são um total lixo.
Por muito bom que seja o modelo, não acredito que uma mega empresa não coloque algum tipo de salvaguardas para a sua própria imagem e seus interesses. Afinal, é preciso pagar as contas.
+11111
“De acordo com Jimmy Wales, fundador da Wikipédia, quando um ponto de vista é partilhado por um grupo extremamente pequeno de pessoas ele não deve ser incluído na Wikipédia, independentemente de ser verdadeiro ou falso ou de poder ser comprovado ou não.”
Ia ser a confusao geral, se ja existem artigos com informacao duvidosa na wikipedia, com a IA ia ser pior.
Não acredito que fique pior do que o que já está!
Quando temos fontes fidedignas a corrigir erros a Wikipedia e a estabelecer rigor cientifico para logo a seguir serem revertidos por editores pseudo-eu-sei-tudo-e-sou-o-dono-da-verdade só porque não servem as suas “agendas”, duvido que que fique pior…
+1
O que eu acho que vai acontecer com a AI, é que vamos ter os modelos a vasculhar a internet pelas ditas fontes. O problema é que existe demasiada informação falsa e imprecisa e não sei se a AI vai ser capaz de separar o trigo do joio. Temos de olhar para a AI um pouco como olhamos para pessoas de cabeça mole. Acreditam em tudo o que leem. A juntar a isto tudo, também já temos alguns exemplos de modelos AI com “agendas”. Nesta fase, não acredito que qualquer modelo AI seja totalmente isento e parcial.
É verdade que a wikipédia tem muitas lacunas. Um modelo misto talvez seja o ideal.
A Wikipedia baseia-se na verificabilidade, não na verdade!
A IA só diz disparates.