Não sendo estanque, a língua evolui com a sociedade e as palavras vão assumindo novos significados. Neste ano de descoberta das potencialidades reais da Inteligência Artificial (IA) pelo público, a palavra do ano para o Cambridge Dictionary também se adaptou à tecnologia.
O Cambridge Dictionary definiu que a palavra do ano para 2023 é “alucinar” (em inglês, “hallucinate”). Ao mesmo tempo, deu ao termo um novo significado relacionado à tecnologia que mais foi tema de manchete: a IA.
A definição tradicional de “alucinar” é quando alguém parece sentir algo que não existe, geralmente, devido a um problema de saúde ou ao consumo de drogas. Contudo, a tecnologia parece ter transformado também a língua.
The Cambridge Dictionary #WordOfTheYear2023 is … 🥁
‘hallucinate’ (verb): When an artificial intelligence hallucinates, it produces false information.
🏆 Find out more about #hallucinate ⬇️ https://t.co/R3dLwBfN0V#CambridgeWOTY pic.twitter.com/Z8nRw9IfHI
— Cambridge Dictionary (@CambridgeWords) November 15, 2023
Agora, “alucinar” também se refere à produção de informações falsas pela IA, tendo sido a definição da palavra complementada:
Quando uma inteligência artificial (= um sistema de computador que possui algumas das qualidades que o cérebro humano possui, como a capacidade de produzir linguagem de uma forma que parece humana) alucina, ela produz informações falsas.
Apesar das suas potencialidades, a IA nem sempre partilha informações confiáveis e confirmadas.
As alucinações da IA, também chamadas confabulações, ocorrem quando as ferramentas alimentadas pela tecnologia fornecem informações falsas. Estas podem variar entre sugestões que parecem perfeitamente plausíveis até aquelas que são completamente absurdas.
O facto de as IA poderem alucinar lembra-nos que os humanos ainda precisam de trazer as suas capacidades de pensamento crítico para o uso dessas ferramentas.
As IA são fantásticas a processar enormes quantidades de dados para extrair informações específicas e consolidá-las. Mas quanto mais originais lhes pedirmos que sejam, maior será a probabilidade de elas se perderem.
Explicou Wendalyn Nichols, publishing manager do Cambridge Dictionary.
Por sua vez, Henry Shevlin, especialista em ética da IA da Universidade de Cambridge, disse que “o uso generalizado do termo alucinar para se referir a erros cometidos por sistemas como o ChatGPT fornece […] um fascinante snapshot de como estamos a antropomorfizar a IA”.
Esta escolha linguística reflete uma mudança subtil, mas profunda na perceção: a IA, e não o utilizador, é que está a alucinar.
Explorou Henry Shevlin, acrescentando que espera que “à medida que esta década avança, o nosso vocabulário psicológico seja ainda mais alargado para abranger as estranhas capacidades das novas inteligências que estamos a criar”.