O que significa “alucinações” nos modelos de Inteligência Artificial?
A Inteligência Artificial (IA) é a tecnologia do momento, mas a verdade é que ainda estamos numa fase muito inicial do seu potencial. É verdade que esta tecnologia "nasceu" há muitos anos, mas só com o ChatGPT é que a IA ganhou interesse por parte de comunidade. Mas sabia que os modelos de IA podem "sofrer" alucinações?
No contexto da Inteligência Artificial (IA), especialmente em Chatbots como o ChatGPT, que são alimentados por LLMs LLM (Large Language Model), o termo "alucinação" é usado quando o modelo gera informações incorretas, inventadas ou enganosas, mas que parecem plausíveis.
Exemplos de alucinações em Inteligência Artificial
- Inventar factos: o modelo pode afirmar que uma pessoa escreveu um livro que nunca escreveu.
- Criar referências falsas: citar artigos académicos ou livros que não existem.
- Errar cálculos ou datas históricas: apresentar dados factualmente errados, mas com confiança.
- Assumir relações inexistentes: dizer que duas empresas estão relacionadas quando não estão.
- Sugerir coisas que não existem - ver aqui
A pergunta que se coloca é o porquê de existirem alucinações. Tal pode acontecer por limitações do modelo, ou seja, o modelo foi treinado com grandes volumes de texto e tenta prever a próxima palavra com base em padrões, não em factos confirmados. Também a falta de verificação de factos pode trazer "alucinações" às respostas. A ambiguidade ou falta de contexto também pode ser um problema, por exemplo, quando a pergunta é ambígua ou muito aberta, o modelo pode "preencher lacunas" com suposições erradas.
Leia também...





















Irra! Tinham logo de assumir os mesmos defeitos que os humanos!
Como evitar alucinações na inteligência artificial?