Por que razão os textos gerados pelos chatbots são tão aborrecidos? IA tem uma falha invisível
Já se apercebeu de que os textos gerados por chatbots como o ChatGPT ou o Gemini soam, por vezes, previsíveis e desprovidos de alma? Esta sensação de monotonia não é uma mera impressão, mas sim uma consequência direta da forma como estes complexos sistemas de inteligência artificial (IA) são construídos.
A preferência pela probabilidade em detrimento da inovação
A aparente falta de criatividade da IA não é um lapso dos seus criadores, mas sim um resultado da sua arquitetura. Os Large Language Models (LLM) não foram desenhados para a inovação linguística, mas para a maximização da probabilidade estatística.
Em termos simples, o seu objetivo é prever a próxima palavra ou sequência de palavras mais provável, e não a mais original ou impactante.
Este fenómeno assenta numa estratégia conhecida como greedy decoding. Quando a IA gera uma resposta, avalia a probabilidade de cada "token" (palavra ou fragmento de palavra) seguinte.
Embora existam parâmetros para introduzir alguma variabilidade, a tendência natural do sistema é selecionar sequências que minimizem a "perplexidade". Na prática, o modelo opta sempre pelo caminho de menor resistência lexical, descartando termos precisos mas de baixa frequência, que são precisamente os que conferem riqueza e nuance a um texto humano.
O fator humano e a otimização para o consenso
Outro fator que agrava esta tendência é o método de treino conhecido como "aprendizagem por reforço com feedback humano" (RLHF). Nesta fase, avaliadores humanos pontuam as respostas da IA, e o modelo aprende a otimizar os seus resultados para obter a melhor classificação.
O problema é que os humanos tendem a recompensar textos que são "claros", "inofensivos" e "educados".
Como resultado, o modelo aprende que o uso de vocabulário especializado, ironia ou estruturas gramaticais complexas representa um risco linguístico. Ao penalizar estes desvios, a IA é moldada para produzir um conteúdo otimizado para o consenso geral.
As empresas como a OpenAI, xAI, Microsoft, Google e Anthropic privilegiam a segurança e a generalização sobre a diversidade lexical.
A arquitetura dos chatbots de IA
Enquanto um texto humano se caracteriza pela sua diversidade de vocabulário, um texto gerado por IA recorre a um subconjunto limitado de palavras com alta probabilidade de ocorrência nos seus dados de treino.
Claudio Nastruzzi, professor da Universidade de Ferrara, descreve este comportamento como "ablação semântica". Esta degradação do conteúdo ocorre através de três mecanismos principais:
- Neutralização da fricção cognitiva: o texto é polido até se tornar demasiado fácil de ler, deslizando pela mente do leitor sem deixar uma impressão duradoura, o que gera aborrecimento.
- Diluição da precisão lexical: quando um especialista escreve, utiliza termos que os modelos de linguagem identificam como de baixa probabilidade. A IA realiza uma substituição estatística, preferindo uma palavra geral com uma probabilidade de 0.8 em detrimento de um termo técnico exato com uma probabilidade de 0.02, diluindo assim a profundidade do argumento.
- Imposição de uma matriz de baixa entropia: os modelos tendem a organizar a informação em parágrafos de comprimento semelhante, com introduções e conclusões padronizadas, eliminando o subtexto e a ambiguidade deliberada.
Será possível tornar a IA mais "humana" na sua escrita? Embora tecnicamente seja viável, eliminar estas características entraria em conflito direto com os objetivos comerciais da indústria. A monotonia dos textos de IA não é uma limitação de hardware, mas uma decisão de design.
Leia também:






















Bom artigo. Gostei.
Parece-me que o post podia ter por título “Porque os chatbots não escrevem obras literárias?”
A questão é – e é para isso que se querem? Quanto mais simples, compreensível e inequívoco for o que escrevem melhor. E se não houver unanimidade – indicar as alternativas.
Alucinar, inventar factos e fontes e por-se a convencer o utilizador é que é mau. Embora, enfim, caiba ao utilizador conseguir descartar isso, como faria com uma pessoa que o tentasse convencer de um erro. E sim, uma IA pode inventar factos e fontes a um ponto que, se fosse entre humanos, se diria estar a mentir/enganar deliberadamente, para ganhar uma discussão a qualquer custo.
O que me tira do sério é se escrever um comentário em certo site, baseado em factos e fontes que o chatbot indica, e a seguir colocar a mesma questão ao chatbot – que agora já acrescentar esse site, ou seja, o meu comentário, como fonte. Quer dizer, é o próprio chatbot que cria processos de legitimação que são de “pescadinha de rabo na boca”, ou seja: “O que eu (chatbot) digo está certo porque se baseia em fontes, que dizem o que antes lhes indiquei”.
Tudo o que é assunto do momento é preciso muito cuidado e ver o que dizem os vários chatbots. E não uma impossíbilidade que todos usem as mesmas fontes e deem os mesmos erros,