A IA está longe de ser perfeita e apresenta muitos problemas. As respostas estão a ser aperfeiçoadas, mas ainda surgem situações anormais e pouco lógicas. A mais recente tomou a Internet de assalto e deu origem a muitas teorias. O nome David Mayer bloqueia o ChatGPT e nem a OpenAI sabia explicar o porquê.
O nome David Mayer bloqueia o ChatGPT
O ChatGPT despertou a curiosidade depois de terminar abruptamente as conversas ao encontrar determinados nomes. Alguns utilizadores revelaram que o assistente de IA deixou de responder após introduzirem determinados nomes. Claro que isso criou uma curiosidade anormal na Internet e as teorias rapidamente surgiram.
O popular chatbot deixa de responder após introduzir alguns nomes. Os primeiros testes incluíram nomes tão diferentes como David Mayer, David Faber, Brian Hoods, Guido Scorza, Jonathan Turley e Jonathan Zittrain. A resposta nestes casos foi o deixar de responder quando foram introduzidos comandos com esses nomes e a apresentação da mensagem “Isto impede-me de gerar respostas”.
Algumas teorias vão desde proteções de privacidade e proteção de dados até falhas no sistema de filtragem do chatbot. Outros utilizadores acreditam que resulta de pessoas que tentam remover informações das plataformas online através de pedidos de RGPD ou ações legais.
A resposta da OpenAI para este caso
A OpenAI, criadora do ChatGPT, esclareceu, entretanto, o assunto. Explicou que o problema não é sobre questões de RGPD ou pedidos pessoais. É simplesmente uma “falha” causada por uma ferramenta interna que sinaliza erradamente o nome de David Mayer e os restantes.
As falhas do ChatGPT não são novas. Antes, tinha dificuldade em compreender o sarcasmo, confundia datas ou fazia afirmações ousadas, mas anormalmente erradas. A OpenAI enquadra isto como soluços num sistema que está a aprender com uma enorme fonte de dados.
Mas este não é apenas um problema do ChatGPT. Outras ferramentas de IA tiveram o seu lote de problemas. Os resumos de pesquisa de IA do Google, por exemplo, recomendaram colocar cola na pizza como um dos seus ingredientes. Também o chatbot de IA do Bing passou por uma crise existencial quando recebeu demasiadas perguntas pessoais.