Um mistério ou apenas uma falha? O ChatGPT não funciona se usar estes nomes
A IA está longe de ser perfeita e apresenta muitos problemas. As respostas estão a ser aperfeiçoadas, mas ainda surgem situações anormais e pouco lógicas. A mais recente tomou a Internet de assalto e deu origem a muitas teorias. O nome David Mayer bloqueia o ChatGPT e nem a OpenAI sabia explicar o porquê.
O nome David Mayer bloqueia o ChatGPT
O ChatGPT despertou a curiosidade depois de terminar abruptamente as conversas ao encontrar determinados nomes. Alguns utilizadores revelaram que o assistente de IA deixou de responder após introduzirem determinados nomes. Claro que isso criou uma curiosidade anormal na Internet e as teorias rapidamente surgiram.
O popular chatbot deixa de responder após introduzir alguns nomes. Os primeiros testes incluíram nomes tão diferentes como David Mayer, David Faber, Brian Hoods, Guido Scorza, Jonathan Turley e Jonathan Zittrain. A resposta nestes casos foi o deixar de responder quando foram introduzidos comandos com esses nomes e a apresentação da mensagem “Isto impede-me de gerar respostas”.
Algumas teorias vão desde proteções de privacidade e proteção de dados até falhas no sistema de filtragem do chatbot. Outros utilizadores acreditam que resulta de pessoas que tentam remover informações das plataformas online através de pedidos de RGPD ou ações legais.
A resposta da OpenAI para este caso
A OpenAI, criadora do ChatGPT, esclareceu, entretanto, o assunto. Explicou que o problema não é sobre questões de RGPD ou pedidos pessoais. É simplesmente uma “falha” causada por uma ferramenta interna que sinaliza erradamente o nome de David Mayer e os restantes.
As falhas do ChatGPT não são novas. Antes, tinha dificuldade em compreender o sarcasmo, confundia datas ou fazia afirmações ousadas, mas anormalmente erradas. A OpenAI enquadra isto como soluços num sistema que está a aprender com uma enorme fonte de dados.
Mas este não é apenas um problema do ChatGPT. Outras ferramentas de IA tiveram o seu lote de problemas. Os resumos de pesquisa de IA do Google, por exemplo, recomendaram colocar cola na pizza como um dos seus ingredientes. Também o chatbot de IA do Bing passou por uma crise existencial quando recebeu demasiadas perguntas pessoais.
Sim, durante dias o ChatGPT crashava quando se perguntava por David Maye e Brian Wood e já passou a responder. Mas, agora, continua a crashar quando se pergunta por Dvid Faber ou Guido Scorza.
São dois aspetos interessantes – por que é o ChatGPT bloqueava e como é que os fãs foram descobrindo cada vez mais nomes.
A explicação da OpenAI não esclareceu nada: “foi devido a uma falha no sistema. Uma de nossas ferramentas sinalizou esse nome por engano e impediu que ele aparecesse nas respostas, o que não deveria ter feito. Estamos a trabalhar numa correção”. O que é que é isso?
muitos não sabem mas as famílias do topo da pirâmide que tanto se fala nem semmpre são as com maior peso decisor… porém a máfia italiana está no cerne de muitas decisões de topo a nível global… e judeus, claro!
Not approved by Rothschilds!