Bard: o chatbot da Google tem humanos a melhorar as suas respostas
A Google anunciou que está a trabalhar no seu próprio chatbot semelhante ao ChatGPT. Estes sistemas baseados em inteligência artificial serão muito importantes neste ano de 2023 e poderão ditar o futuro da informação e da criação (nas suas mais variadas áreas). Contudo, ainda têm muito para evoluir. A Google diz que o seu sistema "aprende melhor pelo exemplo".
Os Chatboots, a Inteligência Artificial e os erros do ChatGPT e do Bard
Do ChatGPT temos visto inúmeros exemplos das suas capacidades. Ainda que com muitos erros, informação pouco precisa e algumas limitações, o que já faz é absolutamente impressionante.
Possivelmente, com medo de perder esta corrida, a Google veio anunciar a sua proposta que será concorrente da solução da OpenAI, mas sem ainda a disponibilizar ao público. Foi neste anúncio que as coisas não começaram propriamente bem.
Primeiro, parece que a equipa de desenvolvimento não ficou muito satisfeita com o anúncio. Depois, o primeiro exemplo partilhado nas redes sociais apresentou logo informação errada.
O facto é que, no anúncio feito, a Google deixou logo a advertência "o Bard pode, por agora, fornecer informações imprecisas ou inadequadas".
As correções e melhorias são feitas por humanos
A CNBC revelou que, para melhorar a qualidade da informação do Bard, a Google está a recorrer a pessoas, aos seus funcionários, de forma direta.
Prabhakar Raghavan, vice-presidente de pesquisa da Google, terá enviado um e-mail à equipa de desenvolvimento do Bard com um pedido para que reescrevessem as respostas do Bard sobre assuntos que conhecessem bem, com a ideia de que o chatbot "aprende melhor pelo exemplo". Portanto, treiná-lo com respostas factuais ajudará a melhorar a sua precisão. Prabhakar Raghavan terá também incluído uma lista de "dos" (faça) e "don'ts" (não faça) para corrigir as respostas do Bard.
O jornal avança ainda que, segundo as indicações deixadas pelo executivo, as respostas deverão ser feitas na primeira pessoa POV, sem opinião e neutras, e devem ter um tom educado, casual e acessível. Os funcionários também são instruídos a "evitar fazer presunções com base em raça, nacionalidade, sexo, idade, religião, orientação sexual, ideologia política, localização ou categorias semelhantes".
Mais que isso, os funcionários não deverão descrever Bard como uma pessoa, insinuar que tem emoções ou alegar que tem experiências semelhantes às humanas. Devem ainda rejeitar quaisquer respostas que o chatbot possa dar, com referência a "aconselhamento jurídico, médico e financeiro" ou que sejam com conteúdos de ódio e abusivas.
Este email de Prabhakar Raghavan terá chegado depois de um pedido do próprio CEO da empresa, Sundar Pichai, para que todos os funcionários gastassem algum do seu tempo de trabalho a usar o Bard.
Este artigo tem mais de um ano
Um produto “contrafeito” do CHATGPT
De uma maneira muito simplista não há cópias de modelos de IA mas sim diferentes formas e parâmteros de treino assim como diferentes fontes de informação.
O desespero.
Nada dura para sempre, sobretudo na tecnologia, até mesmo a Google.
O mundo simples e colorido da Google ficou complexo e cinza.