Bard, o Chatbot da Google que se estreia a apresentar informação errada
A Google anunciou o seu chatbot baseado em inteligência artificial para concorrer contra o ChatGPT. Foi neste anúncio que partilhou um GIF com um exemplo das potencialidades do serviço. Contudo, o resultado apresentou informação errada. E agora, como fica a credibilidade do Bard neste arranque? A Google avisou!
O ChatGPT foi apresentado há poucos meses e já está a revolucionar a internet. O serviço da OpenAI é capaz de escrever código de programação, é capaz de passar em testes de acesso à universidade e até de escrever teses. Há já empresas ligadas à comunicação e imprensa que estão a recorrer ao serviço para escrever artigos ou selecionar informação.
A Google encarou este serviço como um concorrente e já está a trabalhar afincadamente numa proposta à altura. Recorde-se que o criador do Gmail chegou mesmo a referir que o "ChatGPT será o abismo para o negócio da Google".
Bard e um erro que pode colocar em causa a sua reputação mesmo antes do lançamento
O serviço Bard foi confirmado há dois dias pela Google e pretende combinar a amplitude do conhecimento mundial com o poder, a inteligência e a criatividade de grandes modelos de linguagem da Google. Usa especificamente uma "versão de modelo leve do LaMDA" que "requer significativamente menos poder de computação, permitindo escalar para mais utilizadores, permitindo mais feedback".
Na publicação de lançamento do serviço, a Google mostra um GIF onde é feita uma questão ao Bard: “What new discoveries from the James Webb Space Telescope can I tell my 9-year old about?”. Ou seja, é questionada sobre as novas descobertas do Telescópio Espacial James Webb ideais para contar a uma criança de 9 anos.
São deixadas três curiosidades relativas ao telescópio, sendo que uma delas não corresponde à verdade. É respondido que "o JWST tirou as primeiras fotos de um planeta fora do nosso próprio sistema solar. Esses mundos distantes são chamados de 'exoplanetas'. Exo significa 'de fora'."
Ora, é verdade que o telescópio tirou sim fotos a exoplanetas, mas não foi o primeiro a fazê-lo. O Very Large Telescope (VLT) do European Southern Observatory em 2004, já o tinha feito antes, em 2014, segundo a NASA.
Bard is an experimental conversational AI service, powered by LaMDA. Built using our large language models and drawing on information from the web, it’s a launchpad for curiosity and can help simplify complex topics → https://t.co/fSp531xKy3 pic.twitter.com/JecHXVmt8l
— Google (@Google) February 6, 2023
A Google avisou!
A verdade é que esta imprecisão não é algo para o qual a Google não tenha alertado. No anúncio ao serviço, deixou claro que "o Bard pode, por agora, fornecer informações imprecisas ou inadequadas. A fase de testes destina-se a ajudar a Google a continuar a aprender e a melhorar a qualidade e a velocidade do Bard. Nenhum dado sobre como e quando o público pode experimentar o Bard está disponível."
Considerando esta advertência, há claro as questões que se levantam quanto ao futuro. A CNET, por exemplo, tem já em curso um programa de escrita de artigos alocado à equipa do CNET Money baseados em IA, com o ChatGPT. Em informação partilhada recentemente, a empresa referiu que mais de metade dos 77 artigos escritos tiveram que ser corrigidos, "com erros substanciais", alguns tinham pequenos problemas, como nomes incompletos de empresas ou linguagem demasiado vaga para as exigências do canal de informação. Alguns deles ainda apresentavam problemas mais graves, como plágio.
Contudo, para a maioria da população, estas imprecisões podem ser um predigo para o propagar da desinformação. Como os chatbots acertam tanto e dão respostas com elevado grau de confiança, qualquer pessoa que não verifique os factos das suas respostas pode ficar com falsas crenças.
Considerando o caos que a desinformação (não alimentada por IA) já deixou à solta na sociedade, disponibilizar estas tecnologias que podem ser alimentadas pela própria desinformação criada pelo homem, pode levar-nos a um futuro difícil de distinguir o que é falso e verdadeiro.
Este artigo tem mais de um ano
O ChatGPT confunde-se todo com o Dia dos Namorados ser do dia 12 de Junho (em BR) e não 14 de Fevereiro (em PT), como já foi testado por um utilizador aqui do Pplware. Imagino a quantidade de imprecisões de existirão por aí.
Isso só vem mostrar o receio da Google de ter avançado com um serviço como este mais cedo. Eles já tinham esta ferramenta estudada mas foram forçados a disponibilizar o Bard por causa do ChatGPT.
Com o tempo, irá aprender. 🙂
Nem mais, às vezes o importante é ser o primeiro a ficar conhecido em larga escala mesmo não estando perfeito, o ChatGPT também está cheio de imprecisões e erros mas se não tiver concorrência à altura fica sozinho na corrida.
De facto o ChatGPT faz muita coisa e fica-se pelo mais ou menos a maior parte das vezes mas tendo em conta o número de interações que teve ultimamente já tem dados para melhorar o serviço substancialmente enquanto a rival google ficou a ver navios.
Preparem-se para o GPT 4.0. Há-de ser qualquer coisinha …. Lançamento para este ano!
Ficou nítida a pressa, o incômodo e por fim, grande atrapalhamento da Google para acompanhar a Microsoft e seu Bing.
Não me recordo – em outros tempos, a testemunhar a Google metendo os pés pelas mãos para acompanhar a concorrência.
Não tem nada a ver com isso. O Bard tem falhas assim como o ChatGPT e afins
Trata-se de uma parcepção pessoal, com base em indícios.
Mas que percepção? São factos. Quer um quer outro têm falhas e imprecisões.
A Google já tem laMDA há algum tempo, também baseada em GPT-3, mas a OpenAI antecipou-se e arriscou na promoção do ChatGPT e veio agitar o mercado.
Exato. Se arriscou, fez parceria, alcançou projeção na mídia.
Enquanto isso o engenheiro da Google estava gamadão na IA do laboratório secreto. Tipo paixão intelectual, sem oxitocina. lol
Além disso, se a Microsoft não tivesse anunciado o investimento colossal que fez alguém ligaria ao ChatGPT por muito bom que fosse?
Eu que achei inicialmente o chat GPT muitíssimo interessante, começo a ficar preocupado com os eventuais erros. Ou confiamos no resultado e podemos ser enganados, ou vamos validar a informação e perdemos mais tempo do que por métodos tradicionais.
Quando fazemos uma pesquisa num motor de busca surgem vários resultados, e facilmmente vemos alguns deles para comparar. Com o chatGPT surge apenas um resultado, o que mais facilmente leva as pessoas a confiarem.
Vamos ver o que a microsoft e google vão fazer para minimizar estes problemas.
+1
Pelos vistos quando uma IA dá uma resposta errada chama-se “alucinação” 🙂
Que o ChatGPT tem alucinações já se percebeu.
A alucinação do Bard sobre “o primeiro telescópio que tirou fotos de um planeta fora do sistema solar (exoplaneta)”, passava desapercebido se não fosse o caso – de se tratar de um vídeo promocional da Google. Se tivessem dado pelo erro não precisavam de o ter transmitido.
Ontem a Alphabet (empresa-mãe da Google perdeu em bolsa uns impressionantes 100.000 milhões de dólares (8%) e há alguns a dizer que foi por causa do erro.
Não foi, mas o facto de a Microsoft ter anunciado a incorporação do ChatGPT no Bing foi entendido como uma ameaça ao domínio da Google nas pesquisas e o erro do Bard como um sinal de que a Google estava bastante atrasada no corrida.
Wikipedia = 40% de desinformação. Existem equipas especializadas para mexer no wiki e introduzir a informação errada.,
Qual é o endereço para aceder ao Bard?
Chama-se AI porque “imita” a inteligencia biologica. A grande diferenca de uma AI para o IF, THEN, ELSE ‘e que aprende. Temos que as tratar como se trata quem esta’ a aprender… sao quase uns bebes e ja sabem tanto! Orgulho!