Bard: o chatbot da Google é um “mentiroso patológico” dizem os funcionários
A Google está a ficar para trás na corrida da Inteligência Artificial. Depois do ChatGPT ter explodido na sociedade a Google começou a correr atrás do prejuízo e apresentou o Bard... um chatbot com muitas limitações. Agora, que até já pode ser testado por todos, os funcionários da Google dizem que este sistema é inútil e um "mentiroso patológico".
O chatbot da Google, Bard, foi anunciado (aparentemente) às pressas, tendo estado em testes dentro da empresa durante algum tempo, antes de ficar disponível para o público geral.
Na altura do anúncio houve logo quem reparasse que na revelação do funcionamento do serviço baseado em Inteligência Artificial, a informação apresentada pelo Bard estava errada. Depois surgiram notícias que davam conta do descontentamento dos funcionários que estavam a trabalhar no projeto, por este já ter sido apresentado.
Agora, o Bloomberg vem revelar que existem funcionários que testaram o sistema e que indicam que este é um "mentiroso patológico"... "Digno de vergonha". Estas informações constam de capturas de ecrã a que o jornal teve acesso.
O artigo relata que o Bard partilha, por exemplo, conselhos perigosos como instruções para aterrar aviões ou fazer mergulho.
Num testemunho de um funcionário descreve o sistema como "pior que inútil" e pede para que não seja lançado. Mais grave ainda é que é indicado que a Google está a "desprezar os resultados de uma avaliação de risco", feita por uma equipa interna de segurança, que recomendava que o sistema não estaria pronto para lançamento.
Apesar de tudo o que é descrito, o Bard já está disponível, ainda fase de testes, e é feita mesmo a advertência para esse facto. Ainda assim, o acelerar de um sistema tão poderoso baseado em Inteligência Artificial, poderá comprometer a reputação da Google no próprio setor da tecnologia.
Este artigo tem mais de um ano
Não me parece que, nesse particular, o ChatGPT leve assim tanta vantagem. Pelo menos a julgar pela “conversa” que tive há dias com “ele” sobre investimentos e ações, em particular. No que dependesse do ChatGPT estaria na falência financeira em menos de nada.
qual versao?
Quer dizer que estavas convencido que pedindo uns “conselhos” ao ChatGTP…ficarias milionário de um dia para o outro sem qualquer trabalho da tua parte?! Este teu poste,para mim,vai para o podium dos “melhores” que já li no Pplware…
Nao Vitor, é ao contrario, o Valdemar se nao percebesse nada de investimentos é que ia a falencia…
é engraçado é que eu vejo dezenas de anúncios no Facebook todos os dias, a aliciar pessoas a ganhar dinheiro na bolsa com CHAT GPT, :-)))
Mas andam é a vender softwares antigos (isso chama-se rebranding) com nova imagem, mas são softwares antigos e básicos.
Se um dia a I.A conseguisse dar dicas verdadeiras de investimento, e todas as pessoas começavam a ganhar $, rebentava a bolha.
Acabavam logo com isso.
Nesses sites de investimento o dinheiro flui porque muitos perdem milhões $ e outros ganham. Há sempre necessidade de pessoas perderem dinheiro.
Se todos lucrassem, os sites e o sistema financeiro quebrava.
Curioso, porque já realizei uma extensa conversa sobre investimento e o chatgpt recusou-se a sugerir empresa concretas ou determinado tipo de investimento, alegando sempre tratar-se de uma decisão de risco e da responsabilidade de cada um
ChatGPT cometeu e comete erros no também mas a galera só aponta o dedo para chatbot da Google, dois pesos duas medidas.
A Google precipitou-se a lançar o Bard. Tinha saído o ChatGPT e quiseram dizer logo: “Nós também temos, ó para ele!”. A galera apontou um erro ao Bard por culpa da própria Google, que no vídeo promocional do Bird incluiu uma frase: “Se o seu filho perguntar qual foi o primeiro telescópio a tirar uma fotografia a um planeta fora do sistema solar diga-lhe que foi o X”. Um astrónomo disse que tinha sido outro telescópio e foi uma risota.
Mas em alguma vai ter de lançar o Bard. Se foi mal pré-treinado e dá erros/”mentiras” que são uma vergonha logo se verá.
Acho tudo muito estranho. Não parece que a Google queira perder terreno para a Microsoft….
Há dois “ChatGPT”
– O ChatGPT (ou ChatGPT-3.5), versão gratuita (a API para usar em outras aplicações é paga)
– O ChatGPT-4, a versão Plus, mais recente, disponível apenas por assinatura
Este site indica as diferenças:
https://olhardigital.com.br/2023/03/30/internet-e-redes-sociais/quais-diferencas-entre-chatgpt-e-gpt-4/
Não sei como foi feito o treino do GPT-4, mas sei que para o GPT-3.5 foi utilizada informação até 2021 (inclusíve) e, como não tem acesso à internet não podia atualizá-la. Quem usou o ChatGPT para informação sobre “investimentos e ações”, enfim …
Agora quanto às “mentiras”.
É preciso ter em atenção que os “chatbot AI” não foram concebidos como arquivo/consulta de dados. Foram e continuam a ser pré-treinados para RACIOCINAR, por muito estranho que possa parecer a quem considerar que só os humanos (e animais) podem raciocinar. Então como se evita que os “chatbot AI” alucinem e digam disparates? No caso do ChatGPT é assumido que de preferência, uma resposta interpretativa deve ser do tipo “discurso redondo”, não problemático, se necessário do tipo, “sou uma AI, não me posso pronunciar sobre essas coisas”. Num post anterior, no caso do ChatGPT-3.5, já se percebeu que com determinadas “prompts” era possível “tirá-lo do sério” e entrar em modo “devil” e escrever coisas que, em “modo sensato” não escreveria.
Quanto às “mentiras”, o que é facto é que os “chats”/diálogos não são publicados, nunca se sabe bem se o chatbot mentiu ou foi levado a mentir. Obviamente, não ponho de parte erros do próprio chatbot que se traduzem em mentiras … mas se calhar não são tantas como o pessoal anti-AI apregoam.
Que cena ! …
😉
Triste …
Inteligência ? !
Não.
Porquê?
Artificial …
Então esta bem …
😉
” feira por uma equipa interna de segurança”
Melhor corrigir 😉
Obrigada, corrigido
O Google é muito experiente nisso, esperamos o que sera quando for disponibilizado mundialmente.