PplWare Mobile

Bard: o chatbot da Google é um “mentiroso patológico” dizem os funcionários

                                    
                                

Este artigo tem mais de um ano


Autor: Maria Inês Coelho


  1. Valdemar Santos says:

    Não me parece que, nesse particular, o ChatGPT leve assim tanta vantagem. Pelo menos a julgar pela “conversa” que tive há dias com “ele” sobre investimentos e ações, em particular. No que dependesse do ChatGPT estaria na falência financeira em menos de nada.

    • Luis Borges says:

      qual versao?

    • Vitor Tavares says:

      Quer dizer que estavas convencido que pedindo uns “conselhos” ao ChatGTP…ficarias milionário de um dia para o outro sem qualquer trabalho da tua parte?! Este teu poste,para mim,vai para o podium dos “melhores” que já li no Pplware…

      • Tony says:

        Nao Vitor, é ao contrario, o Valdemar se nao percebesse nada de investimentos é que ia a falencia…

        • sergio says:

          é engraçado é que eu vejo dezenas de anúncios no Facebook todos os dias, a aliciar pessoas a ganhar dinheiro na bolsa com CHAT GPT, :-)))
          Mas andam é a vender softwares antigos (isso chama-se rebranding) com nova imagem, mas são softwares antigos e básicos.
          Se um dia a I.A conseguisse dar dicas verdadeiras de investimento, e todas as pessoas começavam a ganhar $, rebentava a bolha.
          Acabavam logo com isso.
          Nesses sites de investimento o dinheiro flui porque muitos perdem milhões $ e outros ganham. Há sempre necessidade de pessoas perderem dinheiro.
          Se todos lucrassem, os sites e o sistema financeiro quebrava.

    • Nuno says:

      Curioso, porque já realizei uma extensa conversa sobre investimento e o chatgpt recusou-se a sugerir empresa concretas ou determinado tipo de investimento, alegando sempre tratar-se de uma decisão de risco e da responsabilidade de cada um

  2. Josemar Santos says:

    ChatGPT cometeu e comete erros no também mas a galera só aponta o dedo para chatbot da Google, dois pesos duas medidas.

    • Repara says:

      A Google precipitou-se a lançar o Bard. Tinha saído o ChatGPT e quiseram dizer logo: “Nós também temos, ó para ele!”. A galera apontou um erro ao Bard por culpa da própria Google, que no vídeo promocional do Bird incluiu uma frase: “Se o seu filho perguntar qual foi o primeiro telescópio a tirar uma fotografia a um planeta fora do sistema solar diga-lhe que foi o X”. Um astrónomo disse que tinha sido outro telescópio e foi uma risota.
      Mas em alguma vai ter de lançar o Bard. Se foi mal pré-treinado e dá erros/”mentiras” que são uma vergonha logo se verá.

  3. Pedro Afonso says:

    Acho tudo muito estranho. Não parece que a Google queira perder terreno para a Microsoft….

  4. Repara says:

    Há dois “ChatGPT”
    – O ChatGPT (ou ChatGPT-3.5), versão gratuita (a API para usar em outras aplicações é paga)
    – O ChatGPT-4, a versão Plus, mais recente, disponível apenas por assinatura
    Este site indica as diferenças:
    https://olhardigital.com.br/2023/03/30/internet-e-redes-sociais/quais-diferencas-entre-chatgpt-e-gpt-4/
    Não sei como foi feito o treino do GPT-4, mas sei que para o GPT-3.5 foi utilizada informação até 2021 (inclusíve) e, como não tem acesso à internet não podia atualizá-la. Quem usou o ChatGPT para informação sobre “investimentos e ações”, enfim …
    Agora quanto às “mentiras”.
    É preciso ter em atenção que os “chatbot AI” não foram concebidos como arquivo/consulta de dados. Foram e continuam a ser pré-treinados para RACIOCINAR, por muito estranho que possa parecer a quem considerar que só os humanos (e animais) podem raciocinar. Então como se evita que os “chatbot AI” alucinem e digam disparates? No caso do ChatGPT é assumido que de preferência, uma resposta interpretativa deve ser do tipo “discurso redondo”, não problemático, se necessário do tipo, “sou uma AI, não me posso pronunciar sobre essas coisas”. Num post anterior, no caso do ChatGPT-3.5, já se percebeu que com determinadas “prompts” era possível “tirá-lo do sério” e entrar em modo “devil” e escrever coisas que, em “modo sensato” não escreveria.
    Quanto às “mentiras”, o que é facto é que os “chats”/diálogos não são publicados, nunca se sabe bem se o chatbot mentiu ou foi levado a mentir. Obviamente, não ponho de parte erros do próprio chatbot que se traduzem em mentiras … mas se calhar não são tantas como o pessoal anti-AI apregoam.

  5. compro essa também says:

    Que cena ! …

    😉

    Triste …

    Inteligência ? !

    Não.

    Porquê?

    Artificial …

    Então esta bem …

    😉

  6. João Antunes says:

    ” feira por uma equipa interna de segurança”
    Melhor corrigir 😉

  7. Abu Daimone says:

    O Google é muito experiente nisso, esperamos o que sera quando for disponibilizado mundialmente.

Deixe um comentário

O seu endereço de email não será publicado.

You may use these HTML tags and attributes: <a href="" title="" rel=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

*

Aviso: Todo e qualquer texto publicado na internet através deste sistema não reflete, necessariamente, a opinião deste site ou do(s) seu(s) autor(es). Os comentários publicados através deste sistema são de exclusiva e integral responsabilidade e autoria dos leitores que dele fizerem uso. A administração deste site reserva-se, desde já, no direito de excluir comentários e textos que julgar ofensivos, difamatórios, caluniosos, preconceituosos ou de alguma forma prejudiciais a terceiros. Textos de caráter promocional ou inseridos no sistema sem a devida identificação do seu autor (nome completo e endereço válido de email) também poderão ser excluídos.