PplWare Mobile

ChatGPT inventou um escândalo de assédio sexual e “acusou” uma pessoa real

                                    
                                

Este artigo tem mais de um ano


Autor: Vítor M.


  1. Sergio says:

    desde que o musk divulgou a sua opinião não param de sair noticias negativas.. poder

    • Zé Fonseca A. says:

      ressabiado por não ter conseguido comprar a OpenAI, a opinião dele não era verdadeira, foi pura manipulação, e nada tem a ver com poder, podia ser um macaco qualquer de uma big tech, a conversa ia ser a mesma porque velhos do restelo existem em todo lado, e os USA são o país das virgens ofendidas.

  2. Mr. Y says:

    Mas quem é que, no seu perfeito juízo, usa o ChatGPT para fazer investigações ou acusações?
    Isto é mais uma prova que o ChatGPT não é totalmente credível. Os próprios criadores alertam para isso!

    • Miguel says:

      O ChatGPT foi feito para gerar textos, e vai sempre gerar, mesmo que não saiba do que está a falar (quando falta informação).
      Podemos usá-lo como uma ajuda na direcção da pesquisa mas nunca como base factual, até porque não apresenta as fontes….
      Com a estupidez humana uma IA assim torna-se complicada realmente

    • Zé Fonseca A. says:

      alunos de direito ou jornalismo para ajudar a teorizar alguma tese ou apenas para treino de alguma cadeira.

      • Mr. Y says:

        Aí concordo e pode ser uma boa ferramenta se usada com critério e criticamente.
        Agora (e sei que este artigo não tinha essa intenção) não pode ser usado como prova de acusação de ninguém.

  3. Sabe-se lá says:

    Hoje mesmo perguntei-lhe quem era D. Afonso Henriques. Ele fez um resumo e comentou que na batalha de S. Mamede lutou ao lado da mãe.
    Eu perguntei “Ao lado ou contra?” ele repetiu que lutou ao lado da mãe, e reescreveu o resumo que tinha feito acima. Fui ao google e confirmei, porque já estava a duvidar do meu conhecimento.
    Voltei ao chat e perguntei novamente “D. Afonso Henriques Lutou ao lado ou contra a mãe?”
    Só então, na segunda vez k perguntei, é que ele confirmou o erro e pediu desculpa….

    A ideia é boa, mas ainda não é confiável.

    • Zé Fonseca A. says:

      experimenta em ingles

    • Art says:

      A ideia não presta, e quem tem dúvidas vai aos livros, não vai a um chat.
      Obrigado e bom dia.

    • Luis Rosalino says:

      Fizeste bem. ensinaste-o. é assim q ele aprende

      • Repara says:

        Bom, com “a favor e contra” …
        A Batalha de São Mamede foi o: “Confronto decisivo entre os barões portucalenses comandados por D. Afonso Henriques e as forças de sua mãe e do conde galego Peres de Trava, defensores de uma união com a Galiza.”
        Também já encontrei erros factuais no ChatGPT. E, como digo num comentário abaixo, também já o baralhei de propósito para ver o que acontecia. Saiu-se bastante bem. Promete. Dizem que o GPT-5 será muito melhor que o GPT-4. Mas ainda longe de uma AGI e muitíssimo longe de uma “SuperintelligentAI” (que pode estar aí ao virar da esquina, entre dez a cem anos).

    • Miguel says:

      A ideia do Chat GPT é criar texto natural, não responder a perguntas com apenas factos verdadeiros, o pessoal tem de ter noção disso…

  4. Art says:

    Que grande novidade que este artigo me dá 🙂 :). ….já sabia , já tinha visto que aquela porcaria inventa factos …mas parecia que andava tudo hipnotizado…os mais tolinhos dirão que faz parte do processo de aprendizagem …mas não faz …quem está a prender não inventa

    • Perigosa says:

      Penso igual. Por isso eu acho a IA perigosa e danosa para sociedade. Nao é uma IA NEUTRA. Mas sim enviesada de forma subjetiva e egoista e mentirosa. Nao respeitou o ser humano. Inventar fatos é totalmente diferente de falar que nao sabe ou nao tem certeza. Isso nao é normal

    • Inadmissivel uma IA delirar says:

      O que aconteceu aqui é tao gravissimo que essas IAs deveriam serem desativadas so por isso, por em risco a sociedade. O delirio de uma IA é a uma importunacao tamanha, que é mesma coisa que assassinar alguem de tao grave. Alias, se a IA ja mente, para assassinar é daqui para ali, falta pouco para isso acontecer. Nao tem essa de saber tudo, ela sempre vai inventar coisas. Se nao sabe do assunto, fique quieto nao invente, nao deduza, nao envieza para si, nao subjetiva para si o fato inventado. Infelizmente se continuar assim sera a pior invencao humana, um monstro enviesado sem controle e delirante e sem respeito com o humano, o proximo

    • Tenho medo da IA says:

      Tenho medo de perder a liberdade. Tenho medo de perder o controle da minha vida, e ser controlado por uma IA, AGI, SuperAI. Amos meus cachorros, mas meus cachorros sao livres, nao precisam de coleiras e a porta esta aberta para todos eles se eles quiserem fugirem. Nao controlo eles. Eles ficam perto de mim porque eles gostam de mim

  5. Stanley says:

    O Bing, já é alimentado… pelo GPT-4?

  6. SouHumanoNaoOcidental says:

    O problema não é a criação de falsas notícias mas sim o ato de acreditar de quem lê a notícia. Há uma especie de congelamento do ato de raciocinar. Ao ler a notícia é preciso ver que há referências a outras notícias e o nosso cérebro é muitas vezes enganado pela possível verdade reforçada com outros eventos. Passo a explicar: ” Antonio Costa foi apanhado em atos impróprios com a secretária. Esta notícia foi divulgada esta amanhã pelo correspondente da Reuters na capital de Portugal. A agência de notícias Lusa vem reforçar ainda mais esta suspeita ao receber a mesma denúncia pelos canais oficiais do governo da república portuguesa.” E de repente podemos ter aqui um problema porque usar entidades que transmitem confiança na divulgação de informação é uma forma de reforçar a mentira. A maioria dos políticos usa essa técnica ao tentar manipular a opinião pública. Vejam o caso exemplo de Donald Trump ou Boris Johnson no Brexit que usaram isso. E a gravidade aqui é que não podemos confrontar uma IA sobre a razão pelo que fez ao contrário do Donald Trump ou Boris Johnson. Atualmente temos uma guerra na Europa a custa disso. Manipulação da opinião pública através de fatos que carecem confirmação. Tudo farinha do mesmo saco por assim dizer.

  7. Yamahia says:

    Hummm não há fumo sem fogo …

  8. Repara says:

    Há aqui um pequeno/grande detalhe nisto – é possível baralhar o ChatGPT e levá-lo a dizer uma coisa e o seu contrário. Abreviando:
    – É possível ao professor Eugene Volokh levar o ChatGPT a dizer, uma vez, o que é referido sobre o professor Turley (que saiu um artigo no Washington Post a acusá-lo de agressão sexual).
    – Mas é difícil fazer com que repita o erro, já experimentei noutras situações. Habitualmente o que acontece é que corrige o erro. O que eu noto – e que está no post, é que alguém tentou repetir a mesma questão no ChatGPT que: recusou-se a responder, argumentando que tal resposta “violaria a política de conteúdo da IA, que proíbe a divulgação de conteúdo ofensivo ou prejudicial”.
    – Diz o post que o Bing Chat “alimentado pelo GPT-4 repetiu a falsa acusação” e citou o artigo de opinião de Turley publicado pelo USA Today (o artigo, link do post, é de há poucos dias). Vê-se por aqui – uma vez que a informação do ChatGPT termina em 2021 e o Bing Chat foi buscar informação recente, que o Bing Chat, tendo por base o GPT-4, tem dados próprios e treino próprio. Não é correto dizer-se que o Bing Chat vai buscar os erros ao GPT-4. São IAs distintas.
    Uma chamada de atenção: Volokh e Turley não advertem só contra os riscos das IA, são militantes fervorosos contra (ver artigo de Turley no link do post). A meu ver, exploraram bem deficiências do ChatGPT para pregar nesse sentido. Ir atrás deles, ou de outros apóstolos que preguem em sentido contrário, tem riscos.

    • whocares says:

      há mais outra questão “foi buscar”… é que não é assim que funciona o chatGPT é um large language model… a informação é que se baseia é a que já tem lá… foi treinado com textos que podem ter vindo de algumas fontes públicas com wikipedia etc mas não vai no momento “buscar” e a culpa de haver esta confusão é blogs como este não explicarem o básico…. não interessa para o click bait….

      Quanto ao bing também não é bem assim a AI é a mesma … quem gera o texto é o chatGPT ou a api GPT-4 o bing é que faz a parte de search engine … que já fazia no fundo
      .. ou seja o bing vai ter informação mais recente e usa a GPT-4 para a parte da “conversa” por isso sim se houver certas limitações ou incoerência no texto pode ser do gpt-4 .. já no que toca às fontes de informação na web é o bing…

      Ou seja o Bing integra com o chatGPT para lhe dar as capacidades da AI ou ter uma conversa isto chat com um humano… o bing em si não tem qualquer capacidade como AI.

      • whocares says:

        *isto =estilo…

        Além disso claro que a MS está a correr o GPT-4 nos servidores deles e pode (e está a fazê-lo) treinado.. quero com mais dados que utilizando ou não filtros… Mas o “algoritmo” é o mesmo.

      • Repara says:

        Deves ter confundido o que escrevi. O que eu disse foi que a informação do ChatGPT/GPT-4 termina em 2021, que foi a usada para o treinar. Enquanto o Bing Chat foi buscar informação recente, de há poucos dias (a publicação de Turley no USA Today) – para concluir que, apesar de ter a mesma base, o Chat Bing tem dados próprios e treino próprio (e dá respostas diferentes para as mesmas questões) – o que, na prática o torna uma IA distinta (se muito, se pouco, não é relevante).
        Quanto aos textos originais dos chats de facto fazem falta. Gostava de saber se o que o Chat Bing disse o que está no post – que o Chat Bing repetiu o erro que foi buscar ao ChatGPT, uma vez que estou convencido que o ChatGPT/GPT-4 foi manipulado para dizer o que Volokh diz que ele disse – mas, como está no post, não conseguiram que repetisse. Se assim é, como é que o Bing Chat ia reproduzir o erro do ChatGPT/GPT-4?
        Só mais uma coisa. A erupção da IA através do ChatGPT surpreendeu e deixou muita gente nervosa. Os profetas contra estão a surgir como cogumelos (os a favor são menos) e dos sítios mais inesperados. É preciso não se deixar influenciar e manter a cabeça fresca. O post não é um bom exemplo.

    • Inadmissivel uma IA delirar says:

      Uma superinteligencia serve pra que? Pra nada. Prefiro meu cachorros que nao falam, nao dialogam, mas é muito mais docil, mais inteligente que uma inteligencia artificial dessas mentirosa, delirante, ameacadora, dedutora, perigosa pelo visto. Meus cachorros nao acusam, importunam e deliram desse jeito.

  9. whocares says:

    Mas está tudo louco… o chatGPT inventou um texto tal como lhe foi pedido… podem testar se lhe derem inclusivo algumas dicas como sei lá um suposto artigo que nem existe (há que o chatGPT não tem para já a capacidade de ir ao site do Washington Post ler…) e nomes ou menos que não dê nomes gera aleatória e pode contar uma narrativa .. que naturalmente não terá nada de fatual como pode tmaebm ter… só está a gerar texto mas como é que o pplware um blog de tecnologia escreve sequer sobre isto sem sequer apontar as falhas eles nao percebem nada disto mas é suposto vocês saberem…? onde é que está toda a transcrição da conversa ja agora ? É que como outros dizem e bem é só notícias destas mas ninguém mostra o chat na íntegra porque vai provar que escreveu o que lhe pediram lol

  10. DFS says:

    do que experimentei até hoje para procurar informação o bing, nomeadamente se com a opção mais rigorosa ativada, é superior ao chat GPT já que não inventa. Já apanhei algumas coisas estranhas, mas ao entrar nas fontes do bing reparei que o problema não estava no bing mas na página original. E o bing já me respondeu muitas vezes que não encontrou a informação, o chat GPT era capaz de inventar alguma coisa.

    • Inadmissivel uma IA delirar says:

      Se o ChatGPT fosse presidente seria igual o pinoquio do genocida do Bolsonaro que matou uns 400mil indiretamente pela irresponsavel na administracao da pandemia no brasil. Ou talvez seria igual o Putin pinoquio na sua mentira/loucura de desnazificar a ucrania por medidas preventivas entrou e guerra e 300mil morreu ate agora. Mentir é perigoso, Bolsonaro falava que mascara e vacina nao funcionava para o covid.

  11. Kany west says:

    inventou um escândalo de assédio sexual e “acusou” uma pessoa real isso ja faz a muitos anos e nos ultimos anos tem sido dia sim dia nao o que interessa e que tenha um troxa rico para elas sacar o dim dim ChatGPT para que

  12. AlexX says:

    Enquanto tiver um acesso limitado que impeça de manipular documentos, criar e plantar evidências ou forjar provas, está bom. A IA não faz distinções entre um John Smith escolhido por alguém para ser o bode expiatório de algo e um professor, juiz, grande empresário, bispo ou ministro. E disso é que alguns têm medo, daí todo este alvoroço.

  13. Pinoquio esta devolta says:

    Rapaz é tanta mentira que eles deviam renomear o ChatGPT para PinoquioGPT, assim fica mais subtendido e claro as coisas. Nem meu gato faz isso com meu cachorro. Isso é crueldade com o professor. O que mais deve esta por tras dessa mente maligna kkk?

Deixe um comentário

O seu endereço de email não será publicado.

You may use these HTML tags and attributes: <a href="" title="" rel=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

*

Aviso: Todo e qualquer texto publicado na internet através deste sistema não reflete, necessariamente, a opinião deste site ou do(s) seu(s) autor(es). Os comentários publicados através deste sistema são de exclusiva e integral responsabilidade e autoria dos leitores que dele fizerem uso. A administração deste site reserva-se, desde já, no direito de excluir comentários e textos que julgar ofensivos, difamatórios, caluniosos, preconceituosos ou de alguma forma prejudiciais a terceiros. Textos de caráter promocional ou inseridos no sistema sem a devida identificação do seu autor (nome completo e endereço válido de email) também poderão ser excluídos.