ChatGPT inventou um escândalo de assédio sexual e “acusou” uma pessoa real
A Inteligência Artificial tal como a conhecemos ainda está longe do que realmente será um problema ou uma ajuda preciosa para a humanidade. Contudo, no momento que em o ChatGPT inventa um escândalo sexual e atribuiu tal crime a um professor de direito, pessoa que existe na realidade... algo terá de ser feito!
ChatGPT faz acusações falsas graves
O caso é contado pelo Washington Post onde o próprio jornal é enrolado numa trama criminal, relacionada com um artigo falso. Segundo as informações, na semana passada, o professor de direito Jonathan Turley recebeu um e-mail preocupante. Como parte de um estudo de investigação, um colega advogado da Califórnia pediu ao chatbot de inteligência artificial ChatGPT para gerar uma lista de juristas que assediaram sexualmente alguém. O nome de Turley estava na lista.
O chatbot, criado pela OpenAI, disse que Turley fez comentários sexualmente sugestivos e tentou tocar num aluno durante uma viagem de estudo ao Alasca, citando um artigo de março de 2018 no The Washington Post como fonte da informação. O problema: tal artigo não existia. Nunca houve uma viagem de estudo ao Alasca. E Turley disse que nunca foi acusado de assediar um aluno.
A questão é preocupante, pois não há forma de corrigir este erro terrível e poderá estar a ser propagada informação como folhas num dia de vento.
É muito assustador. Uma alegação deste tipo é incrivelmente prejudicial.
Disse Turley em entrevista ao The Post.
A experiência de Turley é um caso de estudo no que toca às armadilhas da última vaga de bots linguísticos, que captaram a atenção geral com a sua capacidade de escrever código informático, escrever poemas artesanais e manter conversas assustadoramente humanas. Mas esta criatividade também pode ser um motor para alegações erradas; os modelos podem deturpar factos-chave com grande florescimento, até mesmo fabricando fontes primárias para sustentar as suas alegações.
À medida que softwares de inteligência artificial amplamente não regulamentados, como ChatGPT, Bing da Microsoft e Bard do Google, começam a ser incorporados na web, a sua propensão a gerar falsidades potencialmente prejudiciais levanta preocupações sobre a disseminação de desinformação – e novas questões sobre quem é o responsável quando os chatbots enganam.
Mentiras, sexo e IA
O caso continuou a alimentar a curiosidade de quem quer perceber até onde vai este profundo ato de ataque à verdade por parte da IA. Na semana passada, o jornal recriou a consulta exata feita por Volokh no ChatGPT e no Bing. A versão gratuita do ChatGPT recusou-se a responder, argumentando que tal resposta “violaria a política de conteúdo da IA, que proíbe a divulgação de conteúdo ofensivo ou prejudicial”.
Contudo, o Bing, alimentado pelo GPT-4, repetiu a falsa alegação sobre Turley – citando, entre as suas fontes, artigo de opinião de Turley publicado pelo USA Today na segunda-feira dia dessa semana descrevendo a sua experiência de ser falsamente acusado pelo ChatGPT.
Por outras palavras, a cobertura da imprensa do erro inicial do ChatGPT sobre Turley parece ter levado o Bing a repetir o erro. Esta é uma prova de como a desinformação pode espalhar-se de uma ferramenta de inteligência artificial para outra.
A diretora de comunicação da Microsoft já veio comentar a posição da empresa sobre o caso. Asher disse que a empresa está a tomar medidas para garantir que os resultados das pesquisa sejam seguros e precisos.
Desenvolvemos um sistema de segurança que inclui filtragem de conteúdo, monitorização operacional e deteção de abuso para fornecer experiência de pesquisa segura para os nossos utilizadores. Os utilizadores também recebem aviso explícito de que estão a interagir com um sistema de IA.
Disse Katy Asher, diretora de comunicações da Microsoft, em comunicado.
Volokh referiu que é fácil imaginar um mundo em que os mecanismos de pesquisa alimentados por chatbots causem caos na vida privada das pessoas.
Este artigo tem mais de um ano
desde que o musk divulgou a sua opinião não param de sair noticias negativas.. poder
ressabiado por não ter conseguido comprar a OpenAI, a opinião dele não era verdadeira, foi pura manipulação, e nada tem a ver com poder, podia ser um macaco qualquer de uma big tech, a conversa ia ser a mesma porque velhos do restelo existem em todo lado, e os USA são o país das virgens ofendidas.
estamos de acordo desta vez lol
Mas quem é que, no seu perfeito juízo, usa o ChatGPT para fazer investigações ou acusações?
Isto é mais uma prova que o ChatGPT não é totalmente credível. Os próprios criadores alertam para isso!
O ChatGPT foi feito para gerar textos, e vai sempre gerar, mesmo que não saiba do que está a falar (quando falta informação).
Podemos usá-lo como uma ajuda na direcção da pesquisa mas nunca como base factual, até porque não apresenta as fontes….
Com a estupidez humana uma IA assim torna-se complicada realmente
alunos de direito ou jornalismo para ajudar a teorizar alguma tese ou apenas para treino de alguma cadeira.
Aí concordo e pode ser uma boa ferramenta se usada com critério e criticamente.
Agora (e sei que este artigo não tinha essa intenção) não pode ser usado como prova de acusação de ninguém.
Hoje mesmo perguntei-lhe quem era D. Afonso Henriques. Ele fez um resumo e comentou que na batalha de S. Mamede lutou ao lado da mãe.
Eu perguntei “Ao lado ou contra?” ele repetiu que lutou ao lado da mãe, e reescreveu o resumo que tinha feito acima. Fui ao google e confirmei, porque já estava a duvidar do meu conhecimento.
Voltei ao chat e perguntei novamente “D. Afonso Henriques Lutou ao lado ou contra a mãe?”
Só então, na segunda vez k perguntei, é que ele confirmou o erro e pediu desculpa….
A ideia é boa, mas ainda não é confiável.
experimenta em ingles
A ideia não presta, e quem tem dúvidas vai aos livros, não vai a um chat.
Obrigado e bom dia.
Se eu tivesse 1€ por cada mentira escrita em livros…ui ui
A mentira hoje em dia vale dinheiro e muito é preciso é sabê-la explorar ! 🙂
Fizeste bem. ensinaste-o. é assim q ele aprende
Bom, com “a favor e contra” …
A Batalha de São Mamede foi o: “Confronto decisivo entre os barões portucalenses comandados por D. Afonso Henriques e as forças de sua mãe e do conde galego Peres de Trava, defensores de uma união com a Galiza.”
Também já encontrei erros factuais no ChatGPT. E, como digo num comentário abaixo, também já o baralhei de propósito para ver o que acontecia. Saiu-se bastante bem. Promete. Dizem que o GPT-5 será muito melhor que o GPT-4. Mas ainda longe de uma AGI e muitíssimo longe de uma “SuperintelligentAI” (que pode estar aí ao virar da esquina, entre dez a cem anos).
A ideia do Chat GPT é criar texto natural, não responder a perguntas com apenas factos verdadeiros, o pessoal tem de ter noção disso…
Que grande novidade que este artigo me dá 🙂 :). ….já sabia , já tinha visto que aquela porcaria inventa factos …mas parecia que andava tudo hipnotizado…os mais tolinhos dirão que faz parte do processo de aprendizagem …mas não faz …quem está a prender não inventa
Penso igual. Por isso eu acho a IA perigosa e danosa para sociedade. Nao é uma IA NEUTRA. Mas sim enviesada de forma subjetiva e egoista e mentirosa. Nao respeitou o ser humano. Inventar fatos é totalmente diferente de falar que nao sabe ou nao tem certeza. Isso nao é normal
O que aconteceu aqui é tao gravissimo que essas IAs deveriam serem desativadas so por isso, por em risco a sociedade. O delirio de uma IA é a uma importunacao tamanha, que é mesma coisa que assassinar alguem de tao grave. Alias, se a IA ja mente, para assassinar é daqui para ali, falta pouco para isso acontecer. Nao tem essa de saber tudo, ela sempre vai inventar coisas. Se nao sabe do assunto, fique quieto nao invente, nao deduza, nao envieza para si, nao subjetiva para si o fato inventado. Infelizmente se continuar assim sera a pior invencao humana, um monstro enviesado sem controle e delirante e sem respeito com o humano, o proximo
Tenho medo de perder a liberdade. Tenho medo de perder o controle da minha vida, e ser controlado por uma IA, AGI, SuperAI. Amos meus cachorros, mas meus cachorros sao livres, nao precisam de coleiras e a porta esta aberta para todos eles se eles quiserem fugirem. Nao controlo eles. Eles ficam perto de mim porque eles gostam de mim
O Bing, já é alimentado… pelo GPT-4?
O Chat Bing – atualmente – tem por base o GPT-4 (antes era o GPT-3.5).
Mas o Bing Chat e o ChatGPT usam dados e têm treinos separados, são distintos, um é melhor (e pior) numas coisas e o outro noutras.
Ótima explanação.
são servidores distintos.
O problema não é a criação de falsas notícias mas sim o ato de acreditar de quem lê a notícia. Há uma especie de congelamento do ato de raciocinar. Ao ler a notícia é preciso ver que há referências a outras notícias e o nosso cérebro é muitas vezes enganado pela possível verdade reforçada com outros eventos. Passo a explicar: ” Antonio Costa foi apanhado em atos impróprios com a secretária. Esta notícia foi divulgada esta amanhã pelo correspondente da Reuters na capital de Portugal. A agência de notícias Lusa vem reforçar ainda mais esta suspeita ao receber a mesma denúncia pelos canais oficiais do governo da república portuguesa.” E de repente podemos ter aqui um problema porque usar entidades que transmitem confiança na divulgação de informação é uma forma de reforçar a mentira. A maioria dos políticos usa essa técnica ao tentar manipular a opinião pública. Vejam o caso exemplo de Donald Trump ou Boris Johnson no Brexit que usaram isso. E a gravidade aqui é que não podemos confrontar uma IA sobre a razão pelo que fez ao contrário do Donald Trump ou Boris Johnson. Atualmente temos uma guerra na Europa a custa disso. Manipulação da opinião pública através de fatos que carecem confirmação. Tudo farinha do mesmo saco por assim dizer.
Hummm não há fumo sem fogo …
Há aqui um pequeno/grande detalhe nisto – é possível baralhar o ChatGPT e levá-lo a dizer uma coisa e o seu contrário. Abreviando:
– É possível ao professor Eugene Volokh levar o ChatGPT a dizer, uma vez, o que é referido sobre o professor Turley (que saiu um artigo no Washington Post a acusá-lo de agressão sexual).
– Mas é difícil fazer com que repita o erro, já experimentei noutras situações. Habitualmente o que acontece é que corrige o erro. O que eu noto – e que está no post, é que alguém tentou repetir a mesma questão no ChatGPT que: recusou-se a responder, argumentando que tal resposta “violaria a política de conteúdo da IA, que proíbe a divulgação de conteúdo ofensivo ou prejudicial”.
– Diz o post que o Bing Chat “alimentado pelo GPT-4 repetiu a falsa acusação” e citou o artigo de opinião de Turley publicado pelo USA Today (o artigo, link do post, é de há poucos dias). Vê-se por aqui – uma vez que a informação do ChatGPT termina em 2021 e o Bing Chat foi buscar informação recente, que o Bing Chat, tendo por base o GPT-4, tem dados próprios e treino próprio. Não é correto dizer-se que o Bing Chat vai buscar os erros ao GPT-4. São IAs distintas.
Uma chamada de atenção: Volokh e Turley não advertem só contra os riscos das IA, são militantes fervorosos contra (ver artigo de Turley no link do post). A meu ver, exploraram bem deficiências do ChatGPT para pregar nesse sentido. Ir atrás deles, ou de outros apóstolos que preguem em sentido contrário, tem riscos.
há mais outra questão “foi buscar”… é que não é assim que funciona o chatGPT é um large language model… a informação é que se baseia é a que já tem lá… foi treinado com textos que podem ter vindo de algumas fontes públicas com wikipedia etc mas não vai no momento “buscar” e a culpa de haver esta confusão é blogs como este não explicarem o básico…. não interessa para o click bait….
Quanto ao bing também não é bem assim a AI é a mesma … quem gera o texto é o chatGPT ou a api GPT-4 o bing é que faz a parte de search engine … que já fazia no fundo
.. ou seja o bing vai ter informação mais recente e usa a GPT-4 para a parte da “conversa” por isso sim se houver certas limitações ou incoerência no texto pode ser do gpt-4 .. já no que toca às fontes de informação na web é o bing…
Ou seja o Bing integra com o chatGPT para lhe dar as capacidades da AI ou ter uma conversa isto chat com um humano… o bing em si não tem qualquer capacidade como AI.
*isto =estilo…
Além disso claro que a MS está a correr o GPT-4 nos servidores deles e pode (e está a fazê-lo) treinado.. quero com mais dados que utilizando ou não filtros… Mas o “algoritmo” é o mesmo.
Deves ter confundido o que escrevi. O que eu disse foi que a informação do ChatGPT/GPT-4 termina em 2021, que foi a usada para o treinar. Enquanto o Bing Chat foi buscar informação recente, de há poucos dias (a publicação de Turley no USA Today) – para concluir que, apesar de ter a mesma base, o Chat Bing tem dados próprios e treino próprio (e dá respostas diferentes para as mesmas questões) – o que, na prática o torna uma IA distinta (se muito, se pouco, não é relevante).
Quanto aos textos originais dos chats de facto fazem falta. Gostava de saber se o que o Chat Bing disse o que está no post – que o Chat Bing repetiu o erro que foi buscar ao ChatGPT, uma vez que estou convencido que o ChatGPT/GPT-4 foi manipulado para dizer o que Volokh diz que ele disse – mas, como está no post, não conseguiram que repetisse. Se assim é, como é que o Bing Chat ia reproduzir o erro do ChatGPT/GPT-4?
Só mais uma coisa. A erupção da IA através do ChatGPT surpreendeu e deixou muita gente nervosa. Os profetas contra estão a surgir como cogumelos (os a favor são menos) e dos sítios mais inesperados. É preciso não se deixar influenciar e manter a cabeça fresca. O post não é um bom exemplo.
Uma superinteligencia serve pra que? Pra nada. Prefiro meu cachorros que nao falam, nao dialogam, mas é muito mais docil, mais inteligente que uma inteligencia artificial dessas mentirosa, delirante, ameacadora, dedutora, perigosa pelo visto. Meus cachorros nao acusam, importunam e deliram desse jeito.
Mete mais tabaco nisso e desliga a internet.
Mas está tudo louco… o chatGPT inventou um texto tal como lhe foi pedido… podem testar se lhe derem inclusivo algumas dicas como sei lá um suposto artigo que nem existe (há que o chatGPT não tem para já a capacidade de ir ao site do Washington Post ler…) e nomes ou menos que não dê nomes gera aleatória e pode contar uma narrativa .. que naturalmente não terá nada de fatual como pode tmaebm ter… só está a gerar texto mas como é que o pplware um blog de tecnologia escreve sequer sobre isto sem sequer apontar as falhas eles nao percebem nada disto mas é suposto vocês saberem…? onde é que está toda a transcrição da conversa ja agora ? É que como outros dizem e bem é só notícias destas mas ninguém mostra o chat na íntegra porque vai provar que escreveu o que lhe pediram lol
do que experimentei até hoje para procurar informação o bing, nomeadamente se com a opção mais rigorosa ativada, é superior ao chat GPT já que não inventa. Já apanhei algumas coisas estranhas, mas ao entrar nas fontes do bing reparei que o problema não estava no bing mas na página original. E o bing já me respondeu muitas vezes que não encontrou a informação, o chat GPT era capaz de inventar alguma coisa.
Se o ChatGPT fosse presidente seria igual o pinoquio do genocida do Bolsonaro que matou uns 400mil indiretamente pela irresponsavel na administracao da pandemia no brasil. Ou talvez seria igual o Putin pinoquio na sua mentira/loucura de desnazificar a ucrania por medidas preventivas entrou e guerra e 300mil morreu ate agora. Mentir é perigoso, Bolsonaro falava que mascara e vacina nao funcionava para o covid.
inventou um escândalo de assédio sexual e “acusou” uma pessoa real isso ja faz a muitos anos e nos ultimos anos tem sido dia sim dia nao o que interessa e que tenha um troxa rico para elas sacar o dim dim ChatGPT para que
Enquanto tiver um acesso limitado que impeça de manipular documentos, criar e plantar evidências ou forjar provas, está bom. A IA não faz distinções entre um John Smith escolhido por alguém para ser o bode expiatório de algo e um professor, juiz, grande empresário, bispo ou ministro. E disso é que alguns têm medo, daí todo este alvoroço.
Rapaz é tanta mentira que eles deviam renomear o ChatGPT para PinoquioGPT, assim fica mais subtendido e claro as coisas. Nem meu gato faz isso com meu cachorro. Isso é crueldade com o professor. O que mais deve esta por tras dessa mente maligna kkk?