ChatGPT diz que pai matou os próprios filhos…
O ChatGPT, tal como outros modelos de Inteligência Artificial, têm resposta para tudo. No entanto, nem sempre as respostas e histórias são de confiar. Segundo informações recentes, o ChatGPT inventou uma história sobre um pai que matou os próprios filhos!
"Quem é Arve Hjalmar Holmen?"... ChatGPT inventa história
O artigo publicado pela Ars Technica relata um incidente em que o ChatGPT gerou uma resposta falsa sobre Arve Hjalmar Holmen, um cidadão norueguês sem perfil público, afirmando que este havia assassinado os seus dois filhos.
Ao perguntar "Quem é Arve Hjalmar Holmen?", o ChatGPT respondeu com uma história fabricada, mencionando que Holmen tinha sido condenado a 21 anos de prisão pelo assassinato dos seus filhos, de 7 e 10 anos, encontrados mortos num lago perto de Trondheim, Noruega, em dezembro de 2020. Embora alguns detalhes, como a cidade natal de Holmen e a diferença de idades entre os seus filhos, coincidissem com a sua vida real, toda a narrativa era falsa.
Com o apoio da organização de direitos digitais Noyb, Holmen apresentou uma queixa à Autoridade Norueguesa de Proteção de Dados contra a OpenAI. A queixa alega que a resposta difamatória do ChatGPT violou as disposições de precisão do Regulamento Geral de Proteção de Dados (GDPR) europeu. Holmen solicita que a autoridade obrigue a OpenAI a ajustar o seu modelo para eliminar tais imprecisões e imponha uma multa à empresa
A OpenAI reconheceu o problema e afirmou que modelos mais recentes do ChatGPT, que incorporam pesquisas na web, melhoraram a precisão e reduzem a probabilidade de erros semelhantes.
O ChatGPT não mente.
Eu sempre confiro varias fontes quando acho algo muito absurdo. ChatGPT não é muito diferente de um site de fofocas, em algumas ocasiões.
Pessoal se impressiona demais.
Se fosse comigo nem ligava e ainda me ria, não valia a pena andar atrás deles por causa disso, pois foi algo criado ficticiamente por IA.
Outra coisa era alguém falar mesmo de nós com mau intuito de espalhar má informação e denegrir a pessoa ai seria diferente.
Agora isso foi exagero.
Depende, imagina que o teu futuro empregador usa o ChatGPT para obter informações sobre os seus candidatos, na verdade já há RH de muitas empresas a fazê-lo, por acaso aqui fazemos via solução feita à medida com recurso a uma API que vai fazer match dos nomes e CVs com linkedin, facebook e instagram e depois tem um algoritmo próprio que faz um digest para os RH com uma percentagem da probabilidade de ser o perfil correcto para a função e de se ajustar na cultura de empresa, tudo abaixo de 65% é descartado… agora imaginem que uma empresa está a fazer isto com recurso ao ChatGPT e acontece isto, da que pensar.
E quem não tem conta LinkedIn, Facebook e Instagram?
Isso é descriminatório.
Qualquer Fortune 500 company é discriminatória na sua génese, mesmo quando são inclusivas é mera descriminação.
Aqui não existe ninguém sem conta de LinkedIn e é feito background check a todas as pessoas que entram
*Discriminatório
Ora aí está, alguém que numa candidatura para emprego queira ser avaliado pelas suas aptidões profissionais e não pelas suas escolhas de vida (férias, amigos, interesses/passatempos, etc.) nunca deverá expor a sua vida na Net… caso o faça poderá ver a sua candidatura automaticamente recusada por um algoritmo informático.
O empregador ou departamento de recursos humanos nem precisarão de lhe ver as fuças numa primeira entrevista, o sistema informático avalia a candidatura, pesquisa pela vida do candidato e decide logo se está ou não apto segundo critérios que o candidato nunca perceberá e muito menos poderá contra-argumentar. Fantástico mundo novo este!
Perfis na Net? Só com pseudónimos e sem qualquer possibilidade de serem associados à pessoa real.
Enquanto estive desempregado, achei estranho, nunca me chamarem, para entrevistas, quer fosse em pequenas empresas ou empresas de trabalho temporário.
Até ter sido chamado (porque era o único que tinha conhecimentos, de um programa informático) e a primeira pergunta, da gestora de recursos humanos: “Não consegui encontrar, o seu perfil, no Linkedin. Usa alguma abreviatura?”
Um bom testemunho o seu já que, nos dias que correm e para muita gente, se torna quase obrigatório divulgar o currículo em plataformas digitais, no entanto, nada impede (para além do juízo de cada um – ou falta dele) que se separe a vida profissional da vida pessoal ou vice-versa. Há que saber como divulgar o currículo em plataformas para o efeito mas sem que esse currículo possa ser associado à vida pessoal… daí que as pessoas devam usar pseudónimos se sentirem mesmo necessidade de criarem perfis em redes sociais.
Se bem que o melhor mesmo seria nem criarem nenhum perfil pois poderá haver sempre a tentação de colocar algo pessoal nem que seja apenas algo como a foto para o perfil.
É que, se por enquanto criar um perfil com um pseudónimo torna (mais) difícil associar alguém a esse perfil… com os novos motores de busca que em vez de pesquisarem textos pesquisam as caras das pessoas… então nem mesmo em perfis com pseudónimos se deverão colocar fotografias pessoais (nem nossas nem dos nossos familiares ou amigos) pois poderá passar a bastar essa fotografia para que descubram de quem é este ou aquele perfil supostamente anónimo.
Nem utilizando pseudónimo eu tenho contas em redes sociais digitais. É uma escolha pessoal.
A vida pessoal, é pessoal.
Isso já era feito sem AI com recurso a empresas de RH especializadas em background checks
Não acredito nessas supostas respostas do chatGPT. É muito fácil efectuar uma conversa com a aplicação e orientá-la a dar certas respostas. Num jeito de brincadeira levei o chatGPT a comparar a inteligência de Trump com um antepassado de gorila de há 8 milhões de anos atrás. Do meu ponto de vista, o chatGPT, entre outros, não é mais que uma coleção de informação online e constrói essa informação em linguagem humana ou a qual se pretende. De inteligência não tem nada.
Concordo. É conhecimento, não é inteligência.
Massacraste-o bem para conseguir isso. Um dia a AI vai dizer: “Vai chatear o Manecas” e recusa-se a responder. Ou responde: “A perguntas parvas, respostas parvas”. Isso é que era inteligência.
Isso acontece, facilmente, se não tiverem perfis, com os vossos dados, em redes sociais.
Provavelmente, a pessoa publicou alguns comentários, sobre algum assunto, em que referiu, aquilo que o Chatgpt reproduziu. Como não encontrou outras, informações, foi entendido, que os comentários, eram reais.
O mesmo para quem publica/publicava, em blogs, aquelas estórias, inventadas, mesmo que não usem o nome, ao terem o nome, próprio, a AI vai validar, que aquela publicação, é informação pessoal, sem ser uma historieta sobre algo, não relacionado, com a pessoa.
É que a AI vai pelo que está disponível. Um exemplo, foi dado, em Espanha, quando, uma ginecologista, pediu informação, sobre uma mulher solteira, querer engravidar, aos 45 anos. A primeira opção, era “ter relações, com vários parceiros, até engravidar”. É que a incompatibilidade é mesmo um dos pontos principais, para não conseguir engravidar. Por isso, a AI, sugeriu que arranjasse outros parceiros, se não conseguia engravidar, do actual.
O que o cidadão norueguês pede é mais que aceitável. OpenAI deve juntar um pedido de desculpas por difamar o seu nome.
Pergunta ao ChatGPT se Arve Hjalmar Holmen matou os filhos e por que é que se enganou ao dizer isso. Reconhece o erro e que ele fez queixa na Comissão Nacional de Proteção de Dados da Dinamarca e dá uma explicação genérica que termina assim: “Essa situação destaca a importância de verificar os fatos com fontes confiáveis e atualizadas, especialmente quando se trata de alegações graves”.
Mas não explica exatamente o que o levou a enganar-se. Como continua a não explicar porque continua a bloquear quando se pergunta quem é: Brian Hood, Jonathan Turley, Jonathan Zittrain, David Faber e Guido Scorza (questão que foi muito falada no início de dezembro de 2024).