Advogado usou ChatGPT para pesquisas, mas foi enganado pelo chatbot que criou casos falsos
Desde que o chatGPT foi apresentado que este chatbot tem sido usado para pesquisa de informação. Com problemas reconhecidos, a OpenAI tem tentado procurar resolver estas questões. Agora, um advogado nos EUA usou o ChatGPT para escrever um relatório num caso, com citações falsas.
Um caso grave de utilização da ferramenta da OpenAI
A questão da fidelidade dos dados do ChatGPT já tinha sido identificada. Por diversas vezes este chatbot foi apanhado a inventar dados e a criar informação que, na verdade, não existiam. É a forma deste sistema dar respostas quando não tem informação sobre temas.
Esta é uma situação complicada e que tem de ser resolvida de forma rápida, uma vez que muitos utilizadores não validam a informação que é fornecida. Assim, e se usados, esses dados não podem ser considerados fidedignos e comprometem a sua utilização.
A lawyer used ChatGPT to do "legal research" and cited a number of nonexistent cases in a filing, and is now in a lot of trouble with the judge pic.twitter.com/AJSE7Ts7W7
— Daniel Feldman (@d_feldman) May 27, 2023
Advogado acreditou no ChatGPT para as suas fontes
O caso mais recente vem dos EUA, onde um advogado usou o ChatGPT para criar um relatório num caso que está em tribunal. Do que revela o jornal New York Times, o advogado Steven Schwartz recorreu recentemente ao chatbot da OpenAI para ter ajuda na escrita de um resumo jurídico, com resultados desastrosos.
A empresa de Schwartz está a processar a companhia aérea colombiana Avianca. Quando a companhia aérea pediu a um juiz federal que terminasse o caso, os advogados apresentaram um documento de 10 páginas argumentando por que o processo deveria prosseguir. Este cita mais de meia dúzia de decisões judiciais, incluindo "Varghese v. China Southern Airlines", "Martinez v. Delta Airlines" e "Miller v. United Airlines". Infelizmente estas não podem ser encontradas porque foi o ChatGPT que as criou.
As consequências que podem surgir deste caso
Num depoimento apresentado, Schwartz revelou que usou o chatbot para complementar a pesquisa realizada no caso. Declarou que não sabia da possibilidade deste conteúdo do ChatGPT podia ser falso. Chegou a partilhar imagens onde mostrava que tinha perguntado ao ChatGPT se os casos citados eram reais. A resposta foi sim, mostrando até onde as decisões podiam poderiam ser encontradas.
Apesar do problema, o advogado lamenta o uso do ChatGPT. Ainda não se sabe se poderá repetir a escrita do documento e o juiz do caso marcou uma audiência para 8 de junho para discutir possíveis sanções a serem aplicadas Schwartz. Já se esperavam situações destas, mas não com o impacto que está a ter.
Este artigo tem mais de um ano
Estão a espera do que??
O chat GPT o motor de pesquisas, a Wikipédia, etc.
São informações que algum humano inseriu.
Ainda a pouco tempo uns putos do secundário, tanto forçaram alterações no Google Maps, que mudaram o Nome da escola para Prisão.
” Esta na NET é porque é real”
Hahaga
Tudo leva a crer que o advogado usou a versão gratuita do ChatGPT com base no GPT-3.5, que foi pré-treinado com informação até outubro de 2021 – e que não tem acesso à internet para colmatar a informação ou confirmar os dados (o GPT-4 tem).
Diz a CNN: “Numa declaração juramentada esta semana, [o advogado] disse que “lamenta muito ter utilizado a inteligência artificial generativa para complementar a pesquisa jurídica realizada aqui e nunca o fará no futuro sem a verificação absoluta de sua autenticidade”.
Que diabo, nem consultou o processo 925 F3d 1339 (11th Circle 2019) para ver se tinha sido julgado favoravelmente em relação ao seu caso?! Não viu que os advogados de defesa o iam fazer?! O caso é:
“Roberto Mata processou a companhia aéreas Avianca por ferimentos que ele diz ter sofrido num carrinho de serviço enquanto estava na companhia aérea em 2019, alegando negligência de um funcionário.” O advogado é “Steven Schwartz, da firma Levidow, Levidow & Oberman e licenciado em Nova York há de três décadas”.
Este mundo esta perdio
Mas porque e que o advogado usou o chatgpt que nem sequer esta reconhecido por essas entidades ? Os advogados tem as base de dados proprias para o efeito. Se vamos comecar a usar o chatgpt para tudo e mais alguma coisa estamos bem tramados.
É mesmo advogado …
Agora imaginemos o que pode vir quando aplicado num órgão estatal …
Eu não confio no ChatGPT para me dar informações. Utilizo muito mas é para me poupar tempo a realizar tarefas. Tudo o que seja informação, sou eu a “alimentar” para que ele trate com base no que eu introduzi, especialmente resumos sobre determinados temas.
Aliás, alertei a minha namorada que estava a utilizar o ChatGPT para se preparar para os exames M23 para estudar história de Portugal. Estava a indicar datas erradas sobre o Absolutismo vs Liberalismo.
Quem arrisca acreditar no que o ChatGPT diz pode correr muito mal, como aqui neste caso. Talvez a grande capacidade dele seja mesmo a programação em que consegue escrever código de muito bom nível e até mesmo verificar código conseguindo perceber o que cada coisa faz, indicar erros e até mesmo oferecer melhorias no código. Nisso passou a fazer parte das minhas ferramentas de trabalho.