Desde que o chatGPT foi apresentado que este chatbot tem sido usado para pesquisa de informação. Com problemas reconhecidos, a OpenAI tem tentado procurar resolver estas questões. Agora, um advogado nos EUA usou o ChatGPT para escrever um relatório num caso, com citações falsas.
Um caso grave de utilização da ferramenta da OpenAI
A questão da fidelidade dos dados do ChatGPT já tinha sido identificada. Por diversas vezes este chatbot foi apanhado a inventar dados e a criar informação que, na verdade, não existiam. É a forma deste sistema dar respostas quando não tem informação sobre temas.
Esta é uma situação complicada e que tem de ser resolvida de forma rápida, uma vez que muitos utilizadores não validam a informação que é fornecida. Assim, e se usados, esses dados não podem ser considerados fidedignos e comprometem a sua utilização.
A lawyer used ChatGPT to do "legal research" and cited a number of nonexistent cases in a filing, and is now in a lot of trouble with the judge pic.twitter.com/AJSE7Ts7W7
— Daniel Feldman (@d_feldman) May 27, 2023
Advogado acreditou no ChatGPT para as suas fontes
O caso mais recente vem dos EUA, onde um advogado usou o ChatGPT para criar um relatório num caso que está em tribunal. Do que revela o jornal New York Times, o advogado Steven Schwartz recorreu recentemente ao chatbot da OpenAI para ter ajuda na escrita de um resumo jurídico, com resultados desastrosos.
A empresa de Schwartz está a processar a companhia aérea colombiana Avianca. Quando a companhia aérea pediu a um juiz federal que terminasse o caso, os advogados apresentaram um documento de 10 páginas argumentando por que o processo deveria prosseguir. Este cita mais de meia dúzia de decisões judiciais, incluindo “Varghese v. China Southern Airlines”, “Martinez v. Delta Airlines” e “Miller v. United Airlines”. Infelizmente estas não podem ser encontradas porque foi o ChatGPT que as criou.
As consequências que podem surgir deste caso
Num depoimento apresentado, Schwartz revelou que usou o chatbot para complementar a pesquisa realizada no caso. Declarou que não sabia da possibilidade deste conteúdo do ChatGPT podia ser falso. Chegou a partilhar imagens onde mostrava que tinha perguntado ao ChatGPT se os casos citados eram reais. A resposta foi sim, mostrando até onde as decisões podiam poderiam ser encontradas.
Apesar do problema, o advogado lamenta o uso do ChatGPT. Ainda não se sabe se poderá repetir a escrita do documento e o juiz do caso marcou uma audiência para 8 de junho para discutir possíveis sanções a serem aplicadas Schwartz. Já se esperavam situações destas, mas não com o impacto que está a ter.