Pplware

Advogado usou ChatGPT para pesquisas, mas foi enganado pelo chatbot que criou casos falsos

Desde que o chatGPT foi apresentado que este chatbot tem sido usado para pesquisa de informação. Com problemas reconhecidos, a OpenAI tem tentado procurar resolver estas questões. Agora, um advogado nos EUA usou o ChatGPT para escrever um relatório num caso, com citações falsas.


Um caso grave de utilização da ferramenta da OpenAI

A questão da fidelidade dos dados do ChatGPT já tinha sido identificada. Por diversas vezes este chatbot foi apanhado a inventar dados e a criar informação que, na verdade, não existiam. É a forma deste sistema dar respostas quando não tem informação sobre temas.

Esta é uma situação complicada e que tem de ser resolvida de forma rápida, uma vez que muitos utilizadores não validam a informação que é fornecida. Assim, e se usados, esses dados não podem ser considerados fidedignos e comprometem a sua utilização.

Advogado acreditou no ChatGPT para as suas fontes

O caso mais recente vem dos EUA, onde um advogado usou o ChatGPT para criar um relatório num caso que está em tribunal. Do que revela o jornal New York Times, o advogado Steven Schwartz recorreu recentemente ao chatbot da OpenAI para ter ajuda na escrita de um resumo jurídico, com resultados desastrosos.

A empresa de Schwartz está a processar a companhia aérea colombiana Avianca. Quando a companhia aérea pediu a um juiz federal que terminasse o caso, os advogados apresentaram um documento de 10 páginas argumentando por que o processo deveria prosseguir. Este cita mais de meia dúzia de decisões judiciais, incluindo “Varghese v. China Southern Airlines”, “Martinez v. Delta Airlines” e “Miller v. United Airlines”. Infelizmente estas não podem ser encontradas porque foi o ChatGPT que as criou.

As consequências que podem surgir deste caso

Num depoimento apresentado, Schwartz revelou que usou o chatbot para complementar a pesquisa realizada no caso. Declarou que não sabia da possibilidade deste conteúdo do ChatGPT podia ser falso. Chegou a partilhar imagens onde mostrava que tinha perguntado ao ChatGPT se os casos citados eram reais. A resposta foi sim, mostrando até onde as decisões podiam poderiam ser encontradas.

Apesar do problema, o advogado lamenta o uso do ChatGPT. Ainda não se sabe se poderá repetir a escrita do documento e o juiz do caso marcou uma audiência para 8 de junho para discutir possíveis sanções a serem aplicadas Schwartz. Já se esperavam situações destas, mas não com o impacto que está a ter.

Exit mobile version