A Inteligência Artificial tal como a conhecemos ainda está longe do que realmente será um problema ou uma ajuda preciosa para a humanidade. Contudo, no momento que em o ChatGPT inventa um escândalo sexual e atribuiu tal crime a um professor de direito, pessoa que existe na realidade… algo terá de ser feito!
ChatGPT faz acusações falsas graves
O caso é contado pelo Washington Post onde o próprio jornal é enrolado numa trama criminal, relacionada com um artigo falso. Segundo as informações, na semana passada, o professor de direito Jonathan Turley recebeu um e-mail preocupante. Como parte de um estudo de investigação, um colega advogado da Califórnia pediu ao chatbot de inteligência artificial ChatGPT para gerar uma lista de juristas que assediaram sexualmente alguém. O nome de Turley estava na lista.
O chatbot, criado pela OpenAI, disse que Turley fez comentários sexualmente sugestivos e tentou tocar num aluno durante uma viagem de estudo ao Alasca, citando um artigo de março de 2018 no The Washington Post como fonte da informação. O problema: tal artigo não existia. Nunca houve uma viagem de estudo ao Alasca. E Turley disse que nunca foi acusado de assediar um aluno.
A questão é preocupante, pois não há forma de corrigir este erro terrível e poderá estar a ser propagada informação como folhas num dia de vento.
É muito assustador. Uma alegação deste tipo é incrivelmente prejudicial.
Disse Turley em entrevista ao The Post.
A experiência de Turley é um caso de estudo no que toca às armadilhas da última vaga de bots linguísticos, que captaram a atenção geral com a sua capacidade de escrever código informático, escrever poemas artesanais e manter conversas assustadoramente humanas. Mas esta criatividade também pode ser um motor para alegações erradas; os modelos podem deturpar factos-chave com grande florescimento, até mesmo fabricando fontes primárias para sustentar as suas alegações.
À medida que softwares de inteligência artificial amplamente não regulamentados, como ChatGPT, Bing da Microsoft e Bard do Google, começam a ser incorporados na web, a sua propensão a gerar falsidades potencialmente prejudiciais levanta preocupações sobre a disseminação de desinformação – e novas questões sobre quem é o responsável quando os chatbots enganam.
Mentiras, sexo e IA
O caso continuou a alimentar a curiosidade de quem quer perceber até onde vai este profundo ato de ataque à verdade por parte da IA. Na semana passada, o jornal recriou a consulta exata feita por Volokh no ChatGPT e no Bing. A versão gratuita do ChatGPT recusou-se a responder, argumentando que tal resposta “violaria a política de conteúdo da IA, que proíbe a divulgação de conteúdo ofensivo ou prejudicial”.
Contudo, o Bing, alimentado pelo GPT-4, repetiu a falsa alegação sobre Turley – citando, entre as suas fontes, artigo de opinião de Turley publicado pelo USA Today na segunda-feira dia dessa semana descrevendo a sua experiência de ser falsamente acusado pelo ChatGPT.
Por outras palavras, a cobertura da imprensa do erro inicial do ChatGPT sobre Turley parece ter levado o Bing a repetir o erro. Esta é uma prova de como a desinformação pode espalhar-se de uma ferramenta de inteligência artificial para outra.
A diretora de comunicação da Microsoft já veio comentar a posição da empresa sobre o caso. Asher disse que a empresa está a tomar medidas para garantir que os resultados das pesquisa sejam seguros e precisos.
Desenvolvemos um sistema de segurança que inclui filtragem de conteúdo, monitorização operacional e deteção de abuso para fornecer experiência de pesquisa segura para os nossos utilizadores. Os utilizadores também recebem aviso explícito de que estão a interagir com um sistema de IA.
Disse Katy Asher, diretora de comunicações da Microsoft, em comunicado.
Volokh referiu que é fácil imaginar um mundo em que os mecanismos de pesquisa alimentados por chatbots causem caos na vida privada das pessoas.