Imagine condensar a personalidade, opiniões e estilo de tomada de decisão de uma pessoa numa “cópia” de Inteligência Artificial (IA). A Universidade de Stanford, em colaboração com o Google DeepMind, desenvolveu réplicas de IA de mais de 1000 participantes, baseando-se em informações recolhidas durante entrevistas de duas horas.
A Google e a Universidade de Stanford só precisam de 2 horas
O objetivo do projeto era criar agentes de IA capazes de reproduzir o comportamento humano com elevada precisão. Para isso, participantes foram recrutados pela Bovitz, uma empresa de pesquisa de mercado, e receberam 60 dólares como remuneração por participar numa entrevista com um interlocutor de IA.
O processo começava com os participantes a lerem passagens de “The Great Gatsby” para calibrar o sistema de áudio.
Posteriormente, durante as duas horas de entrevista, os participantes discutiram uma variedade de tópicos, incluindo política, família, stress no trabalho e redes sociais. Estas conversas produziram transcrições detalhadas com uma média de 6491 palavras, que serviram como base para o treino das réplicas de IA.
Os resultados obtidos foram notáveis
Quando avaliados em inquéritos sociais como o General Social Survey (GSS) e o Big Five Personality Inventory (BFI), as réplicas de IA replicaram cerca de 85% das respostas dos participantes. No entanto, o desempenho foi menos convincente em tarefas de tomada de decisão económica, como o Prisoner’s Dilemma, onde a precisão das réplicas caiu para cerca de 60%.
Apesar destas limitações, as aplicações potenciais desta tecnologia são vastas. Decisores políticos e empresários poderiam usar simulações de IA para prever as reações públicas a novas políticas ou produtos. Em vez de depender de focus groups ou de sondagens repetidas, seria possível obter perceções através de uma única conversa detalhada com uma réplica de IA.
Os investigadores acreditam que esta tecnologia pode ajudar a explorar estruturas sociais, testar intervenções e desenvolver teorias mais profundas sobre o comportamento humano. Contudo, avanços desta natureza trazem também riscos significativos.
Questões éticas emergem em torno do uso indevido destas réplicas de IA. Mal-intencionados poderiam explorar esta tecnologia para manipular opiniões públicas, personificar indivíduos ou simular vontades coletivas com base em dados sintéticos.
Combinando potencial transformador e desafios consideráveis, o projeto de Stanford e do Google DeepMind levanta uma questão crucial: até que ponto devemos permitir que a tecnologia imite tão fielmente o comportamento humano?
Leia também: