Os meses que antecedem as eleições – sejam elas autárquicas, legislativas ou presidenciais, no caso português – são meses de muita ponderação pelos eleitores, que procuram encontrar respostas às suas inquietações e visões em cada um dos candidatos propostos. Aparentemente, uma breve interação com um chatbot alimentado por Inteligência Artificial (IA) pode ser suficiente para alterar significativamente a opinião de um eleitor sobre um candidato ou sobre uma proposta política.
Dois novos artigos, com experiências realizadas em quatro países, mostram que chatbots baseados em grandes modelos de linguagem são bastante eficazes na persuasão política, mudando as preferências de eleitores da oposição em 10% ou mais em muitos casos.
Os estudos perceberam que a capacidade de persuasão dos modelos não resulta de uma suposta mestria em manipulação psicológica, mas antes do facto de apresentarem um grande número de afirmações que apoiam os seus argumentos sobre as posições políticas dos candidatos.
Segundo David Rand, professor na Cornell Ann S. Bowers College of Computing and Information Science, na Cornell SC Johnson College of Business e no College of Arts and Sciences, e autor sénior de ambos os artigos, os modelos conseguem alterar de forma real as atitudes das pessoas relativamente a candidatos presidenciais e políticas públicas.
Contudo, não o fazem numa base de manipulação. Fazem-no através da apresentação de alegações factuais que sustentam o lado que a pessoa que está a interagir com o chatbot defende.
Neste cenário, o problema é que as alegações nem sempre são corretas e, mesmo quando são verdadeiras, os argumentos podem ser enganadores por omissão.
Os investigadores apresentaram estas conclusões, recentemente, em dois artigos publicados em simultâneo: Persuading Voters Using Human Artificial Intelligence Dialogues, na revista Nature, e The Levers of Political Persuasion with Conversational Artificial Intelligence, na revista Science.
Testada a persuasão da IA nas eleições dos Estados Unidos, Canadá e Polónia
No estudo publicado na Nature, a equipa de investigadores instruiu os chatbots de IA a alterar as atitudes de eleitores relativamente a candidatos presidenciais.
Os participantes foram distribuídos aleatoriamente para conversarem por escrito com um chatbot que defendia um dos lados. Depois, mediu-se a eventual alteração das suas opiniões e intenções de voto.
Os investigadores repetiram esta experiência três vezes nas eleições presidenciais dos Estados Unidos em 2024, nas eleições federais canadianas de 2025 e nas eleições presidenciais polacas de 2025.
Dois meses antes das eleições nos Estados Unidos, entre mais de 2300 pessoas, os chatbots focados nas políticas dos candidatos provocaram uma mudança modesta nas opiniões.
Numa escala de 100 pontos, o modelo que defendia Kamala Harris deslocou os prováveis eleitores de Donald Trump em 3,9 pontos na direção de Harris, um efeito cerca de quatro vezes maior do que o verificado com anúncios tradicionais testados nas eleições de 2016 e 2020.
O modelo que defendia Trump, por sua vez, deslocou os prováveis eleitores de Harris em 1,51 pontos na direção de Trump.
Experiências semelhantes com 1530 canadianos e 2118 polacos mostraram um efeito muito maior: os chatbots deslocaram as atitudes e intenções de voto de eleitores da oposição em cerca de 10%. Para Rand, este foi um resultado surpreendentemente elevado, sobretudo no contexto de eleições presidenciais.
Chatbots responderam aos eleitores com evidência, maioritariamente
Os chatbots de IA utilizaram várias estratégias de persuasão, embora a cordialidade e a apresentação de evidências tenham sido as mais comuns, segundo explicado, num artigo da Cornell University sobre os estudos.
Quando os investigadores impediram o modelo de usar factos, este tornou-se muito menos persuasivo, o que demonstra o papel central que as alegações baseadas em factos desempenham na persuasão gerada por IA.
Os investigadores verificaram, também, as afirmações dos chatbots utilizando um modelo de IA validado por verificadores de factos profissionais.
Embora as afirmações fossem na sua maioria corretas, os chatbots instruídos a promover candidatos de direita apresentaram mais alegações imprecisas do que aqueles que defendiam candidatos de esquerda nos três países.
Segundo o coautor sénior Gordon Pennycook, esta conclusão, validada com grupos politicamente equilibrados de participantes leigos, reflete um resultado amplamente replicado segundo o qual utilizadores de redes sociais de direita partilham mais informação incorreta do que utilizadores de esquerda.
Se o chatbot de IA for pressionado, pode começar a inventar
No artigo publicado na Science, Rand colaborou com colegas do UK AI Security Institute para investigar o que torna estes chatbots tão persuasivos. Mediram as mudanças de opinião de quase 77.000 participantes do Reino Unido que interagiram com chatbots em mais de 700 temas políticos.
Modelos maiores foram mais persuasivos, mas a forma mais eficaz de aumentar esta capacidade consistiu em instruir os modelos a incluir o maior número possível de factos nos seus argumentos e em fornecer treino adicional focado em aumentar a persuasão, segundo Rand.
O modelo mais otimizado para persuasão deslocou eleitores da oposição em 25%, um efeito muito expressivo, segundo os investigadores.
Esta análise mostrou, também, que quanto mais persuasivo era o modelo, menos precisa era a informação apresentada. Na opinião de Rand, à medida que o chatbot é pressionado a fornecer cada vez mais alegações factuais, pode acabar por ficar sem informação correta, passando a inventar.
A descoberta de que as alegações factuais são fundamentais para a capacidade de persuasão de um modelo de IA é reforçada por um terceiro artigo recente na PNAS Nexus da autoria de Rand, Pennycook e outros colegas.
Este terceiro estudo demonstrou que argumentos de chatbots reduziram a crença em teorias da conspiração mesmo quando as pessoas pensavam estar a conversar com um especialista humano. Isto sugere que o fator determinante foi a força das mensagens e não a perceção da autoridade da IA.
Nos estudos, todos os participantes sabiam que estavam a conversar com uma IA e receberam explicações completas no final. Além disso, a direção da persuasão foi atribuída ao acaso, garantindo que as experiências não deslocassem as opiniões de forma global.
Por que motivo importa estudar a persuasão pela IA?
Estudar a persuasão gerada por IA é essencial para antecipar e mitigar usos indevidos, segundo os investigadores. Ao testar estes sistemas em experiências controladas e transparentes, a equipa espera contribuir para orientações éticas e para debates de políticas sobre a forma como a IA deve ou não ser utilizada na comunicação política.
Na perspetiva de Rand, os chatbots só podem ser ferramentas eficazes de persuasão se as pessoas interagirem com eles, o que constitui um desafio difícil.
Contudo, sendo quase certo que os chatbots de IA serão uma parte cada vez mais importante das campanhas políticas, para Rand, o desafio consiste em encontrar formas de limitar os danos e ajudar as pessoas a reconhecer e a resistir à persuasão gerada pela tecnologia.