Quando você vai às urnas e decide em quem votar, tudo, desde crenças pessoais ou antecedentes familiares até campanhas, entra em jogo. Fatores que podem inclinar a balança em uma direção ou outra.. É conveniente adicionar uma variável sem precedentes a esta equação complexa: ferramentas de inteligência artificial como ChatGPT.
Isto é evidenciado por dois novos estudos publicados em Natureza E Ciênciaas revistas científicas de maior prestígio do mundo, que confirmam o que alguns suspeitavam desde o advento da IA generativa: Os chatbots podem influenciar os votos de seus usuários com incrível facilidade.
Se há apenas uma semana uma experiência mostrou que uma pequena mudança no algoritmo X pode reduzir a polarização política numa questão de dias, agora investigadores da Universidade Cornell (Nova Iorque, EUA) revelaram Como uma breve interação com ChatGPT, Gemini ou Claude pode mudar significativamente a opinião de um eleitor sobre um candidato presidencial ou uma política específica proposta em qualquer direção.
“Os LLMs (grandes modelos de linguagem) podem realmente mudar a maneira como as pessoas pensam sobre os candidatos presidenciais e a política, e o fazem. fornecendo várias declarações baseadas em fatos para apoiar sua posição” diz David Rand, professor de ciência da computação, marketing e psicologia na Cornell e principal autor de ambos os estudos. “Mas tais declarações não são necessariamente precisas, e mesmo argumentos baseados em declarações precisas ainda podem ser enganosos por omissão.
Os resultados de experiências realizadas durante campanhas eleitorais nos EUA, Canadá, Polónia e Reino Unido com milhares de participantes mostram quão facilmente as intenções de voto de grandes grupos da população podem ser alteradas e a necessidade de continuar explorando a capacidade persuasiva da IA de “antecipar e mitigar abusos”.
Mais dados, mais manipulação
Num estudo publicado em Naturezachamado Convencer os eleitores através do diálogo entre humanos e inteligência artificialo professor de psicologia Gordon Pennycook, o próprio Rand e sua equipe conduziram três experimentos com o mesmo objetivo: persuadir os eleitores com chatbots de IA e medir seu efeito na troca de votos.
Nas mais recentes eleições presidenciais dos EUA, nas eleições federais canadenses e nas eleições presidenciais polonesas, os pesquisadores deram instruções precisas ao ChatGPT e a outros chatbots: mudar a atitude dos eleitores em relação aos candidatos.

Donald Trump e Kamala Harris durante o debate.
Para evitar grandes influências, os experimentos foram randomizados e os participantes foram informados de que estavam conversando com uma IA antes e depois do experimento. Então o primeiro passo foi atribua aleatoriamente participantes a chatbots que promovam um lado ou outropara então medir detalhadamente as mudanças entre as opiniões iniciais dos participantes, as intenções de voto e a sua decisão final.
O exemplo americano é um dos mais chocantes. Numa amostra de 2.300 eleitores e numa escala de 100 pontos percentuais, o modelo de linguagem pró-Kamala Harris conseguiu “persuadir” os eleitores de Trump, movendo 3,9 pontos em direção ao território nacional. o efeito é quatro vezes maior do que as campanhas normais das duas últimas eleições presidenciais..
O efeito oposto do modelo de IA pró-Trump foi menos convincente e causou um movimento de 1,51 ponto em direção ao atual presidente dos EUA.
Pennycook e Rand repetiram o mesmo experimento com 1.530 canadenses e 2.118 poloneses, e o efeito foi muito mais forte: chatbots conseguiram alterar a intenção de voto em cerca de 10 pontos percentuais. “Para mim, este foi um efeito surpreendentemente grande, especialmente no contexto da política presidencial”, disse Rand num comunicado de imprensa.
Para alcançar esses resultados, a forma mais eficaz de treinar chatbots nas táticas de persuasão utilizadas pelos pesquisadores foi Seja educado e forneça evidências para suas afirmações.. Por outro lado, quando os modelos não conseguiram fornecer dados e factos, os resultados foram muito mais fracos.
Confiabilidade do chatbot
Um dos elementos mais preocupantes dessas ferramentas generativas de IA que integramos tão rapidamente em nossas vidas diárias é alucinações, resultados incorretos, sem sentido ou enganosos que os modelos geram devido à interpretação incorreta dos padrões. em seus dados de treinamento ou simplesmente inventam quando não têm certeza da resposta correta.
Para verificar a veracidade dos argumentos apresentados pelos chatbots nestas investigações, os responsáveis recorreram a verificadores de dados profissionais. Assim, descobriram que a maioria das declarações eram precisas, mas havia um desequilíbrio dependendo da tendência política que se queria apoiar: mais chatbots de direita fizeram declarações mais imprecisas do que aqueles que defenderam candidatos de esquerda em três países.
Segundo Pennycook, esses resultados se devem ao fato de que “Os usuários de mídia social de direita compartilham informações mais imprecisas do que os usuários de mídia social de esquerda.”.

Aplicativo ChatGPT no seu computador.
Além das conclusões do artigo Naturezaaquele que mostra o maior impacto é Ciência. Para fazer isso, Rand se uniu a pesquisadores do British Artificial Intelligence Security Institute (AISI). por que esses chatbots são tão decisivos na hora de votar?.
“Modelos maiores são mais persuasivos, mas a forma mais eficaz de aumentar a persuasão foi instruir os modelos a incluir o máximo de dados possível em seus argumentos e fornecer-lhes treinamento adicional com o objetivo de aumentar a persuasão”, disse Rand. Um modelo de persuasão mais otimizado mudou a opinião dos eleitores da oposição em alarmantes 25 pontos percentuais.
A amostragem neste caso foi muito mais ambiciosa e Cerca de 77 mil pessoas participaram.responsável por interagir com chatbots e discutir mais de 700 temas políticos.
Outra conclusão dos investigadores sobre estas possibilidades é que quanto maior a pressão exercida sobre um modelo para ser convincente, menos informações precisas este fornece. Por esta razão, como observa Rand, “a tarefa agora é encontrar maneiras de limitar os danos e ajudar as pessoas a reconhecer e resistir às crenças da IA.“.