A desinformação, impulsionada pela IA, foi difícil de evitar nas horas e dias que se seguiram ao ataque terrorista de Bondi Beach, uma vez que algumas plataformas apresentavam alegações duvidosas aos utilizadores que tentavam encontrar informações factuais.
A página X “para você”, que oferece conteúdo determinado por um algoritmo, estava repleta de detalhes falsos, entre eles: que o ataque que deixou 15 mortos foi uma operação psicológica ou de falsa bandeira; que os responsáveis pelo ataque eram soldados das FDI; que os feridos eram atores da crise; que uma pessoa inocente foi um dos supostos agressores; e que o herói muçulmano sírio que lutou contra os agressores era um cristão com nome inglês.
A IA generativa só piorou as coisas.
Um clipe alterado do primeiro-ministro de Nova Gales do Sul, Chris Minns, com áudio deepfake fazendo afirmações falsas sobre os agressores, foi compartilhado em várias contas.
Num outro exemplo particularmente flagrante, uma imagem gerada por IA baseada numa fotografia real das vítimas foi alterada para sugerir que se tratava de um ator de crise que tinha maquilhagem vermelha aplicada no rosto para o fazer parecer sangue.
“Eu vi essas imagens enquanto me preparava para a cirurgia hoje e não vou dignificar esta campanha doentia de mentiras e ódio com uma resposta”, postou o homem retratado na imagem falsa, o advogado de direitos humanos Arsen Ostrovsky, posteriormente postado no X.
O ministro da Informação do Paquistão, Attaullah Tarar, disse que seu país foi vítima de uma campanha coordenada de desinformação online após o ataque terrorista na praia de Bondi, na qual circulavam falsas alegações de que um dos suspeitos era cidadão paquistanês.
O homem que foi falsamente identificado disse ao Guardian Australia que era “extremamente perturbador” e traumatizante que sua foto estivesse circulando nas redes sociais junto com alegações de que ele era o suposto agressor.
Tarar disse que o paquistanês foi “vítima de uma campanha maliciosa e organizada” e alegou que a campanha de desinformação teve origem na Índia.
Enquanto isso, o chatbot de IA do X, Grok, disse aos usuários que um funcionário de TI com nome em inglês foi o herói que atacou e desarmou um dos supostos atiradores, e não Ahmed al-Ahmed, nascido na Síria. Esta alegação parece ter origem num site criado no mesmo dia do ataque terrorista para imitar um site de notícias legítimo.
Imagens de Ahmed geradas por IA também proliferaram nas redes sociais, promovendo esquemas de criptografia e falsas arrecadações de fundos.
Estava muito longe do apogeu do Twitter como centro de notícias de última hora. A desinformação também circulava nessa altura, mas era menos comum e não era transmitida através de um algoritmo concebido para recompensar o envolvimento com base na indignação (especialmente para contas verificadas que beneficiariam financeiramente desse envolvimento).
Muitas das postagens que promoviam alegações falsas tiveram centenas de milhares ou até milhões de visualizações.
Notícias legítimas circulavam no X, mas foram enterradas sob a desinformação impulsionada pela IA.
Quando Musk assumiu o X, ele desmantelou o esquema de verificação de fatos do site em favor de um sistema de classificação de usuários chamado “notas da comunidade”, que adiciona verificação colaborativa de fatos dos usuários às postagens. Outras plataformas estão fazendo o mesmo. Meta desmantelou seu sistema anterior de verificação de fatos em favor da implementação de sua própria versão de notas da comunidade.
Mas, como disse o professor Timothy Graham da QUT esta semana, o sistema de notas comunitárias não é útil em situações em que as opiniões estão profundamente divididas. Demora muito. Desde então, as Notas da Comunidade foram aplicadas a muitos dos exemplos acima, mas isso aconteceu muito depois de a maioria das pessoas ter visto as postagens originais em seus feeds.
X está testando que Grok gere suas próprias notas da comunidade para verificar as postagens, mas se o exemplo de Ahmed servir de referência, isso é ainda mais preocupante.
A empresa não respondeu a perguntas sobre o que está fazendo para lidar com a desinformação postada em sua plataforma ou espalhada por seu chatbot de IA.
Uma graça salvadora é que muitas das falsificações ainda são facilmente detectadas… por enquanto. O falso Minns, por exemplo, tinha sotaque americano, deixando óbvio que não era ele. A postagem do ator da crise tinha muitas das características da geração não confiável de imagens de IA, como texto gerado incorretamente em uma camiseta.
Na maior parte, a mídia ignorou as postagens ou as criticou.
Mas à medida que os modelos de IA melhoram, isso pode mudar, tornando ainda mais difícil distinguir factos de ficção. Enquanto isso, as empresas de IA e as plataformas que hospedam o seu conteúdo parecem indiferentes a fazer qualquer coisa para evitá-lo.
Digi, o grupo industrial que representa as plataformas de mídia social na Austrália, propôs remover a exigência de abordar a desinformação de um código da indústria no início deste ano, dizendo que “a experiência recente” mostrou que “a desinformação é uma questão controversa e politicamente carregada dentro da comunidade australiana”.
É difícil ver como esta semana mudará as coisas.