A apresentadora do GOOD Morning Britain, Kate Garraway, foi vítima de um deepfake criado por IA, com fotos dela abraçando um casal fictício aparecendo online.
Aqui, Kate, 58, mãe de dois filhos, que perdeu o marido Derek Draper para a Covid há dois anos, revela como isso é profundamente perturbador e como a IA pode ser perigosa.
NO ano passado, as pessoas têm me elogiado por um relacionamento que não tenho.
Alguns amigos ligaram. Fui parado por estranhos na rua.
Tudo porque a inteligência artificial decidiu inventar um novo capítulo na minha vida, completo com imagens e manchetes atraentes que simplesmente não são verdadeiras.
Foi estranho, já que os votos de felicidades pareciam começar a acontecer quase um ano depois da morte de meu marido Derek.
A princípio pensei ingenuamente que as perguntas bem intencionadas sobre a minha vida se deviam a isso, já que o tempo passa de forma diferente para aqueles que não são diretamente afetados, como seus amigos próximos e familiares. Achei que o momento das perguntas foi puro acidente.
Também fiquei muito emocionado por eles se preocuparem com a forma como eu e nossa família estávamos depois de tanto tempo.
Seria perfeitamente compreensível se eles tivessem seguido em frente e esquecido, ocupados com suas próprias vidas.
Muitos dos que me pararam na rua também ficaram comovidos pela dor e tivemos muitas conversas calorosas e comoventes.
Nem eles nem eu sabíamos que algo muito mais perturbador estava enganando a todos nós.
Agora sei que os sites de notícias de IA e os bots de IA registam estas datas profundamente pessoais e utilizam-nas directamente como gatilhos para gerar disparates para ganhar dinheiro.
A IA é algo em que todos estamos pensando e começando a usar, mas ela realmente destaca a natureza potencialmente disruptiva da tecnologia quando você se torna alvo de seu uso.
Neste caso foi para inventar um novo romance.
No início, os confrontos imaginários envolviam amigos como Richard Arnold ou Ben Shephard, e ríamos. No caso de Ben e Richard, com uma resposta de “Você teria muita sorte! Claro!”
Mas o ponto de viragem para mim foi quando percebi o impacto que isso poderia ter nos meus filhos e também na família do Derek.
Apareceu uma manchete, enviada por um algoritmo, suponho, dizendo: “Tudo o que você precisa saber sobre o novo namorado de Kate Garraway”.
Fiquei chocada e intrigada ao saber tudo sobre um namorado que não existia.
Fiquei chocada e intrigada ao saber tudo sobre um namorado que não existia.
Kate Garraway
Claro, isso significava que eu havia caído na armadilha do clickbait e, quando continuei lendo, não pude acreditar o quão convincente era, com “fatos” e “cronologias” apresentados como um site de notícias real. Eu mesmo teria acreditado se não soubesse que era falso.
Então, enquanto eu continuava lendo, algo me parou no meio do caminho. Um detalhe da matéria dizia que meu filho estava infeliz e insistia em terminar o relacionamento.
Dizia algo como: “Parece que o relacionamento vai fracassar porque o filho de Kate está infeliz e insiste que ela termine”.
Como se Bill, de 16 anos, já não tivesse o suficiente para lidar (a vida adolescente, a pressão dos exames e a perda do pai), de repente ele foi retratado de uma forma que o fazia parecer um obstáculo à felicidade e egoísta de sua mãe.
Ele é o oposto disso.
O verdadeiro problema é a confiança.
E uma vez que você vê algo assim escrito, não importa o quão falso seja, você não pode deixar de se preocupar.
E se seus colegas o virem? Seus pais? Seus professores?
É um instinto maternal clássico: aguento qualquer bobagem que alguém me diga, mas deixo meus filhos em paz.
Mas isso não é sobre mim ou meu namorado totalmente fictício (e reconhecidamente extremamente bonito) gerado por IA.
O que me preocupa muito mais é o que isto diz sobre o mundo em que vivemos agora e o que isso significa para todos nós. Porque o verdadeiro problema aqui é a confiança. Como podemos confiar mais no que estamos vendo?
A IA está avançando a uma velocidade tal que até mesmo os especialistas estão lutando para acompanhá-la, e muito menos o resto de nós que navega em nossos telefones entre as idas à escola, ao trabalho e ao jantar.
Vemos milhares de imagens e vídeos por semana, absorvendo-os quase inconscientemente. E um número crescente deles são completamente falsos, mas parecem reais.
Eu também fui enganado: vídeos amplamente compartilhados que parecem mostrar pessoas dizendo coisas que nunca disseram. Imagens de indivíduos aparentemente comuns que nem existem.
Endossos falsos, sites de notícias falsos, indignação falsa – tudo projetado para parecer autêntico o suficiente para passar sem dúvida.
A IA pode facilmente cair em mãos erradas e ser usada por pessoas que pretendem perturbar a nossa vida quotidiana.
Num caso, poderá estar a distorcer a agenda informativa e, noutro, o impacto poderá ser mais pessoal, com consequências para a sua família.
E há o que nossos filhos estão vendo. As redes sociais estão inundadas de “pessoas” incrivelmente perfeitas: rostos e corpos perfeitos criados pela IA, apresentados como verdadeiros influenciadores.
Isso coloca ainda mais pressão sobre as mulheres jovens e as crianças para que tenham uma determinada aparência. Os adolescentes também encontram imagens manipuladas de pessoas que conhecem (colegas, conhecidos) que são tremendamente difíceis de desfazer.
Quando tudo pode ser falsificado, as evidências começam a perder o sentido.
Verificado e desafiado
Essa é a parte mais perigosa de tudo. Não só existem mentiras, mas a verdade se torna mais difícil de defender.
Como jornalista, isso dispara todos os alarmes. A confiança é a base das notícias.
O público deve acreditar que confiamos nos nossos factos: que o que lêem, ouvem ou veem foi devidamente pesquisado, verificado e questionado. Que seja baseado na certeza e não numa agenda ou numa invenção.
Uma vez que essa confiança se esgote, todos perdemos o nosso sentido partilhado da realidade.
E já estamos vendo com que facilidade essa erosão pode ocorrer.
As pessoas começam a duvidar de tudo ou, pior ainda, a acreditar apenas no que lhes é conveniente. Quando o conteúdo manipulado se espalha mais rapidamente do que as correções, e quando a indignação ultrapassa a verificação, o espaço para a verdade calma e baseada em evidências diminui.
Precisamos desacelerar. Questione o que estamos vendo. Seja seletivo sobre onde depositamos nossa confiança.
Kate Garraway
Ainda esta semana vimos quão rapidamente as plataformas de IA podem mudar de rumo se assim o desejarem.
Após a preocupação generalizada com os deepfakes de IA supersexualizados de pessoas reais criados com o chatbot de IA de Elon Musk, Grok, foram feitas mudanças para restringir o que poderia ser produzido.
A empresa de Musk e Grok divulgou um comunicado sobre X dizendo que a ferramenta não será mais capaz de editar fotos de pessoas reais para mostrá-las em roupas reveladoras, em jurisdições onde tais imagens modificadas são ilegais.
Foi um debate feio e desconfortável sobre a liberdade de expressão, mas mostrou algo importante: estes sistemas podem ser controlados quando há vontade de o fazer.
Então, o que devemos fazer?
Precisamos desacelerar. Questione o que estamos vendo. Seja seletivo sobre onde depositamos nossa confiança.
Vamos ensinar aos nossos filhos que o ceticismo não é cinismo: é uma habilidade vital. E devemos apoiar mais do que nunca o jornalismo responsável e devidamente regulamentado.
Os meios de comunicação tradicionais podem não ser perfeitos, mas obedecem a padrões elevados, são publicamente desafiados quando erram e estão enraizados na responsabilização.
A IA e as mídias sociais não vão a lugar nenhum. Eles têm um papel vital a desempenhar no nosso futuro. Mas os governos, os reguladores e as empresas tecnológicas devem agir mais rapidamente, porque os danos estão a acontecer agora.
E para todos nós – pais, jornalistas, leitores e telespectadores – a questão que devemos continuar a colocar-nos é simples mas urgente: em quem ainda podemos acreditar e porquê?