Quando a polícia invadiu a casa de Aaron Pennesi, funcionário de TI da Sydney High School, em Matraville, eles tropeçaram na ponta do iceberg.
A polícia estava investigando o roubo de informações pessoais de colegas depois que a equipe de crimes cibernéticos da Polícia de NSW percebeu que Pennesi havia colocado malware nos computadores da Forest High School.
Descobriu-se que ele capturou informações pessoais de seus colegas e as baixou em um arquivo zip, alegando que as excluiu.
Mas o mais preocupante foram as 54 imagens de abuso infantil que também foram encontradas em seu computador, todas produzidas com inteligência artificial.
No que se acredita ter sido a primeira vez nos tribunais de NSW, Pennesi foi condenado em maio do ano passado por posse de material de abuso infantil criado com inteligência artificial.
Ele foi condenado a uma ordem de correção comunitária de dois anos depois de se declarar culpado de uma acusação de posse de material de abuso infantil e alteração não autorizada de dados para causar prejuízo.
As imagens encontradas em seu computador representam o que parece ser uma nova fronteira para a aplicação da lei, que enfrenta tecnologias em constante evolução e em ritmo acelerado.
Aaron Pennesi foi condenado por criar material de abuso infantil gerado por IA. Imagem: NewsWire/Nikki Short
Um crescimento vil e surpreendente
No período de seis meses, de janeiro a junho de 2025, a linha de denúncias do Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC) dos EUA recebeu mais de 440.000 relatórios sobre o uso de IA generativa na exploração sexual infantil.
Representa um aumento impressionante em relação ao mesmo período do ano passado, quando foram recebidas 6.835 denúncias.
O NCMEC descobriu que, em muitos casos, os criminosos tiraram fotografias reais de crianças e usaram-nas juntamente com inteligência artificial para gerar material de abuso infantil, numa tentativa de chantagear a vítima.
Começou a rastrear o uso de IA em material de abuso infantil em 2023 e diz que o crescimento tem sido “impressionante”.
A diretora de pesquisa do Instituto Australiano de Criminologia, Sarah Napier, disse que em uma pesquisa com adolescentes australianos, descobriu-se que um em cada dez foi submetido a sextorção.
E destes, dois em cada cinco foram submetidos a sextorsão através de imagens manipuladas digitalmente.
“Em uma análise de fóruns de bate-papo na dark web para agressores sexuais infantis, a AIC descobriu que os infratores estavam dando conselhos uns aos outros sobre como gerar CSAM (material de abuso sexual infantil) usando IA, incluindo a obtenção de imagens não sexuais de crianças reais que os atraíssem e, em seguida, solicitando que a IA convertesse as imagens em imagens sexualmente abusivas”, disse a Sra. Napier à NewsWire.
O escritório do Comissário de Segurança Eletrônica da Austrália também relatou um aumento de 218% no material de abuso sexual infantil gerado por IA em um ano.
A comissária de segurança eletrônica, Julie Inman Grant, afirma que as imagens geradas por IA são uma “ameaça presente e crescente”. Imagem: NewsWire/Martin Ollman.
Visualmente indistinguível
A IA agora é usada para criar conteúdo hiper-realista, que às vezes é indistinguível do conteúdo real.
E os combates acontecem principalmente na costa australiana.
O Comissário da eSafety descreveu-a como uma “ameaça presente e crescente”, que já não era apenas um risco hipotético.
“A AIC descobriu que adolescentes vítimas de extorsão sexual relatam impactos negativos mais graves da experiência quando foram utilizados materiais manipulados digitalmente”, disse Napier.
“A investigação da dark web da AIC descobriu que os criminosos estão usando imagens não sexuais de crianças reais e modificando-as para serem CSAM.
“Há evidências abundantes de que compartilhar material de abuso sexual infantil na Internet é prejudicial para as crianças retratadas nas imagens e que o trauma muitas vezes continua na idade adulta”.
Em Julho de 2024, um homem de Victoria foi condenado a 13 meses de prisão por crimes relacionados com imagens de abuso infantil, incluindo a utilização de um programa de inteligência artificial para criar 793 imagens de abuso infantil.
O homem se declarou culpado de uma acusação de produção de material de abuso infantil e de uso de serviço de transporte para transmitir material de abuso infantil.
Oficiais da Equipe Conjunta de Exploração Infantil de Victoria, que inclui policiais da Polícia Federal Australiana e da Polícia de Victoria, descobriram que o homem usou a plataforma de inteligência artificial para inserir texto e imagens para criar o material.
Alguns meses antes, um homem da Tasmânia foi preso por dois anos depois de ter carregado e baixado material de abuso infantil, incluindo material criado com inteligência artificial.
Uma denúncia do NCMEC levou a Polícia da Tasmânia e a AFP a invadir a casa do homem em Gravelly Beach.
A polícia encontrou centenas de arquivos de material de abuso infantil, incluindo um enorme tesouro de material gerado por IA.
Os jovens usam as chamadas aplicações “nudificadoras” para constranger e intimidar os seus pares.
E os criminosos online estão usando os mesmos aplicativos para extorquir jovens.
Esses deepfakes têm impactos esmagadores e devastadores sobre as vítimas jovens, a maioria das quais são mulheres.
Os pedófilos também o utilizam para criar conteúdo vil.
Predadores online estão usando inteligência artificial para gerar material vil de abuso infantil.
De acordo com a Internet Watch Foundation, alguns materiais de abuso infantil gerados por IA eram “visualmente indistinguíveis” daqueles feitos com vítimas da vida real.
Isto cria problemas para as autoridades policiais e para os defensores da proteção infantil, que dedicam recursos para encontrar vítimas na vida real.
Num exemplo citado pela Internet Watch Foundation, pedófilos doentes online tiraram imagens de uma criança abusada sexualmente na vida real e usaram-nas para criar mais material de abuso infantil usando inteligência artificial.
A menina, “Olivia”, foi abusada desde os três anos de idade até ser resgatada aos oito.
Acredita-se que todas as imagens de seu abuso foram excluídas da internet depois que ela foi resgatada.
Mas, anos mais tarde, os defensores das vítimas infantis descobriram que pedófilos doentes online estavam a usar a sua imagem para criar material de abuso infantil gerado por IA.
As meninas são predominantemente vítimas de deepfakes gerados por IA.
Como combater o abuso infantil gerado pela IA é uma questão complexa.
Os defensores querem que as empresas de IA coloquem barreiras em suas plataformas proibindo a produção de material de abuso infantil.
Eles também querem que os provedores de mecanismos de pesquisa removam aplicativos e programas que foram usados para criar esse material, para que ele não apareça nos resultados da pesquisa.
As lojas de aplicativos também estão sendo solicitadas a remover aplicativos “nudizantes”, que estão se tornando mais comuns.
As empresas de redes sociais também estão a ser pressionadas para detetar, bloquear e denunciar material de abuso sexual infantil gerado por IA.
“As plataformas tecnológicas devem introduzir medidas adicionais que impeçam a produção e partilha de CSAM gerados por IA, incluindo a educação dos utilizadores, a definição de perfis de redes sociais como privados e o bloqueio e prevenção de criminosos de utilizarem os seus serviços”, disse Napier.