Os ativistas emitiram um alerta severo depois de a inteligência artificial ter sido usada para criar milhares de vídeos de abuso sexual infantil no ano passado, contribuindo para níveis recordes de material tão angustiante encontrado online.
A Internet Watch Foundation (IWF) revelou que os seus analistas descobriram 3.440 vídeos gerados por IA que retratam abuso sexual infantil em 2025, um aumento dramático em relação aos apenas 13 identificados em 2024.
No geral, a equipe da IWF processou 312.030 denúncias confirmadas de imagens de abuso encontradas na Internet em 2025, contra 291.730 no ano anterior.
A sua pesquisa indicou que dos 3.440 vídeos gerados por IA, 2.230 enquadraram-se na Categoria A, a classificação mais extrema segundo a lei do Reino Unido, e outros 1.020 foram considerados a segunda mais grave.
Kerry Smith, diretor executivo da IWF, disse: “Quando imagens e vídeos de crianças sofrendo abuso sexual são distribuídos online, todos, especialmente essas crianças, se sentem menos seguros.
“Nossos analistas estão trabalhando incansavelmente para remover essas imagens e dar alguma esperança às vítimas. Mas agora a IA avançou a tal ponto que os criminosos podem essencialmente ter suas próprias máquinas de abuso sexual infantil para fazer o que quiserem ver.
“O aumento alarmante de vídeos extremos de abuso sexual infantil de categoria A gerados por IA mostra o tipo de coisa que os criminosos desejam, e é perigoso.
“A fácil disponibilidade deste material apenas encorajará aqueles que têm interesse sexual em crianças, alimentará a sua comercialização e colocará ainda mais as crianças em perigo, tanto online como offline.
“Os governos de todo o mundo devem agora garantir que as empresas de IA integrem os princípios de segurança desde o início. É inaceitável que seja lançada tecnologia que permita aos criminosos criar este conteúdo”.
A investigação surge como
A empresa disse no início desta semana que impediria Grok de “editar imagens de pessoas com roupas reveladoras” e impediria que usuários gerassem imagens semelhantes de pessoas reais em países onde isso é ilegal.
A secretária de tecnologia, Liz Kendall, disse que ainda espera que o regulador Ofcom estabeleça os fatos “completa e robustamente” e, embora o órgão de fiscalização tenha saudado as novas restrições, ela disse que sua investigação continuará enquanto busca “respostas sobre o que deu errado e o que está sendo feito para consertar isso”.
A IWF já disse anteriormente que quer a proibição de todos os softwares de nudificação, afirma que as empresas de IA devem tornar as ferramentas mais seguras antes de estarem disponíveis e insistiu que o governo deveria tornar isto obrigatório.
A instituição de caridade infantil NSPCC disse que as descobertas da IWF são “profundamente alarmantes e tristemente previsíveis”.
O seu presidente-executivo, Chris Sherwood, afirmou: “Os criminosos estão a utilizar estas ferramentas para criar material extremo numa escala que nunca havíamos enfrentado antes, e as crianças estão a pagar o preço.
“As empresas tecnológicas não podem continuar a lançar produtos de IA sem incorporar proteções vitais. Elas conhecem os riscos e os danos que podem causar. Cabe-lhes garantir que os seus produtos nunca possam ser usados para criar imagens indecentes de crianças.
“O governo do Reino Unido e o Ofcom devem agora intervir e garantir que as empresas de tecnologia sejam responsabilizadas.
“Pedimos ao Ofcom que utilize todas as ferramentas disponíveis através da Lei de Segurança Online e ao governo que introduza um dever legal de cuidado para garantir que os serviços generativos de IA sejam necessários para incorporar a segurança das crianças no design dos seus produtos e prevenir estes crimes horríveis.”
Kendall considerou “absolutamente abominável que a IA esteja a ser usada para atacar mulheres e raparigas” e insistiu que o Governo “não tolerará que esta tecnologia seja usada como uma arma para causar danos, razão pela qual acelerei a nossa acção para impor a proibição da criação de imagens íntimas não consensuais geradas pela IA”.
Ele acrescentou: “A IA deve ser uma força para o progresso, e não para o abuso, e estamos determinados a apoiar a sua utilização responsável para impulsionar o crescimento, melhorar vidas e proporcionar benefícios reais, ao mesmo tempo que tomamos medidas quando é mal utilizada.
“É também por isso que introduzimos uma ofensa líder mundial visando modelos de IA treinados ou adaptados para gerar material de abuso sexual infantil. Possuir, fornecer ou modificar estes modelos em breve será um crime.”
A Fundação Lucy Faithfull, que trabalha para ajudar os infratores a parar de ver imagens de abuso infantil, disse que também viu o número de pessoas que usam IA para ver e produzir imagens de abuso dobrar no ano passado.
Os jovens que estão preocupados com o compartilhamento on-line de imagens indecentes deles podem usar a ferramenta gratuita Report Remove em childline.org.uk/remove
A Ministra da Salvaguarda, Jess Phillips, disse: “Este aumento nos vídeos de abuso infantil gerados por IA é horrível – este governo não vai sentar-se e permitir que predadores gerem este conteúdo repulsivo”.
Ele acrescentou: “Não pode haver mais desculpas por parte das empresas de tecnologia. Aja agora ou iremos forçá-lo a fazê-lo”.