novembro 15, 2025
0_male-hacker-in-the-hood-using-a-mobile-phone-stealing-your-personal-data-f.jpg

Ao abrigo da nova legislação, os criadores de IA e as organizações de proteção infantil poderão testar modelos de inteligência artificial (IA) para evitar a criação de imagens indecentes.

Os predadores malignos que falsificam o sexo de crianças, incluindo bebés com menos de dois anos, enfrentarão novas medidas repressivas ao abrigo da lei.

Ao abrigo da nova legislação, os criadores de inteligência artificial e as organizações de proteção infantil poderão testar modelos de inteligência artificial (IA) para impedir a criação de imagens indecentes.

De acordo com a atual lei do Reino Unido, que criminaliza a posse e geração de material de abuso sexual infantil, os desenvolvedores não podem realizar testes de segurança em modelos de IA, o que significa que as imagens só podem ser removidas depois de terem sido criadas e partilhadas online.

Os relatos de material de abuso sexual infantil gerado por IA mais do que duplicaram no último ano, passando de 199 em 2024 para 426 em 2025, de acordo com dados divulgados hoje pela Internet Watch Foundation (IWF). Houve também um aumento preocupante nas representações de bebés: as imagens de crianças dos 0 aos 2 anos aumentaram de cinco em 2024 para 92 em 2025.

LEIA MAIS: Aplicativos de namoro podem ser bloqueados se não abordarem o flash cibernético sob grandes mudanças legais

A IWF disse que a gravidade do material também se intensificou, com o conteúdo da Categoria A (imagens envolvendo atividade sexual com penetração, atividade sexual com animal ou sadismo) aumentando de 2.621 para 3.086 itens. As meninas têm sido o alvo esmagador de ameaças e serão responsáveis ​​por 94% das imagens ilegais de IA em 2025.

No que é descrito como um dos primeiros do género no mundo, a mudança na lei garantirá que as salvaguardas para os sistemas de IA possam ser “rigorosamente testadas desde o início”, afirmou o Departamento de Ciência, Inovação e Tecnologia (DSIT). Também permitirá que as organizações verifiquem se as modelos têm proteção contra pornografia extrema e imagens íntimas não consensuais.

As mudanças serão introduzidas hoje como uma emenda à Lei sobre Crime e Policiamento. O Governo disse que vai reunir um grupo de especialistas em inteligência artificial e segurança infantil para garantir que os testes “são realizados com segurança”.

A NSPCC disse que a nova lei deveria tornar obrigatório que os modelos de IA fossem testados desta forma.

Rani Govender, gestora de políticas para a segurança infantil online da instituição de caridade, disse: “Para fazer uma diferença real para as crianças, isto não pode ser opcional. O governo deve garantir que existe um dever obrigatório para os criadores de IA de utilizar esta disposição para que a protecção contra o abuso sexual infantil seja uma parte essencial do design do produto”.

Kerry Smith, executivo-chefe da IWF, disse: “As ferramentas de IA tornaram possível que os sobreviventes fossem revitimizados com apenas alguns cliques, dando aos criminosos a capacidade de criar quantidades potencialmente ilimitadas de material sofisticado e fotorrealista de abuso sexual infantil. A segurança deve ser incorporada à nova tecnologia desde o design. O anúncio de hoje pode ser um passo vital para garantir que os produtos de IA sejam seguros antes de serem lançados”.

A secretária de Tecnologia, Liz Kendall, disse: “Não permitiremos que os avanços tecnológicos superem a nossa capacidade de manter as crianças seguras.

“Estas novas leis garantirão que os sistemas de IA possam ser seguros na sua origem, evitando vulnerabilidades que possam colocar as crianças em risco. Ao capacitar organizações de confiança para examinarem os seus modelos de IA, estamos a garantir que a segurança infantil é incorporada nos sistemas de IA, e não incorporada posteriormente”.