novembro 27, 2025
urlhttp3A2F2Fsbs-au-brightspot.s3.amazonaws.com2F4e2F9a2Fbf1bff544905845b3466256d5c632Faust.jpeg

Este artigo contém referências à exploração sexual infantil.
Três dos serviços de “nudificação” mais utilizados, ligados a material de exploração sexual de crianças em idade escolar gerado pela IA, foram removidos da Austrália.
A empresa sediada no Reino Unido retirou o acesso depois que a Comissão de Segurança Eletrônica emitiu um alerta oficial em setembro, sobre temores de que estivesse permitindo que os usuários criassem material de exploração sexual infantil gerado artificialmente.
Isto contrariou o código obrigatório da Austrália, que exige que todos os membros da indústria online tomem medidas significativas para resolver o pior dos piores conteúdos online.
Cerca de 100.000 australianos visitaram serviços de “nudificação” todos os meses e apresentaram casos de estudantes que criaram imagens falsas de nudez de seus colegas de classe.

As remoções mostraram que os códigos e padrões da Austrália estavam funcionando para tornar o mundo online mais seguro, disse a comissária de segurança eletrônica Julie Inman Grant.

“Sabemos que os serviços de nudificação têm sido usados ​​com efeitos devastadores nas escolas australianas”, disse Grant.
“Com este grande fornecedor bloqueando seu uso pelos australianos, acreditamos que isso terá um impacto tangível no número de crianças em idade escolar australianas que serão vítimas da exploração sexual infantil gerada pela IA.”
Ele disse que o provedor não conseguiu evitar que seus serviços fossem usados ​​para criar material de exploração sexual infantil, após comercializar recursos como “despir qualquer garota” e opções para geração de imagem de “colegial” e “modo sexo”.
A eSafety recebeu o dobro de relatos de imagens alteradas digitalmente, incluindo deepfakes, de pessoas com menos de 18 anos de idade nos últimos 18 meses.

Quatro em cada cinco relatórios diziam respeito a mulheres e raparigas.

A ação ocorre depois que a plataforma global de hospedagem de modelos de IA Hugging Face mudou seus termos de serviço depois de ser avisado de que os australianos estavam usando indevidamente algumas de suas ferramentas generativas para criar material de exploração sexual infantil.
Os novos termos do Hugging Face exigem que os usuários minimizem os riscos associados aos modelos que carregam, especificamente para evitar a geração de exploração sexual infantil ou material antiterrorista.
A empresa deve fazer cumprir os termos se tomar conhecimento de violações ou correr o risco de multas de até US$ 49,5 milhões.
Grant disse que a sua organização está a trabalhar com o governo em reformas para restringir o acesso a ferramentas de “nudificação”.
Se você ou alguém que você conhece for afetado por agressão sexual, ligue para 1800RESPECT no número 1800 737 732 ou ligue para o Serviço Nacional de Reparação e Apoio ao Abuso Sexual no número 1800 211 028.