novembro 27, 2025
32bd2e27ab438bf36bd1ef264972e4c6.jpeg

Os australianos serão impedidos de acessar três sites populares de “nudificação” vinculados à geração de material de exploração sexual infantil, incluindo estudantes que criam imagens falsas de nus de colegas de classe.

A empresa sediada no Reino Unido por trás de alguns dos serviços mais utilizados do mundo, onde fotos de pessoas reais podem ser carregadas e alteradas artificialmente para fazer com que os sujeitos pareçam nus, retirou o acesso na Austrália após ação de fiscalização da Comissão de Segurança Eletrônica.

Os serviços “nudificar” receberam cerca de 100.000 visitas por mês de australianos e têm sido associados a vários casos de grande repercussão envolvendo a criação de material de exploração sexual de estudantes gerados por IA.

A evidência desta atividade significava que a empresa estava a violar os códigos e padrões obrigatórios da Austrália, que exigem que todos os membros da indústria online tomem “medidas significativas” para abordar o material de abuso sexual infantil.

A comissária de segurança eletrônica Julie Inman Grant disse que os serviços de “nudificação” foram usados ​​com “efeito devastador” nas escolas australianas.

“Com este grande fornecedor bloqueando o seu uso pelos australianos, acreditamos que isso terá um impacto tangível no número de crianças em idade escolar australianas que serão vítimas da exploração sexual infantil gerada pela IA”, disse ele.

Inman Grant disse que a eSafety tomou medidas contra a empresa do Reino Unido em setembro porque ela não implementou salvaguardas para evitar que seus serviços fossem usados ​​para gerar material abusivo.

Ele disse que a empresa estava até comercializando recursos como “despir 'qualquer garota' e com opções para geração de imagens de 'colegial' e recursos como 'modo sexo'”.

Julie Inman Grant diz que é necessária uma “mudança cultural” para parar esta tendência preocupante. (ABC Notícias: Craig Hansen)

Inman Grant disse à ABC que os relatos de abusos baseados em imagens profundamente falsas duplicaram nos últimos 18 meses, mas ele acredita que isto é “apenas a ponta do iceberg”.

“O que estamos vendo em muitos desses casos… são principalmente meninas adolescentes que acham divertido coletar fotos de seus colegas de classe nas redes sociais ou em outros lugares e gerar esses vídeos sexualizados sem realmente entenderem o tipo de dano, humilhação e difamação a longo prazo que estão causando”, disse ela.

Inman Grant disse que, na sua opinião, deve haver um esforço unificado para criar uma “mudança cultural” e travar esta tendência preocupante.

“Precisamos complementar a nossa educação sobre o consentimento e as nossas relações respeitosas para realmente podermos reforçar que os danos digitais são danos reais e têm impactos significativos a longo prazo nas pessoas”, disse ela.

Sra. Inman Grant disse que a eSafety tem muitas informações sobre o que os pais e os jovens podem fazer para evitar a “transformação armamentista” desses tipos de imagens.

A eSafety também visa serviços que funcionam como lojas de aplicações tradicionais, como os chamados guardiões de poderosos modelos de inteligência artificial que podem ser utilizados para gerar material de exploração sexual infantil.

Uma plataforma de alojamento, Hugging Face, alterou os seus termos de serviço, exigindo que todos os titulares de contas tomem medidas para minimizar os riscos associados aos modelos que carregam, especificamente para evitar a utilização indevida para gerar material de exploração sexual infantil ou material de combate ao terrorismo.