À medida que o mundo sombrio dos aplicativos de nudez baseados em IA enfrenta um escrutínio cada vez maior, a Austrália tomou medidas firmes para conter a tendência perturbadora. O Comissário da Segurança Eletrónica confirmou que um dos serviços mais utilizados no mundo deixará de funcionar localmente na sequência de medidas de fiscalização.
Depois de receber um aviso oficial em setembro por permitir que seus serviços fossem usados para criar material de exploração sexual infantil, um dos sites de “nudez” de IA mais usados retirou o acesso na Austrália.
A eSafety disse que a empresa sediada no Reino Unido violou os códigos e padrões obrigatórios da Austrália, que exigem que todos os membros da indústria online tomem “medidas significativas para resolver o pior dos piores conteúdos online”.
A empresa recebeu impressionantes 100.000 visitas por mês de australianos, e a eSafety disse que até apareceu em casos de grande repercussão de exploração sexual de estudantes nas escolas.
A comissária Julie Inman Grant acredita que a medida terá “um impacto tangível” no número de crianças em idade escolar que são vítimas de pornografia infantil gerada por IA.
“Tomamos medidas coercivas em Setembro porque este fornecedor não tomou medidas de segurança para evitar que os seus serviços fossem usados para criar material de exploração sexual infantil”, disse ele.
“(Era) até recursos de marketing como tirar a roupa de 'qualquer garota', e com opções para geração de imagem de 'colegial' e recursos como 'modo sexo'.”
Acontece no momento em que um dos principais ativistas espaciais do país revela a verdadeira extensão dos danos causados a portas fechadas.
Como os aplicativos 'nudificantes' afetam as crianças australianas?
Caitlin Roper, do grupo de defesa Collective Shout, disse ao Yahoo News que as imagens não estão sendo tiradas apenas das redes sociais; Elas são tiradas nas ruas, nas escolas e até mesmo em anuários, o que significa que nenhuma presença digital é necessária para manipular uma imagem online.
Roper sabe disso porque ela mesma tentou ao tentar expor o submundo nojento da pornografia deepfake e seu potencial para explorar crianças australianas.
Você tem uma história? Contato newsroomau@yahoonews.com
Caitlin revelou exemplos de como ela “despiu” as imagens. Imagem: Choro coletivo
Ela disse que as mulheres nesses aplicativos eram “rotineiramente submetidas” a cenários sexuais desumanizantes, a natureza de alguns deles tão explícita que o Yahoo News decidiu não compartilhá-los.
“Em algumas fotos, eles pareciam aterrorizados ou chorando; em outras, pareciam recebê-lo bem. Havia hematomas e sinais óbvios de danos”, disse Roper.
“Muitas mulheres e meninas muito jovens, conteúdo que eu acho que se qualifica como material de abuso sexual infantil.”
Relacionado: Tendência perturbadora de IA que causaria medo nos corações de milhões de australianos
Certas plataformas até incentivam os utilizadores a carregar as suas criações em galerias públicas, que muitas vezes estão repletas de conteúdo sexual violento e degradante.
O material muitas vezes retrata mulheres de todas as idades humilhadas, agredidas e torturadas por homens.
Os prompts de texto usados para gerar essas imagens incluem termos como “abusado”, “choro” e “colegial”.
“Não está completamente regulamentado. O que eles frequentemente têm é uma pequena caixa de seleção que diz 'Confirmo que tenho consentimento, que não estou usando crianças ou que não estou violando as leis locais'”, disse ele.
Sites de hospedagem alertados em meio a multas de US$ 50 milhões
Entretanto, a eSafety revelou que outra grande “plataforma de alojamento”, a Hugging Face – essencialmente um guardião para a distribuição de modelos poderosos de IA, semelhantes a uma loja de aplicações tradicional – tomou medidas para cumprir a lei australiana.
Após discussões com a eSafety sobre questões de conformidade, a Hugging Face atualizou seus termos de serviço.
Ao abrigo das alterações, todos os titulares de contas devem agora tomar medidas activas para minimizar os riscos associados aos modelos que carregam, especificamente para evitar a sua utilização indevida para gerar material de exploração sexual infantil ou conteúdo antiterrorista.
Caitlin Roper, do grupo de defesa Collective Shout, está soando o alarme sobre os chamados aplicativos de “nudização”. Fonte: Fornecido
A partir de agora, caso a empresa tome conhecimento, por meio de relatos de usuários ou de seus próprios controles de segurança, que seus termos atualizados foram violados, ela deverá tomar medidas.
Se a Hugging Face não tomar as medidas adequadas, a eSafety poderá intervir. De acordo com a Lei de Segurança Online, o regulador tem uma série de poderes de fiscalização à sua disposição, incluindo penalidades de até US$ 49,5 milhões para empresas que não cumpram os códigos ou padrões do setor.
“Ao atacar as ferramentas do consumidor, os modelos subjacentes que as alimentam e as plataformas que as hospedam, estamos abordando os danos em vários níveis da pilha de tecnologia”, disse Inman Grant.
“Também estamos a trabalhar com o governo em reformas para restringir o acesso a estas ferramentas de ‘nudificação’.”
Se você ou alguém que você conhece for afetado por abuso ou exploração sexual infantil, incluindo histórico de abuso sexual infantil ou exploração sexual infantil on-line, existem serviços de apoio aos quais você pode acessar através site do Centro Australiano de Combate à Exploração Infantil.
Essas vias de apoio estão disponíveis para ajudar, ouvir e acreditar.
Se você acredita que uma criança está em perigo imediato, ligue para Triple Zero (000), Crimestoppers no número 1800 333 000 ou para a polícia local. Os leitores que buscam apoio e informações sobre prevenção do suicídio podem entrar em contato com Beyond Blue pelo telefone 1300 22 4636, Lifeline pelo telefone 13 11 14 ou Suicide Call Back Service pelo telefone 1300 659 467.
Você tem alguma dica de história? E-mail: newsroomau@yahoonews.com.
Você também pode nos seguir no Facebook, Instagram, tiktok, Twitter e YouTube.