Anthony Albanese expressou indignação com as preocupações com o X de Elon Musk usando inteligência artificial para permitir conteúdo sexual explorador.
Embora o número de relatórios recebidos pelo eSafety Office da Austrália permaneça pequeno, este afirma que houve um aumento recente relacionado com a utilização do chatbot X, Grok, para criar imagens sexualizadas ou de exploração.
O órgão de vigilância alertou na sexta-feira que usaria seus poderes, incluindo avisos de remoção, quando tal material atendesse aos limites definidos na Lei de Segurança Online.
Usar a IA “para explorar ou sexualizar pessoas sem o seu consentimento é abominável”, disse Anthony Albanese. (Lukas Coch/FOTOS AAP)
“X, Grok e uma ampla gama de outros serviços também estão sujeitos a obrigações de segurança sistêmicas para detectar e remover a exploração sexual infantil e outros materiais ilegais como parte dos códigos e padrões da indústria líderes mundiais da Austrália”, afirmou.
O primeiro-ministro juntou-se no sábado a uma lista crescente de líderes internacionais, incluindo o seu homólogo britânico Keir Starmer, ao criticar a plataforma de mídia social.
“O uso de IA generativa para explorar ou sexualizar pessoas sem o seu consentimento é abominável”, disse ele aos jornalistas em Camberra.
“Acho que o fato de essa ferramenta ter sido usada para fazer com que as pessoas usassem seu recurso de criação de imagens através do Grok é completamente abominável.
“Isto, mais uma vez, é um exemplo de que as redes sociais não conseguem mostrar responsabilidade social e os australianos e, na verdade, os cidadãos globais merecem melhor.”
Suas críticas fazem parte de uma reação global ao chatbot Grok que esta semana levou X a limitar o uso de IA para criar ou editar imagens, restringindo a ferramenta a assinantes pagos.
Na sexta-feira, Grok respondia aos pedidos de alteração de imagens com a mensagem: “A geração e edição de imagens estão atualmente limitadas a assinantes pagos. Você pode se inscrever para desbloquear esses recursos.”
As autoridades continuam preocupadas com a utilização da IA para exploração, especialmente quando se trata de crianças. (Dean Lewins/FOTOS AAP)
Algumas das reclamações recebidas pelo eSafety Office referem-se a imagens de adultos, mas outras dizem respeito a potenciais materiais de exploração sexual infantil, disse um porta-voz à AAP.
“Relatos de abusos baseados em imagens foram recebidos muito recentemente e ainda estão sendo avaliados”, disseram.
“Com relação às denúncias de conteúdo ilegal e restrito, o material não atendeu ao limite de classificação para material de exploração sexual infantil Classe 1.”
Como resultado, a eSafety não emitiu avisos de remoção nem tomou medidas coercivas em relação a essas reclamações específicas.
No entanto, o porta-voz disse que permanecem preocupações sobre o uso crescente da IA para sexualizar ou explorar, especialmente quando há crianças envolvidas.
Os códigos e padrões da Austrália exigiam serviços online para implementar sistemas e processos para proteger os australianos.
“Isto destaca a importância da segurança desde a concepção, incluindo a necessidade de os produtos de IA generativos terem salvaguardas e barreiras de segurança apropriadas incorporadas em todas as fases do ciclo de vida do produto, para evitar o uso indevido e a transformação destas tecnologias em armas antes que ocorram danos”, afirmaram.