Até 2024, os assistentes de voz com inteligência artificial (IA) em todo o mundo ultrapassarão os 8 mil milhões, mais de um por pessoa no planeta. Essas assistentes são prestativas, educadas e quase sempre são mulheres.
Seus nomes também têm conotações de gênero. Por exemplo, Siri da Apple, um nome feminino escandinavo, significa “bela mulher que leva você à vitória”.
Enquanto isso, quando o Watson for Oncology da IBM foi lançado em 2015 para ajudar os médicos a processar dados médicos, ele ganhou uma voz masculina. A mensagem é clara: as mulheres servem e os homens instruem.
Isto não é uma marca inofensiva: é uma escolha de design que reforça os estereótipos existentes sobre os papéis que as mulheres e os homens desempenham na sociedade.
Isto não é meramente simbólico. Estas escolhas têm consequências no mundo real, normalizando a subordinação de género e correndo o risco de abusos.
O lado negro da IA ‘amigável’
Pesquisas recentes revelam a extensão das interações prejudiciais com a IA feminizada.
Um estudo de 2025 descobriu que até 50% das trocas homem-máquina eram verbalmente abusivas.
Outro estudo de 2020 estimou o número entre 10 e 44 por cento, com conversas muitas vezes contendo linguagem sexual explícita.
No entanto, a indústria não está envolvida em mudanças sistémicas e hoje muitos desenvolvedores ainda recorrem a respostas pré-codificadas ao abuso verbal. Por exemplo, “Hmm, não tenho certeza do que você quis dizer com essa pergunta”.
Estes padrões levantam preocupações reais de que tal comportamento possa estender-se às relações sociais.
O género está no centro do problema.
Carregando…
Um experimento realizado em 2023 mostrou que 18% das interações do usuário com um agente encarnado no sexo feminino concentravam-se no sexo, em comparação com 10% com uma encarnação masculina e apenas 2% com um robô sem gênero.
Esses números podem subestimar o problema, dada a dificuldade de detecção de falas sugestivas. Em alguns casos, os números são surpreendentes. O banco Bradesco do Brasil informou que seu chatbot feminizado recebeu 95.000 mensagens de assédio sexual em um único ano.
Ainda mais perturbadora é a rapidez com que os abusos estão a aumentar.
O chatbot Tay da Microsoft, lançado no Twitter durante sua fase de testes em 2016, durou apenas 16 horas antes que os usuários o treinassem para vomitar insultos racistas e misóginos.
Na Coreia, Luda foi manipulada para responder a pedidos sexuais como uma obediente “escrava sexual”. No entanto, para alguns membros da comunidade online coreana, foi um “crime sem vítimas”.
Na realidade, as escolhas de design por detrás destas tecnologias (vozes femininas, respostas deferentes, desvios lúdicos) criam um ambiente permissivo à agressão de género.
Essas interações refletem e reforçam a misoginia do mundo real, ensinando aos usuários que ordenar, insultar e sexualizar “ela” é aceitável. Quando o abuso se torna rotina nos espaços digitais, devemos considerar seriamente o risco de ele se espalhar para o comportamento offline.
Ignore as preocupações sobre o preconceito de gênero
A regulação está lutando para acompanhar o crescimento deste problema. A discriminação de género raramente é considerada de alto risco e é muitas vezes considerada corrigível desde a concepção.
Embora a Lei de IA da União Europeia exija avaliações de risco para utilizações de alto risco e proíba sistemas considerados de “risco inaceitável”, a maioria dos assistentes de IA não serão considerados de “alto risco”.
Os estereótipos de género ou a normalização do abuso ou assédio verbal não cumprem os padrões atuais para IA proibida ao abrigo da Lei da União Europeia sobre IA. Casos extremos, como tecnologias de assistente de voz que distorcem o comportamento de uma pessoa e promovem comportamentos perigosos, estariam, por exemplo, dentro da lei e seriam proibidos.
Embora o Canadá exija avaliações de impacto baseadas no género para os sistemas governamentais, o sector privado não está coberto.
Estes são passos importantes. Mas ainda são exceções limitadas e raras à norma.
A IA não é estática. Cada ordem sexista, cada interacção abusiva, retroalimenta os sistemas que moldam os resultados futuros. (ABC News: Berge Breiland)
A maioria das jurisdições não possui regras que abordem os estereótipos de género na conceção da IA ou as suas consequências. Onde existem regulamentos, estes dão prioridade à transparência e à responsabilização, ofuscando (ou simplesmente ignorando) as preocupações sobre os preconceitos de género.
Na Austrália, o governo sinalizou que irá basear-se nos quadros existentes, em vez de criar regras específicas para a IA.
Esta lacuna regulamentar é importante porque a IA não é estática. Cada ordem sexista, cada interacção abusiva, retroalimenta os sistemas que moldam os resultados futuros. Sem intervenção, corremos o risco de codificar a misoginia humana na infraestrutura digital da vida quotidiana.
Nem todas as tecnologias de apoio, mesmo as de género feminino, são prejudiciais. Eles podem capacitar, educar e promover os direitos das mulheres. No Quénia, por exemplo, os chatbots de saúde sexual e reprodutiva melhoraram o acesso dos jovens à informação em comparação com as ferramentas tradicionais.
O desafio é encontrar um equilíbrio: incentivar a inovação e ao mesmo tempo estabelecer parâmetros para garantir que as normas sejam cumpridas, os direitos sejam respeitados e os designers sejam responsabilizados quando não forem cumpridos.
Um problema sistêmico
O problema não é só da Siri ou da Alexa: é sistêmico.
As mulheres representam apenas 22% dos profissionais de IA em todo o mundo, e a sua ausência nas tabelas de design significa que as tecnologias se baseiam em perspetivas estreitas.
Entretanto, um inquérito de 2015 a mais de 200 mulheres seniores em Silicon Valley descobriu que 65% tinham sofrido investidas sexuais indesejadas por parte de um supervisor. A cultura que molda a IA é profundamente desigual.
Narrativas esperançosas sobre “corrigir preconceitos” através de um melhor design ou diretrizes éticas soam vazias se não forem implementadas; Os códigos voluntários não podem desmantelar normas arraigadas.
A legislação deve reconhecer os danos baseados no género como de alto risco, exigir avaliações de impacto baseadas no género e exigir que as empresas demonstrem que minimizaram tais danos. Devem ser aplicadas sanções quando não o fazem.
A regulamentação por si só não é suficiente. A educação, especialmente no sector tecnológico, é crucial para compreender o impacto dos padrões de género nos assistentes de voz. Estas ferramentas são o produto de escolhas humanas e essas escolhas perpetuam um mundo onde as mulheres (reais ou virtuais) são consideradas servis, submissas ou silenciosas.
Este artigo é baseado em uma colaboração com Julie Kowald, UTS. Impacto social rápidoEngenheiro de software principal.
Ramona Vijeyarasa é professora de direito na Universidade de Tecnologia de Sydney. Esta peça apareceu pela primeira vez em A conversa.