Ouça as notícias australianas e mundiais e acompanhe os assuntos atuais com Podcasts de notícias da SBS.
Há mais de uma década que a empresa social Sisterworks, sediada em Melbourne, tem ajudado mulheres migrantes e refugiadas a ingressar no mercado de trabalho.
“Se você está em uma entrevista real, você olha para a pessoa, olha nos olhos dela.”
Os cursos de treinamento concentram-se no atendimento ao cliente, hospitalidade e habilidades interpessoais, bem como networking, redação de currículos e entrevistas para garantir que as mulheres estejam “prontas para o trabalho”.
Mas Ifrin Fittock, CEO da Sisterworks, diz que no final do ano passado, um grupo de nove formandos encontrou-se numa situação para a qual nem eles nem os seus professores se tinham preparado.
“Ficamos realmente surpresos quando, no final do ano passado, enviamos cerca de nove irmãs para uma entrevista e elas não conseguiram, não passaram na entrevista. Após investigação, descobrimos que elas não estavam sendo entrevistadas cara a cara, na verdade estavam sendo entrevistadas por meio de vídeos que cortavam as entrevistas de IA, e como nunca haviam sido expostas a isso antes, acho que elas simplesmente falharam porque não sabem o que fazer.
Sua experiência não é única: os candidatos a emprego estão cada vez mais compartilhando suas próprias experiências com as chamadas entrevistas de “roubo” nas redes sociais.
HOMEM: “Olá.”
ROBÔ: “Olá, muito obrigado por participar da entrevista de hoje. Estou muito animado para falar com você e saber mais sobre você.”
Entrevistas “robóticas” ocorrem quando um candidato é entrevistado por um sistema de inteligência artificial em vez de um humano.
Fittock diz que este estilo de entrevista pode adicionar barreiras adicionais para requerentes de migrantes e refugiados.
“Os desafios desse recrutamento ou entrevista por IA para algumas de nossas irmãs é, antes de tudo, o inglês não ser sua primeira língua, mas também o nível de alfabetização digital que elas podem ou não ter porque realmente precisam navegar, além de responder perguntas, elas também precisam navegar com aquele clique de um botão e prestar atenção no cronômetro e em toda aquela pressão que realmente aumenta, principalmente quando você vê o relógio correndo na sua frente.
Em 2024, 43% das organizações utilizarão a IA “moderadamente” nas suas contratações, enquanto 19% utilizarão a tecnologia “extensivamente” na contratação de novos funcionários.
Isso está de acordo com o relatório Australian Responsible AI, que detalha como as empresas australianas estão rastreando as práticas de IA.
À medida que os empregadores adotam cada vez mais a IA, o treinamento em entrevistas em vídeo agora faz parte do curso de carreira da Sisterworks.
Fatemeh Hazrati, originária do Irão, está entre os que actualmente participam no programa.
“A IA tem um efeito muito grande em nossas vidas hoje. Todos nós temos que aprender, (e) (nós) só precisamos nos adaptar a coisas novas e aceitar desafios para aprender coisas novas.”
A IA no recrutamento é frequentemente elogiada pela sua capacidade de poupar tempo e dinheiro.
Mas há preocupações crescentes sobre o seu potencial de discriminação.
A Dra. Natalie Sheard é da Faculdade de Direito da Universidade de Melbourne, Melbourne.
Ele liderou um estudo publicado no início deste mês ((14 de maio)) que sugere que os sistemas de contratação de IA estão criando novas barreiras ao emprego.
“Portanto, podem ser candidatos mais velhos, mulheres, pessoas que falam inglês como segunda língua, candidatos a empregos com deficiência. Na minha pesquisa, ouvi dizer que os sistemas não são acessíveis a candidatos a empregos com deficiência. Ouvi dizer que os sistemas de triagem de currículos usam coisas como lacunas no histórico de trabalho para selecionar candidatos e ter uma lacuna no seu histórico de trabalho é um indicador bem conhecido de gênero, já que as mulheres tendem a ter tempo fora do mercado de trabalho para cuidar da família.”
Também explica como aqueles que têm o inglês como segunda língua podem estar em desvantagem nas entrevistas em vídeo.
“Outra preocupação é que a forma como esses sistemas tendem a operar é que a IA não avalia o vídeo. O que acontece é que o áudio do seu vídeo é transcrito e então a IA é usada para avaliar a sua resposta e está bem estabelecido que esses serviços de transcrição têm um desempenho ruim para pessoas que falam inglês como segunda língua ou têm sotaque.”
O professor Andreas Leibbrandt, da Monash University, também investigou o papel da IA no recrutamento.
Ele diz que a tecnologia traz benefícios e, se implementada corretamente, um sistema pode ser menos tendencioso do que um ser humano.
Num estudo realizado nos Estados Unidos, constatou-se que as mulheres e os candidatos não anglo-americanos têm maior probabilidade de se candidatarem a um emprego se souberem que estão a ser utilizadas ferramentas de inteligência artificial.
“Não é que tanto as mulheres como as minorias étnicas sintam que não há preconceito no algoritmo de IA, mas sentem que esse preconceito é menor do que quando enfrentam um recrutador humano.”
Mas ele está preocupado com a falta de transparência, regulamentação e possíveis preconceitos incorporados aos algoritmos.
“Esses algoritmos de IA são alimentados com conjuntos de dados de treinamento ou conjuntos de dados de empresas. Mas seus próprios dados de treinamento podem ser tendenciosos. Podem vir de uma organização onde havia, por exemplo, preconceito contra as mulheres.”
A questão dos conjuntos de dados e algoritmos também surgiu na pesquisa do Dr. Sheard.
“Por exemplo, muitos destes sistemas são construídos no estrangeiro, por isso podem ter sido treinados com dados sobre populações que não são comparáveis à população australiana. E assim, mais uma vez, o sistema não vai funcionar tão bem para grupos demográficos específicos que temos na Austrália. Por exemplo, refugiados, mulheres migrantes, primeiras nações, australianos.”
Há apelos crescentes para que o governo australiano regule melhor o uso da IA no recrutamento.
Catherine Hunter é executiva-chefe do Diversity Council Australia, o principal órgão independente sem fins lucrativos que lidera a diversidade e a inclusão no local de trabalho.
“Com taxas de adoção tão altas e a tecnologia acelerando rapidamente, estamos simplesmente preocupados que as pessoas não estejam implementando considerações apropriadas em torno do uso ético”.
Especialistas dizem que a responsabilidade também recai sobre os empregadores: ser transparentes com os candidatos e garantir que seus algoritmos não discriminem.