dezembro 4, 2025
H6D5FIP2WBBIVJFFKEBGFZ5YDA.jpg

Os controlos impostos por Bruxelas às ferramentas de inteligência artificial (IA) são insuficientes para garantir que respeitam os direitos fundamentais. Isto é de acordo com a Agência dos Direitos Fundamentais da UE (FRA), que analisou o impacto da IA ​​em cinco áreas consideradas de alto risco: asilo, educação, trabalho, aplicação da lei e benefícios sociais.

O relatório publicado esta quinta-feira pela FRA representa um revés para a Comissão, que há apenas duas semanas deu às empresas tecnológicas mais 16 meses para adaptarem as suas ferramentas de inteligência artificial de “alto risco” às regulamentações europeias. Para esta agência independente da UE, os regulamentos europeus não têm uma compreensão clara de como lidar com sistemas de alto risco. Além disso: as empresas que os desenvolveram também não sabem como prevenir a sua possível violação dos direitos fundamentais.

Os casos abrangidos incluem o uso de IA nas contratações; mais especificamente, em ferramentas que filtram e pesam currículos. Estão também a analisar mecanismos automatizados para determinar se alguém é elegível para assistência a pessoas com deficiência, bem como ferramentas para monitorizar exames ou medir as capacidades de leitura das crianças. “Estes sistemas devem ser fiáveis ​​porque podem moldar decisões importantes que afectam a vida quotidiana das pessoas”, afirma o relatório.

A Agência conclui que os fornecedores deste tipo de sistemas estão conscientes dos problemas que podem causar em termos de proteção de dados ou de discriminação de género, mas não consideram que possam também violar direitos fundamentais. Por exemplo, os instrumentos que avaliam as capacidades de leitura das crianças não têm em conta como o seu veredicto pode afectar o direito do menor à educação.

O Regulamento Europeu de Inteligência Artificial, que entrou em vigor a partir de agosto de 2024, embora a sua plena implementação estivesse prevista para dois anos depois, classifica os sistemas de inteligência artificial com base nos riscos que a sua utilização acarreta para os cidadãos e impõe-lhes diversas obrigações e requisitos que devem cumprir. Por exemplo, ferramentas de “risco zero”, como spamnão têm quaisquer restrições, enquanto aqueles que envolvem um “risco inaceitável” (aqueles que vão além da consciência de uma pessoa, aqueles que exploram suas vulnerabilidades, ou aqueles que envolvem emoções, raça ou opiniões políticas) são expressamente proibidos.

Um degrau abaixo dos proibidos estão as aplicações de “alto risco” que exigem supervisão constante. Esta categoria inclui sistemas de identificação biométrica remota, sistemas de categorização biométrica, sistemas que afetam a segurança de infraestruturas críticas, bem como sistemas relacionados com a educação, o emprego e a prestação de serviços governamentais essenciais, a aplicação da lei ou a gestão da migração.

Confusão da indústria

Há duas semanas, a Comissão decidiu adiar em 16 meses o início da supervisão destes sistemas. Argumento de Bruxelas: As normas sobre o que é e o que não é aceitável para estes instrumentos deveriam ter sido publicadas antes que a regra pudesse ser aplicada, mas isso ainda não aconteceu.

O relatório da FRA, baseado em entrevistas com fornecedores, operadores e especialistas, conclui que “muitos daqueles que desenvolvem, vendem ou utilizam sistemas de inteligência artificial de alto risco não sabem como avaliar ou mitigar sistematicamente os riscos” que estas ferramentas implicam do ponto de vista dos direitos fundamentais.

A agência acredita que a autorregulação – trabalho que os fornecedores de IA podem realizar por conta própria para avaliar o risco potencial dos seus sistemas – é relevante, mas “não tem sistematicamente em conta os direitos fundamentais”.