SimA Coreia do Sul embarcou numa incursão na regulamentação da IA, lançando o que foi considerado o conjunto de leis mais abrangente do mundo, que poderia ser um modelo para outros países, mas a nova legislação já encontrou resistência.
As leis, que obrigarão as empresas a rotular o conteúdo gerado pela IA, foram criticadas por startups tecnológicas locais, que dizem que vão longe demais, e por grupos da sociedade civil, que dizem que não vão longe o suficiente.
A lei básica da IA, que entrou em vigor na quinta-feira da semana passada, surge num momento de crescente desconforto global relativamente aos meios de comunicação criados artificialmente e à tomada de decisões automatizadas, à medida que os governos lutam para acompanhar o rápido avanço das tecnologias.
A lei obrigará as empresas que prestam serviços de IA a:
-
Adicione marcas d'água digitais invisíveis para obter resultados claramente artificiais, como desenhos animados ou ilustrações. Para deepfakes realistas, são necessárias tags visíveis.
-
A “IA de alto impacto”, incluindo sistemas utilizados para diagnóstico médico, contratação e aprovação de empréstimos, exigirá que os operadores realizem avaliações de risco e documentem como as decisões são tomadas. Se um ser humano tomar a decisão final, o sistema pode estar fora da categoria.
-
Modelos de IA extremamente poderosos exigirão relatórios de segurança, mas o limite é tão alto que os funcionários do governo reconhecem que nenhum modelo em todo o mundo o atinge atualmente.
As empresas que violarem as regras enfrentam multas de até 30 milhões de won (£ 15.000), mas o governo prometeu um período de carência de pelo menos um ano antes de impor penalidades.
A legislação está a ser aclamada como a “primeira do mundo” a ser totalmente implementada por um país e é fundamental para a ambição da Coreia do Sul de se tornar uma das três maiores potências mundiais de IA, ao lado dos Estados Unidos e da China. Funcionários do governo sustentam que a lei está 80-90% focada na promoção da indústria, em vez de restringi-la.
Alice Oh, professora de ciência da computação no Instituto Avançado de Ciência e Tecnologia da Coreia (KAIST), disse que, embora a lei não fosse perfeita, ela deveria evoluir sem sufocar a inovação. No entanto, uma pesquisa de dezembro da Startup Alliance descobriu que 98% das startups de IA não estavam preparadas para a conformidade. Seu codiretor Lim Jung-wook disse que a frustração era generalizada. “Há um pouco de ressentimento”, disse ele. “Por que temos que ser os primeiros a fazer isso?”
As empresas devem autodeterminar se os seus sistemas se qualificam como IA de alto impacto, um processo que os críticos dizem ser demorado e criar incerteza.
Alertam também para um desequilíbrio competitivo: todas as empresas coreanas enfrentam regulamentações, independentemente da sua dimensão, enquanto apenas as empresas estrangeiras que cumprem determinados limiares (como a Google e a OpenAI) devem cumpri-las.
O impulso para a regulamentação desenvolveu-se num contexto interno singularmente carregado que deixou grupos da sociedade civil preocupados com o facto de a legislação não ir suficientemente longe.
A Coreia do Sul é responsável por 53% de todas as vítimas de pornografia deepfake em todo o mundo, de acordo com um relatório de 2023 da Security Hero, uma empresa de proteção de identidade com sede nos EUA. Em agosto de 2024, uma investigação expôs enormes redes de salas de chat do Telegram que criam e distribuem imagens sexuais de mulheres e meninas geradas por IA, prenunciando o escândalo que mais tarde eclodiria em torno do chatbot Grok de Elon Musk.
No entanto, as origens da lei são anteriores a esta crise: o primeiro projeto de lei relacionado com a IA foi apresentado no parlamento em julho de 2020. Estagnou repetidamente, em parte devido a disposições acusadas de dar prioridade aos interesses da indústria em detrimento da proteção dos cidadãos.
Grupos da sociedade civil argumentam que a nova legislação proporciona proteção limitada às pessoas prejudicadas pelos sistemas de IA.
Quatro organizações, incluindo Minbyun, um colectivo de advogados de direitos humanos, emitiram uma declaração conjunta no dia seguinte à sua implementação, argumentando que a lei quase não continha disposições para proteger os cidadãos dos riscos da IA.
Os grupos observaram que, embora a lei forneça proteção aos “utilizadores”, esses utilizadores eram hospitais, empresas financeiras e instituições públicas que utilizam sistemas de IA, e não pessoas afetadas pela IA. Argumentaram que a lei não estabelecia sistemas de IA proibidos e que as isenções para a “participação humana” criavam lacunas importantes.
A comissão de direitos humanos do país criticou o decreto de implementação por faltar definições claras de IA de alto impacto, observando que aqueles com maior probabilidade de sofrer violações de direitos permanecem em pontos cegos regulamentares.
Num comunicado, o Ministério da Ciência e TIC disse esperar que a lei “elimine a incerteza jurídica” e construa “um ecossistema nacional de IA saudável e seguro”, acrescentando que continuará a clarificar as regras através de directrizes revistas.
Especialistas disseram que a Coreia do Sul escolheu deliberadamente um caminho diferente de outras jurisdições.
Ao contrário do modelo regulatório estrito baseado no risco da UE, das abordagens largamente sectoriais e orientadas para o mercado dos EUA e do Reino Unido, ou da combinação da China de política industrial liderada pelo Estado e regulação detalhada de serviços específicos, a Coreia do Sul optou por um quadro mais flexível e baseado em princípios, disse Melissa Hyesun Yoon, professora de direito na Universidade de Hanyang, especializada em governação de IA.
Essa abordagem centra-se no que Yoon descreve como “promoção e regulação baseadas na confiança”.
“O quadro da Coreia servirá como um ponto de referência útil nas discussões sobre a governação global da IA”, disse ele.