As Novas Leis de IA da Coreia do Sul Enfrentam Resistência em Meio à Tentativa de se Tornar uma Potência Tecnológica
A Coreia do Sul iniciou um esforço para regular a inteligência artificial (IA), lançando um conjunto de leis considerado o mais abrangente do mundo, que pode servir de modelo para outros países. No entanto, a nova legislação já encontrou resistência.
Regulamentação e Críticas
As leis obrigarão as empresas a rotular conteúdo gerado por IA, mas foram criticadas por startups locais de tecnologia, que afirmam que as exigências são excessivas, e por grupos da sociedade civil, que argumentam que não vão longe o suficiente. A lei básica de IA, que entrou em vigor recentemente, surge em meio a crescentes preocupações globais sobre mídias criadas artificialmente e decisões automatizadas, enquanto os governos lutam para acompanhar o rápido avanço das tecnologias.
As empresas que oferecem serviços de IA deverão:
- Adicionar marcas d’água digitais invisíveis para saídas claramente artificiais, como desenhos animados ou obras de arte. Para deepfakes realistas, rótulos visíveis serão exigidos.
- Sistemas de “IA de alto impacto”, como aqueles usados para diagnósticos médicos, contratações e aprovações de empréstimos, precisarão realizar avaliações de risco e documentar como as decisões são tomadas.
- Modelos de IA extremamente poderosos exigirão relatórios de segurança, mas a exigência é tão alta que autoridades reconhecem que atualmente não existem modelos que a atendam.
As empresas que violarem as regras poderão enfrentar multas de até 30 milhões de won, mas o governo prometeu um período de carência de pelo menos um ano antes da imposição de penalidades.
Objetivos e Desafios
A legislação é promovida como a “primeira do mundo” a ser totalmente aplicada por um país e é central para a ambição da Coreia do Sul de se tornar uma das três principais potências em IA, ao lado dos EUA e da China. Funcionários do governo afirmam que a lei se concentra 80-90% em promover a indústria, em vez de restringi-la.
Embora a lei não seja perfeita, foi projetada para evoluir sem sufocar a inovação. No entanto, uma pesquisa revelou que 98% das startups de IA estavam despreparadas para a conformidade. Há frustração generalizada, com muitos se perguntando por que devem ser os primeiros a implementar essas regras.
As empresas devem determinar por conta própria se seus sistemas se qualificam como IA de alto impacto, um processo que críticos afirmam ser longo e criar incertezas. Além disso, alertam sobre um desequilíbrio competitivo, uma vez que todas as empresas coreanas enfrentam regulamentação, enquanto apenas empresas estrangeiras que atendem a certos critérios devem se conformar.
Preocupações da Sociedade Civil
A pressão por regulamentação ocorre em um contexto doméstico que deixou grupos da sociedade civil preocupados com o fato de que a legislação não vai longe o suficiente. A Coreia do Sul representa 53% de todas as vítimas globais de pornografia de deepfake, de acordo com um relatório recente. Investigações revelaram redes enormes criando e distribuindo imagens geradas por IA.
No entanto, as origens da lei datam de antes dessa crise, com o primeiro projeto de lei relacionado à IA apresentado ao parlamento em 2020. Este projeto enfrentou repetidos obstáculos, em parte devido a disposições acusadas de priorizar os interesses da indústria em detrimento da proteção dos cidadãos.
Grupos de direitos humanos afirmam que a nova legislação oferece proteção limitada às pessoas prejudicadas por sistemas de IA. Eles argumentam que, embora a lei estipule proteção para “usuários”, esses usuários são instituições que utilizam sistemas de IA, e não as pessoas afetadas.
Conclusão
O ministério responsável espera que a lei “remova a incerteza jurídica” e construa um “ecossistema de IA saudável e seguro”. Especialistas observam que a Coreia do Sul optou por um caminho diferente de outras jurisdições, adotando um framework mais flexível, baseado em princípios, em vez de um modelo rígido, como o da UE.
Esse framework poderá servir como um ponto de referência útil nas discussões globais sobre governança da IA.