Leis de IA da Coreia do Sul enfrentam resistência na corrida tecnológica

As Novas Leis de IA da Coreia do Sul Enfrentam Resistência em Meio à Tentativa de se Tornar uma Potência Tecnológica

A Coreia do Sul iniciou um esforço para regular a inteligência artificial (IA), lançando um conjunto de leis considerado o mais abrangente do mundo, que pode servir de modelo para outros países. No entanto, a nova legislação já encontrou resistência.

Regulamentação e Críticas

As leis obrigarão as empresas a rotular conteúdo gerado por IA, mas foram criticadas por startups locais de tecnologia, que afirmam que as exigências são excessivas, e por grupos da sociedade civil, que argumentam que não vão longe o suficiente. A lei básica de IA, que entrou em vigor recentemente, surge em meio a crescentes preocupações globais sobre mídias criadas artificialmente e decisões automatizadas, enquanto os governos lutam para acompanhar o rápido avanço das tecnologias.

As empresas que oferecem serviços de IA deverão:

  • Adicionar marcas d’água digitais invisíveis para saídas claramente artificiais, como desenhos animados ou obras de arte. Para deepfakes realistas, rótulos visíveis serão exigidos.
  • Sistemas de “IA de alto impacto”, como aqueles usados para diagnósticos médicos, contratações e aprovações de empréstimos, precisarão realizar avaliações de risco e documentar como as decisões são tomadas.
  • Modelos de IA extremamente poderosos exigirão relatórios de segurança, mas a exigência é tão alta que autoridades reconhecem que atualmente não existem modelos que a atendam.

As empresas que violarem as regras poderão enfrentar multas de até 30 milhões de won, mas o governo prometeu um período de carência de pelo menos um ano antes da imposição de penalidades.

Objetivos e Desafios

A legislação é promovida como a “primeira do mundo” a ser totalmente aplicada por um país e é central para a ambição da Coreia do Sul de se tornar uma das três principais potências em IA, ao lado dos EUA e da China. Funcionários do governo afirmam que a lei se concentra 80-90% em promover a indústria, em vez de restringi-la.

Embora a lei não seja perfeita, foi projetada para evoluir sem sufocar a inovação. No entanto, uma pesquisa revelou que 98% das startups de IA estavam despreparadas para a conformidade. Há frustração generalizada, com muitos se perguntando por que devem ser os primeiros a implementar essas regras.

As empresas devem determinar por conta própria se seus sistemas se qualificam como IA de alto impacto, um processo que críticos afirmam ser longo e criar incertezas. Além disso, alertam sobre um desequilíbrio competitivo, uma vez que todas as empresas coreanas enfrentam regulamentação, enquanto apenas empresas estrangeiras que atendem a certos critérios devem se conformar.

Preocupações da Sociedade Civil

A pressão por regulamentação ocorre em um contexto doméstico que deixou grupos da sociedade civil preocupados com o fato de que a legislação não vai longe o suficiente. A Coreia do Sul representa 53% de todas as vítimas globais de pornografia de deepfake, de acordo com um relatório recente. Investigações revelaram redes enormes criando e distribuindo imagens geradas por IA.

No entanto, as origens da lei datam de antes dessa crise, com o primeiro projeto de lei relacionado à IA apresentado ao parlamento em 2020. Este projeto enfrentou repetidos obstáculos, em parte devido a disposições acusadas de priorizar os interesses da indústria em detrimento da proteção dos cidadãos.

Grupos de direitos humanos afirmam que a nova legislação oferece proteção limitada às pessoas prejudicadas por sistemas de IA. Eles argumentam que, embora a lei estipule proteção para “usuários”, esses usuários são instituições que utilizam sistemas de IA, e não as pessoas afetadas.

Conclusão

O ministério responsável espera que a lei “remova a incerteza jurídica” e construa um “ecossistema de IA saudável e seguro”. Especialistas observam que a Coreia do Sul optou por um caminho diferente de outras jurisdições, adotando um framework mais flexível, baseado em princípios, em vez de um modelo rígido, como o da UE.

Esse framework poderá servir como um ponto de referência útil nas discussões globais sobre governança da IA.

More Insights

A Importância da IA Responsável: Riscos e Soluções

As empresas estão cientes da necessidade de uma IA responsável, mas muitas a tratam como um pensamento secundário ou um fluxo de trabalho separado. Isso pode levar a riscos legais, financeiros e de...

Modelo de Governança de IA que Combate o Shadow IT

As ferramentas de inteligência artificial (IA) estão se espalhando rapidamente pelos locais de trabalho, mudando a forma como as tarefas diárias são realizadas. A adoção da IA está ocorrendo de forma...

Acelerando Inovação com IA Ética

As empresas estão correndo para inovar com inteligência artificial, mas muitas vezes sem as diretrizes adequadas. A conformidade pode se tornar um acelerador da inovação, permitindo que as empresas se...

Riscos Ocultos da IA na Contratação

A inteligência artificial está transformando a forma como os empregadores recrutam e avaliam talentos, mas também introduz riscos legais significativos sob as leis federais de anti-discriminação. A...