Riscos da nova lei de IA da Coreia para a inovação

A Lei Básica de IA da Coreia do Sul e Seus Riscos

Em dezembro passado, a Coreia do Sul tomou uma medida sem precedentes ao aprovar a primeira lei do mundo que combina estratégia de IA, promoção industrial e regulamentação em um único estatuto: a Lei de Estrutura para Promoção e Confiança da Inteligência Artificial.

No papel, essa legislação parece um triunfo, permitindo que a Coreia se posicione como pioneira em políticas de IA, enquanto os Estados Unidos debatem diretrizes voluntárias e a Europa discute sua própria lei de IA. No entanto, ser o primeiro vem com seus próprios riscos.

O Paradoxo da Promoção e Regulação

A parte promocional da Lei de Estrutura é impressionante, prometendo investimentos em infraestrutura de dados, novos clusters de IA, treinamento de talentos e internacionalização. Essas são medidas inteligentes e visionárias que outros países poderiam invejar, estabelecendo uma fundação para um ecossistema de IA capaz de competir globalmente.

No entanto, os problemas surgem com as disposições regulatórias. Em vez de se concentrar em danos reais, essas regras se baseiam em critérios simbólicos. Um dos pontos mais problemáticos é a designação de “IA de alto impacto”, que utiliza um limite de computação para classificar automaticamente qualquer modelo de IA que consome mais de uma certa quantidade de poder computacional como de alto risco. Essa métrica, embora pareça precisa, é irrelevante, pois a computação não é um proxy para o perigo.

Regulamentação por Resultados

Artigos 33 a 35, que abordam a IA de alto impacto, impõem autoavaliações exaustivas, documentação e obrigações de relatórios. Contudo, a infinidade de papelada não garante segurança. O que deveria ser o padrão é a supervisão baseada em desempenho. A regulamentação deve se apoiar em resultados mensuráveis, sendo aplicada por ministérios que já possuem a expertise e as leis para gerenciar riscos setoriais específicos.

Obrigações e Ilusões de Segurança

Outras disposições da lei também são problemáticas. Obrigações de marca d’água e rotulagem de saídas de IA podem parecer tranquilizadoras, mas não impedirão a desinformação, deepfakes ou roubo de propriedade intelectual. O que elas realmente farão é criar uma ilusão de segurança enquanto sobrecarregam as empresas com burocracia.

O Tempo e a Oportunidade de Ajustes

O tempo ainda está a favor da Coreia. A lei não entrará em vigor até janeiro de 2026, e o Ministério da Ciência e TIC está redigindo os Decretos de Execução que determinarão como a lei funcionará na prática. Os legisladores ainda podem estreitar a definição excessivamente ampla de “sistema de IA”, eliminar mandatos prescritivos de P&D e descartar regras que penalizam pequenas e médias empresas.

Os reguladores também podem descartar o limite de computação, introduzir um período de carência antes das multas e redesenhar as obrigações de IA de alto risco em torno de resultados mensuráveis.

Conclusão

A Coreia tem uma escolha: pode mostrar ao mundo como integrar estratégia, promoção e regulamentação de uma forma que construa confiança e competitividade, ou pode servir como um aviso sobre como o excesso regulatório pode estrangular a inovação.

A questão não é se a IA deve ser regulamentada, mas como — e em que ritmo. A Lei de Estrutura de IA da Coreia do Sul expôs seu relógio regulatório. O desafio é criar um relógio de políticas de precisão que alinhe estratégia, promoção e regulamentação.

More Insights

Colaboração e Competição na Governança de IA

O projeto Red Cell trabalha para desafiar suposições e promover abordagens alternativas para os desafios de política externa e de segurança nacional dos EUA. A inovação em inteligência artificial (IA)...

Política Nacional de IA do Paquistão: Rumo a um Mercado de $2,7 Bilhões

O Paquistão introduziu uma ambiciosa Política Nacional de IA com o objetivo de construir um mercado doméstico de IA de US$ 2,7 bilhões em cinco anos. A política se baseia em seis pilares principais:...

Implementando a Governança Ética em IA

O guia mais recente do nosso AI Futures Lab destaca a importância da governança ética em IA, enfatizando a necessidade urgente de considerar questões éticas em todas as iniciativas de transformação de...

Estratégia Abrangente de IA para a Educação Superior

A inteligência artificial está reformulando o aprendizado, o ensino e as operações nas instituições de ensino superior, oferecendo um companheiro de aprendizado personalizado que apoia o sucesso dos...

A Retórica da Revolução da IA: Desafios e Oportunidades

A transformação econômica da IA começou, com empresas como IBM e Salesforce demitindo funcionários e substituindo-os por chatbots de IA. Com a adoção acelerada da IA, governos devem agir rapidamente...

Ética do Trabalho Digital: Responsabilidade na Era da IA

A ética do trabalho digital está se tornando uma preocupação crescente à medida que a inteligência artificial é cada vez mais utilizada para tarefas que antes eram exclusivas dos humanos. Os líderes...