A Lei Básica de IA da Coreia do Sul e Seus Riscos
Em dezembro passado, a Coreia do Sul tomou uma medida sem precedentes ao aprovar a primeira lei do mundo que combina estratégia de IA, promoção industrial e regulamentação em um único estatuto: a Lei de Estrutura para Promoção e Confiança da Inteligência Artificial.
No papel, essa legislação parece um triunfo, permitindo que a Coreia se posicione como pioneira em políticas de IA, enquanto os Estados Unidos debatem diretrizes voluntárias e a Europa discute sua própria lei de IA. No entanto, ser o primeiro vem com seus próprios riscos.
O Paradoxo da Promoção e Regulação
A parte promocional da Lei de Estrutura é impressionante, prometendo investimentos em infraestrutura de dados, novos clusters de IA, treinamento de talentos e internacionalização. Essas são medidas inteligentes e visionárias que outros países poderiam invejar, estabelecendo uma fundação para um ecossistema de IA capaz de competir globalmente.
No entanto, os problemas surgem com as disposições regulatórias. Em vez de se concentrar em danos reais, essas regras se baseiam em critérios simbólicos. Um dos pontos mais problemáticos é a designação de “IA de alto impacto”, que utiliza um limite de computação para classificar automaticamente qualquer modelo de IA que consome mais de uma certa quantidade de poder computacional como de alto risco. Essa métrica, embora pareça precisa, é irrelevante, pois a computação não é um proxy para o perigo.
Regulamentação por Resultados
Artigos 33 a 35, que abordam a IA de alto impacto, impõem autoavaliações exaustivas, documentação e obrigações de relatórios. Contudo, a infinidade de papelada não garante segurança. O que deveria ser o padrão é a supervisão baseada em desempenho. A regulamentação deve se apoiar em resultados mensuráveis, sendo aplicada por ministérios que já possuem a expertise e as leis para gerenciar riscos setoriais específicos.
Obrigações e Ilusões de Segurança
Outras disposições da lei também são problemáticas. Obrigações de marca d’água e rotulagem de saídas de IA podem parecer tranquilizadoras, mas não impedirão a desinformação, deepfakes ou roubo de propriedade intelectual. O que elas realmente farão é criar uma ilusão de segurança enquanto sobrecarregam as empresas com burocracia.
O Tempo e a Oportunidade de Ajustes
O tempo ainda está a favor da Coreia. A lei não entrará em vigor até janeiro de 2026, e o Ministério da Ciência e TIC está redigindo os Decretos de Execução que determinarão como a lei funcionará na prática. Os legisladores ainda podem estreitar a definição excessivamente ampla de “sistema de IA”, eliminar mandatos prescritivos de P&D e descartar regras que penalizam pequenas e médias empresas.
Os reguladores também podem descartar o limite de computação, introduzir um período de carência antes das multas e redesenhar as obrigações de IA de alto risco em torno de resultados mensuráveis.
Conclusão
A Coreia tem uma escolha: pode mostrar ao mundo como integrar estratégia, promoção e regulamentação de uma forma que construa confiança e competitividade, ou pode servir como um aviso sobre como o excesso regulatório pode estrangular a inovação.
A questão não é se a IA deve ser regulamentada, mas como — e em que ritmo. A Lei de Estrutura de IA da Coreia do Sul expôs seu relógio regulatório. O desafio é criar um relógio de políticas de precisão que alinhe estratégia, promoção e regulamentação.