Risques de l’Acte de l’IA en Corée : une innovation entravée ?

A sand timer to illustrate the delay in advancements due to legal constraints.

Korea’s Basic AI Act Risks Stalling the Engine It Seeks to Build

En décembre dernier, la Corée du Sud a réalisé une prouesse sans précédent en adoptant la première loi mondiale visant à fusionner la stratégie en matière d’IA, la promotion industrielle et la réglementation dans un seul cadre : la Loi-cadre sur la promotion et la confiance dans l’intelligence artificielle.

Sur le papier, cela semble être un triomphe. La Corée peut maintenant se vanter d’avoir un cadre intégré, tandis que les États-Unis débattent de lignes directrices volontaires et que l’Europe se débat avec sa propre loi sur l’IA. Ce mouvement consolide la réputation d’un pays en tant que pionnier des politiques.

Les risques d’être le premier

Cependant, être le premier comporte ses propres risques. En liant promotion et réglementation, la Corée a créé un paradoxe : la même loi censée stimuler la croissance industrielle pourrait également la ralentir.

Le volet promotionnel de la Loi-cadre est impressionnant. Il promet des investissements dans les infrastructures de données, de nouveaux clusters d’IA, la formation des talents et l’internationalisation. Ce sont des mesures intelligentes et tournées vers l’avenir que d’autres pays pourraient envier. Elles jettent les bases d’un écosystème d’IA capable de rivaliser au niveau mondial.

Les préoccupations réglementaires

Le problème réside dans les dispositions réglementaires. Au lieu de cibler les véritables dangers, celles-ci reposent sur des règles symboliques. Les critères pour désigner une IA à « fort impact » sont particulièrement préoccupants. Un des tests est le seuil de calcul, qui considère automatiquement tout modèle d’IA entraîné avec plus d’une certaine quantité de puissance de calcul comme à haut risque. Ce paramètre, bien qu’il semble précis, est en réalité dénué de sens. Le calcul n’est pas un indicateur de danger. Réguler en fonction de la puissance de traitement brute revient à réglementer les avions par la taille de leur réservoir : cela semble objectif, mais ne dit rien sur leur sécurité.

Les articles 33 à 35, qui traitent de l’IA à fort impact, ajoutent une couche supplémentaire de préoccupation. Ils imposent des auto-évaluations, de la documentation et des obligations de rapport exhaustives. Pourtant, une paperasse sans fin ne garantit pas la sécurité. Les résultats – et non les rapports – devraient être la norme.

Vers une régulation basée sur les performances

Cela signifie qu’il faut passer à une surveillance basée sur la performance. La réglementation devrait reposer sur des résultats mesurables et être appliquée par des ministères qui possèdent déjà l’expertise et les lois pour gérer les risques sectoriels spécifiques. Le ministère des Transports sait comment réguler la conduite autonome, le régulateur financier comprend les algorithmes de marché, et le ministère de la Santé supervise la sécurité médicale. Chacun peut établir des repères pertinents, tandis que des organismes techniques comme l’Institut coréen de recherche sur les normes et la science peuvent concevoir des protocoles pour tester la conformité.

D’autres dispositions sont également mal orientées. Les obligations de marquage et d’étiquetage des résultats d’IA peuvent sembler rassurantes, mais elles ne stopperont pas la désinformation, les deepfakes ou le vol de propriété intellectuelle. Ce qu’elles feront, c’est créer l’illusion de la sécurité tout en accablant les entreprises de paperasse.

Le temps est compté

La métaphore est celle de l’horloge. Si l’horloge réglementaire tourne trop vite, l’industrie stagne. Si elle tourne trop lentement, la société est laissée sans protection. Actuellement, l’horloge réglementaire de la Corée avance plus vite que celle de l’industrie, et les rouages commencent à grincer.

Heureusement, le temps reste. La loi n’entrera en vigueur qu’en janvier 2026. Le ministère de la Science et des TIC rédige actuellement les décrets d’application qui détermineront comment elle fonctionnera en pratique. Les législateurs peuvent encore restreindre la définition trop large de « système d’IA », supprimer les mandats de R&D prescriptifs et éliminer les règles prioritaires pour les PME qui pénalisent la mise à l’échelle. Les régulateurs peuvent également abandonner le seuil de calcul, introduire une période de grâce avant les amendes et redéfinir les obligations de l’IA à haut risque autour de résultats mesurables.

Un choix décisif

La Corée a un choix à faire. Elle peut montrer au monde comment intégrer stratégie, promotion et réglementation de manière à construire à la fois la confiance et la compétitivité. Ou elle peut servir de conte d’avertissement sur la manière dont un excès de réglementation étouffe l’innovation.

La question n’est pas de savoir si l’IA doit être réglementée, mais comment – et à quel rythme. La Loi-cadre sur l’IA de la Corée a mis son horloge en évidence. Pour l’administration de Lee Jae-myung, qui a promis de faire de la Corée l’une des trois premières puissances mondiales en matière d’IA, le défi n’est pas de remonter l’horloge. Il s’agit de créer une horloge politique précise – celle où stratégie, promotion et réglementation s’emboîtent et fonctionnent en harmonie.

Articles

Collaboration et compétition : l’avenir de la gouvernance de l’IA

Le projet Red Cell vise à remettre en question les hypothèses et les idées reçues afin d'encourager des approches alternatives face aux défis de la politique étrangère et de sécurité nationale des...

Politique nationale de l’IA : vers un marché de 2,7 milliards de dollars au Pakistan

Le Pakistan a introduit une politique nationale ambitieuse en matière d'IA visant à créer un marché domestique de 2,7 milliards de dollars en cinq ans. Cette politique repose sur six piliers...

Gouvernance éthique de l’IA : un guide pratique pour les entreprises

Ce guide pratique souligne l'importance de la gouvernance éthique de l'IA pour les entreprises qui souhaitent intégrer l'IA de manière responsable. Il fournit des étapes concrètes pour établir un...

Stratégies IA pour transformer l’enseignement supérieur

L'intelligence artificielle transforme l'apprentissage, l'enseignement et les opérations dans l'enseignement supérieur en offrant des outils personnalisés pour le succès des étudiants et en renforçant...

Gouvernance de l’IA : Vers des normes éthiques en Afrique

L'intelligence artificielle (IA) façonne progressivement les services financiers, l'agriculture, l'éducation et même la gouvernance en Afrique. Pour réussir, les politiques organisationnelles doivent...

L’impact imminent de l’IA sur l’emploi

La transformation économique liée à l'IA a commencé, entraînant des licenciements massifs dans des entreprises comme IBM et Salesforce. Les résultats d'une enquête révèlent que les employés craignent...

Éthique du travail numérique : Qui est responsable de l’IA au sein de la main-d’œuvre ?

Le travail numérique devient de plus en plus courant sur le lieu de travail, mais peu de règles largement acceptées ont été mises en œuvre pour le régir. Les PDG doivent voir l'IA non seulement comme...

Anthropic présente Petri, l’outil d’audit automatisé pour la sécurité des IA

Anthropic a lancé Petri, un outil d'audit de sécurité AI open source conçu pour tester automatiquement les modèles de langage de grande taille (LLM) pour des comportements risqués. Cet outil utilise...

Conflit ou harmonie entre l’IA et la protection des données ?

L'IA est le mot à la mode dans le secteur juridique, et la loi sur l'IA de l'UE est un sujet d'intérêt majeur pour de nombreux professionnels du droit. Cet article examine les interactions...