Korea’s Basic AI Act Risks Stalling the Engine It Seeks to Build
En décembre dernier, la Corée du Sud a réalisé une prouesse sans précédent en adoptant la première loi mondiale visant à fusionner la stratégie en matière d’IA, la promotion industrielle et la réglementation dans un seul cadre : la Loi-cadre sur la promotion et la confiance dans l’intelligence artificielle.
Sur le papier, cela semble être un triomphe. La Corée peut maintenant se vanter d’avoir un cadre intégré, tandis que les États-Unis débattent de lignes directrices volontaires et que l’Europe se débat avec sa propre loi sur l’IA. Ce mouvement consolide la réputation d’un pays en tant que pionnier des politiques.
Les risques d’être le premier
Cependant, être le premier comporte ses propres risques. En liant promotion et réglementation, la Corée a créé un paradoxe : la même loi censée stimuler la croissance industrielle pourrait également la ralentir.
Le volet promotionnel de la Loi-cadre est impressionnant. Il promet des investissements dans les infrastructures de données, de nouveaux clusters d’IA, la formation des talents et l’internationalisation. Ce sont des mesures intelligentes et tournées vers l’avenir que d’autres pays pourraient envier. Elles jettent les bases d’un écosystème d’IA capable de rivaliser au niveau mondial.
Les préoccupations réglementaires
Le problème réside dans les dispositions réglementaires. Au lieu de cibler les véritables dangers, celles-ci reposent sur des règles symboliques. Les critères pour désigner une IA à « fort impact » sont particulièrement préoccupants. Un des tests est le seuil de calcul, qui considère automatiquement tout modèle d’IA entraîné avec plus d’une certaine quantité de puissance de calcul comme à haut risque. Ce paramètre, bien qu’il semble précis, est en réalité dénué de sens. Le calcul n’est pas un indicateur de danger. Réguler en fonction de la puissance de traitement brute revient à réglementer les avions par la taille de leur réservoir : cela semble objectif, mais ne dit rien sur leur sécurité.
Les articles 33 à 35, qui traitent de l’IA à fort impact, ajoutent une couche supplémentaire de préoccupation. Ils imposent des auto-évaluations, de la documentation et des obligations de rapport exhaustives. Pourtant, une paperasse sans fin ne garantit pas la sécurité. Les résultats – et non les rapports – devraient être la norme.
Vers une régulation basée sur les performances
Cela signifie qu’il faut passer à une surveillance basée sur la performance. La réglementation devrait reposer sur des résultats mesurables et être appliquée par des ministères qui possèdent déjà l’expertise et les lois pour gérer les risques sectoriels spécifiques. Le ministère des Transports sait comment réguler la conduite autonome, le régulateur financier comprend les algorithmes de marché, et le ministère de la Santé supervise la sécurité médicale. Chacun peut établir des repères pertinents, tandis que des organismes techniques comme l’Institut coréen de recherche sur les normes et la science peuvent concevoir des protocoles pour tester la conformité.
D’autres dispositions sont également mal orientées. Les obligations de marquage et d’étiquetage des résultats d’IA peuvent sembler rassurantes, mais elles ne stopperont pas la désinformation, les deepfakes ou le vol de propriété intellectuelle. Ce qu’elles feront, c’est créer l’illusion de la sécurité tout en accablant les entreprises de paperasse.
Le temps est compté
La métaphore est celle de l’horloge. Si l’horloge réglementaire tourne trop vite, l’industrie stagne. Si elle tourne trop lentement, la société est laissée sans protection. Actuellement, l’horloge réglementaire de la Corée avance plus vite que celle de l’industrie, et les rouages commencent à grincer.
Heureusement, le temps reste. La loi n’entrera en vigueur qu’en janvier 2026. Le ministère de la Science et des TIC rédige actuellement les décrets d’application qui détermineront comment elle fonctionnera en pratique. Les législateurs peuvent encore restreindre la définition trop large de « système d’IA », supprimer les mandats de R&D prescriptifs et éliminer les règles prioritaires pour les PME qui pénalisent la mise à l’échelle. Les régulateurs peuvent également abandonner le seuil de calcul, introduire une période de grâce avant les amendes et redéfinir les obligations de l’IA à haut risque autour de résultats mesurables.
Un choix décisif
La Corée a un choix à faire. Elle peut montrer au monde comment intégrer stratégie, promotion et réglementation de manière à construire à la fois la confiance et la compétitivité. Ou elle peut servir de conte d’avertissement sur la manière dont un excès de réglementation étouffe l’innovation.
La question n’est pas de savoir si l’IA doit être réglementée, mais comment – et à quel rythme. La Loi-cadre sur l’IA de la Corée a mis son horloge en évidence. Pour l’administration de Lee Jae-myung, qui a promis de faire de la Corée l’une des trois premières puissances mondiales en matière d’IA, le défi n’est pas de remonter l’horloge. Il s’agit de créer une horloge politique précise – celle où stratégie, promotion et réglementation s’emboîtent et fonctionnent en harmonie.