La Loi Fondamentale sur l’IA en Corée : Un Nouveau Cadre Réglementaire

1. A robot figurine 2. A circuit board 3. A book titled "AI Ethics"Selected: A book titled "AI Ethics"

EXPLAINER: La Loi de Base sur l’IA en Corée

La Corée du Sud s’est positionnée à l’avant-garde de la réglementation de l’IA en Asie avec l’adoption de la Loi sur le développement de l’intelligence artificielle et l’établissement de la confiance, ou Loi de Base sur l’IA, le 26 décembre de l’année dernière.

Cette législation pionnière fait de la Corée du Sud le premier marché asiatique à établir un cadre juridique complet pour l’IA, suivant l’exemple de l’Union européenne avec sa Loi sur l’IA. Prévue pour entrer en vigueur en janvier 2026, la Loi de Base sur l’IA accorde aux entreprises une période de préparation d’un an pour se conformer à ses exigences.

Quels secteurs seront impactés par la loi ?

Selon des experts juridiques, la loi aura un impact significatif sur les secteurs fortement dépendants de l’IA. Dans le secteur de la mobilité, les systèmes de véhicules autonomes relèvent de l’IA « à fort impact », qui utilise des systèmes d’IA affectant la vie, la sécurité physique et les droits fondamentaux. Les activités d’IA à fort impact nécessitent des évaluations de sécurité et de transparence renforcées.

De même, les systèmes d’IA dans les dispositifs médicaux et les soins de santé sont classés comme à fort impact en raison de leur effet sur la santé et la sécurité. Dans le secteur des dispositifs médicaux, la Loi sur les Produits de Santé Numériques, qui régit les essais cliniques, les approbations et le contrôle de qualité des produits médicaux numériques, est déjà en vigueur. Cela rend crucial pour les entreprises de ce secteur de se préparer de manière proactive.

Pour les institutions financières, les systèmes d’IA utilisés dans l’évaluation de crédit, le recrutement et les processus de prêt peuvent tomber sous le coup de la loi, nécessitant un examen attentif des dispositions réglementaires et un ajustement des systèmes d’IA en conséquence.

« De plus, étant donné que le champ d’application des services d’IA à fort impact est plus étroit que celui des services à haut risque spécifiés dans les lignes directrices de la Commission des Services Financiers, les institutions doivent rester vigilantes quant aux pratiques d’application futures pour garantir leur conformité », ajoute un expert.

Les entreprises utilisant des systèmes d’IA à fort impact ou génératifs doivent informer les utilisateurs à l’avance si leurs produits ou services intègrent des éléments d’IA ou sont créés artificiellement.

Quelles obligations de conformité la loi impose-t-elle ?

Les entreprises doivent évaluer de manière proactive si leurs systèmes d’IA relèvent de la catégorie « à fort impact », car la loi accorde au Décret Présidentiel le pouvoir de définir l’étendue de cette catégorie.

Pour les entreprises fonctionnant des services basés sur l’IA à fort impact, il est conseillé de respecter une série d’obligations pour assurer la conformité avec la nouvelle loi. Ces obligations incluent la mise en œuvre de mesures pour identifier et atténuer les risques, fournir des explications claires sur les services basés sur l’IA, et garantir la protection des utilisateurs.

Les entreprises sont également invitées à concevoir des systèmes d’IA permettant une surveillance et une intervention humaines lorsque cela est nécessaire, ainsi qu’à maintenir une documentation pour vérifier la sécurité, la fiabilité et la conformité réglementaire du système d’IA.

Pour les systèmes d’IA à fort impact, des obligations de conformité supplémentaires incluent des normes de sécurité et de fiabilité, des plans de gestion des risques, des stratégies de protection des utilisateurs, des mécanismes de surveillance humaine, et des évaluations d’impact.

Notamment, la loi présente une application extraterritoriale, obligeant les entreprises non coréennes à désigner un agent domestique ayant une présence en Corée lorsque certains seuils sont atteints.

« Si un fournisseur de services basé sur l’IA à l’échelle mondiale tombe sous ce mandat, il doit également nommer un représentant légal en Corée pour gérer les questions de conformité. Le non-respect de ces exigences pourrait entraîner des amendes allant jusqu’à 30 millions de wons (20 457 dollars) pour non-conformité aux obligations de notification et de nomination d’agent domestique, ainsi que des restrictions d’exploitation commerciale si les ordres correctifs ne sont pas suivis », prévient l’expert.

Comment la loi se compare-t-elle aux approches d’autres juridictions ?

Alors que d’autres juridictions comme le Royaume-Uni, la Chine continentale et le Japon continuent de débattre de la législation sur l’IA avec des lois potentielles projetées pour 2025, l’approche de la Corée du Sud fournit un point de référence précieux pour équilibrer l’innovation avec le développement responsable de l’IA.

« La Chine a adopté un cadre réglementaire strict qui privilégie la sûreté nationale et la souveraineté des données », explique l’expert. « Singapour, en revanche, a adopté une approche flexible, dirigée par l’industrie, promouvant la gouvernance de l’IA par le biais de lignes directrices non contraignantes plutôt que d’une application rigide. »

En comparaison, « la Corée a adopté une position réglementaire équilibrée, visant à soutenir la croissance de l’industrie de l’IA tout en garantissant la transparence et la sécurité. L’approche coréenne cherche à favoriser l’innovation tout en mettant en place des garde-fous contre les risques potentiels liés à l’IA », conclut l’expert.

« Ces différences soulignent comment chaque pays adapte ses réglementations sur l’IA pour s’aligner sur son environnement économique et ses priorités politiques. En même temps, elles soulignent l’importance d’évaluer attentivement l’impact des réglementations sur l’IA sur la compétitivité nationale et l’avancement technologique », ajoute-t-il.

Articles

Renforcer la sécurité des LLM : l’alignement responsable de l’IA

Ce document traite de l'alignement responsable de l'IA dans le développement de phi-3, mettant l'accent sur les principes de sécurité adoptés par Microsoft. Des méthodes de test et des ensembles de...

Contrôle des données dans l’ère des clouds IA souverains

Les nuages d'IA souverains offrent à la fois contrôle et conformité, répondant aux préoccupations croissantes concernant la résidence des données et le risque réglementaire. Dans un environnement où...

L’Alliance Écossaise de l’IA : Vers une Intelligence Artificielle Éthique

L'Alliance écossaise de l'IA a publié son rapport d'impact 2024/2025, révélant une année de progrès significatifs dans la promotion d'une intelligence artificielle éthique et inclusive en Écosse. Le...

UE AI Act : Préparez-vous au changement inévitable

L'annonce de la Commission européenne vendredi dernier selon laquelle il n'y aura pas de retard concernant la loi sur l'IA de l'UE a suscité des réactions passionnées des deux côtés. Il est temps de...

Fiabilité des modèles linguistiques : un défi à relever avec la loi sur l’IA de l’UE

Les modèles de langage de grande taille (LLM) ont considérablement amélioré la capacité des machines à comprendre et à traiter des séquences de texte complexes. Cependant, leur déploiement croissant...

Pause ou avancée : l’avenir de la réglementation de l’IA en Europe

Le Conseil européen a maintenu le calendrier de l'Acte sur l'IA malgré les pressions, affirmant qu'il n'y aura pas de pause dans sa mise en œuvre. Le Premier ministre suédois a appelé à un...

Nouvelles restrictions sur l’IA : impacts et opportunités

L'administration Trump prépare de nouvelles restrictions sur les exportations de puces AI vers la Malaisie et la Thaïlande pour empêcher que des processeurs avancés n'atteignent la Chine via des pays...

Gouvernance de l’IA : Garantir l’éthique et la transparence dans les entreprises modernes

La gouvernance de l'IA et la gouvernance des données sont essentielles pour garantir le développement de solutions d'IA éthiques et fiables. Ces cadres de gouvernance sont interconnectés et vitaux...

LLMOps : Optimisez l’IA Responsable à Grande Échelle avec Python

Dans un paysage hyper-compétitif, déployer des modèles de langage de grande taille (LLM) n'est pas suffisant ; il faut un cadre LLMOps robuste pour garantir la fiabilité et la conformité. Python, avec...