La Corée du Sud en tête de la régulation de l’IA

A futuristic, intricately designed AI circuit board with a traditional Korean hanbok pattern etched into its surface, glowing softly with digital lights.

Pourquoi la Corée du Sud vise à être la première à réglementer l’IA

Avec seulement quelques semaines avant l’entrée en vigueur de la première loi complète sur l’intelligence artificielle au monde, un malaise se propage dans le secteur technologique du pays.

Un délai de grâce d’un an a été promis, mais de nombreuses entreprises ne savent toujours pas exactement ce que la loi attend d’elles.

Un cadre juridique inédit

La loi sur le cadre de l’IA, adoptée par l’Assemblée nationale en décembre 2024 et prévue pour entrer en vigueur le 22 janvier, constitue la première tentative d’un pays de réglementer et de promouvoir l’IA sous un cadre juridique unique. Cela marque l’ambition de la Corée de rejoindre les « G3 de l’IA », aux côtés des États-Unis et de la Chine.

Le moment n’est pas un hasard. Bien que l’Union européenne ait adopté sa propre loi sur l’IA en premier, des dispositions clés ne prendront effet qu’en 2027. La Corée, en revanche, est prête à agir rapidement, non seulement avec une législation, mais aussi avec des actions concrètes.

Alors que Washington est encore embourbé dans des blocages partisans concernant la législation sur l’IA et que Bruxelles est occupée à réviser son cadre réglementaire, Séoul sent une opportunité et n’attend pas. Ils soutiennent qu’en agissant tôt, la Corée pourrait façonner les normes mondiales, non pas depuis les coulisses, mais depuis le premier rang.

Un avantage précoce

Les décideurs affirment que cela va au-delà du symbole. Une action précoce permettra à la Corée de contribuer au débat international sur l’éthique et la sécurité de l’IA, particulièrement à un moment où les règles mondiales restent en évolution. Pendant que les États-Unis se concentrent sur leurs propres affaires et que l’UE avance lentement, la Corée parie sur l’avantage du premier arrivé.

Cependant, tout le monde n’est pas convaincu. Les critiques avertissent que cela pourrait être davantage une course aux titres qu’une gouvernance responsable. Certains mettent en garde contre le risque que les entreprises soient prises au dépourvu par des normes ambiguës et des délais précipités.

Principe d’innovation

Au cœur de l’approche coréenne se trouve un principe « d’innovation d’abord ». La loi permet aux entreprises de développer et de déployer des systèmes d’IA sans approbation préalable du gouvernement. Il s’agit d’un changement clair par rapport aux modèles de précaution et d’une tentative délibérée d’éliminer les goulets d’étranglement réglementaires qui ont longtemps freiné l’innovation technologique.

Cependant, cette promotion s’accompagne d’obligations. La loi impose un soutien de l’État à l’avancement de l’IA, y compris le financement de centres de données spécialisés, des programmes de normalisation et la formation de la main-d’œuvre.

Définitions floues et obligations

Elle définit également une nouvelle catégorie : l’IA à « haut impact ». Ce sont des systèmes utilisés dans des domaines sensibles tels que les dispositifs médicaux, les infrastructures énergétiques, les algorithmes de recrutement et le contrôle des installations nucléaires. En résumé, des domaines où l’échec pourrait comporter des risques sérieux.

Les entreprises utilisant de tels systèmes devront réaliser des évaluations des risques internes et un suivi continu. Elles devront également rendre compte de leurs protocoles de sécurité aux organismes gouvernementaux. Les obligations ne sont pas volontaires, elles sont soutenues par la loi.

Cependant, la loi laisse beaucoup de choses non dites. L’IA à haut impact est définie comme tout système dont l’échec pourrait nuire à la vie, aux biens ou aux droits fondamentaux, mais la manière dont cela sera déterminé reste floue. Les détails de mise en œuvre sont encore en cours d’élaboration et devraient être précisés dans des décrets exécutifs.

Règle de transparence

Une caractéristique attirant une attention particulière est la règle de transparence. Tout contenu généré par l’IA — image, vidéo ou audio — doit être clairement étiqueté et filigrané. Des filigranes lisibles par machine, invisibles à l’œil humain, sont également requis pour prévenir les abus. L’objectif est d’empêcher les deepfakes et la désinformation de passer inaperçus.

Confusion croissante

Le gouvernement espère que cette nouvelle loi renforcera la position de la Corée en tant que l’un des trois principaux acteurs mondiaux de l’IA. Elle a formellement désigné l’IA comme une industrie stratégique nationale et a établi une base juridique visant à accélérer l’innovation.

Cependant, le message n’a pas été reçu de manière uniforme. De nombreux acteurs du secteur affirment qu’ils sont encore dans le flou. Certains soulignent des définitions vagues, tandis que d’autres expriment des inquiétudes quant aux charges de conformité. Parmi les startups et les développeurs, la confusion semble généralisée.

Une enquête récente a révélé que 98 % des startups locales en IA n’avaient pas encore initié de démarches formelles de conformité, citant des orientations peu claires.

Délai de grâce d’un an

Des groupes civiques tirent également la sonnette d’alarme. En l’absence de surveillance indépendante ou de sanctions significatives, ils soutiennent que la loi risque de devenir plus symbolique que substantielle. Les biais algorithmiques et la surveillance biométrique sont signalés comme des domaines nécessitant des contrôles plus stricts.

Les responsables admettent que le déploiement ne sera pas sans accrocs, mais ils soulignent que la loi est destinée à évoluer. Un délai de grâce d’un an a été introduit, durant lequel les sanctions seront suspendues. L’objectif, selon les responsables, n’est pas de punir, mais d’aider l’industrie à se préparer.

Ce n’est que le début, et le véritable test sera de voir comment ces principes se manifestent dans des scénarios réels.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...