Lois sur l’IA en Corée du Sud : Un premier pas vers la régulation mondiale

A futuristic, intricately designed AI circuit board with a traditional Korean hanbok pattern etched into its surface, partially obscured by a digital, shimmering barrier representing regulatory pushback.

Les nouvelles lois sur l’IA en Corée du Sud face à des critiques dans sa quête pour devenir une puissance technologique

La Corée du Sud a entrepris une incursion dans la régulation de l’IA, lançant ce qui est présenté comme l’ensemble de lois le plus complet au monde, qui pourrait servir de modèle pour d’autres pays. Cependant, cette nouvelle législation a déjà rencontré des résistances.

Les principales dispositions des lois

Les lois obligent les entreprises à étiqueter le contenu généré par l’IA. Elles ont été critiquées par les startups technologiques locales qui estiment qu’elles vont trop loin, ainsi que par des groupes de la société civile qui affirment qu’elles n’en font pas assez. La loi de base sur l’IA, entrée en vigueur récemment, vise à répondre à l’inquiétude croissante sur les médias artificiellement créés et la prise de décision automatisée.

Les entreprises fournissant des services d’IA doivent :

  • Ajouter des filigranes numériques invisibles pour les contenus clairement artificiels comme les dessins animés ou les œuvres d’art. Pour les deepfakes réalistes, des étiquettes visibles sont requises.
  • Les systèmes d’IA à fort impact, comme ceux utilisés pour le diagnostic médical, l’embauche et l’approbation de prêts, devront effectuer des évaluations des risques et documenter la manière dont les décisions sont prises.
  • Les modèles d’IA extrêmement puissants nécessiteront des rapports de sécurité, mais le seuil est si élevé qu’aucun modèle dans le monde ne répond actuellement à ces exigences.

Les entreprises qui enfreignent les règles peuvent faire face à des amendes allant jusqu’à 30 millions de wons, bien que le gouvernement ait promis une période de grâce d’au moins un an avant l’imposition de sanctions.

Réactions et préoccupations

La législation, présentée comme la « première au monde » à être pleinement appliquée par un pays, est centrale dans l’ambition de la Corée du Sud de devenir l’une des trois principales puissances en IA aux côtés des États-Unis et de la Chine. Bien que les responsables gouvernementaux affirment que la loi est axée à 80-90 % sur la promotion de l’industrie plutôt que sur sa restriction, des frustrations existent.

Une enquête a révélé que 98 % des startups en IA étaient mal préparées pour se conformer aux nouvelles réglementations. Les critiques soulignent que les entreprises doivent déterminer si leurs systèmes sont considérés comme ayant un fort impact, un processus long qui crée de l’incertitude.

Risques pour la société civile

Des groupes de la société civile craignent que la législation ne protège pas suffisamment les individus affectés par les systèmes d’IA. Bien que la loi stipule une protection pour les « utilisateurs », ces utilisateurs incluent principalement des hôpitaux, des entreprises financières et des institutions publiques utilisant des systèmes d’IA, plutôt que les personnes touchées par l’IA. Aucun système d’IA prohibé n’a été établi, et les exemptions pour « l’implication humaine » créent d’importantes failles.

La commission des droits de l’homme du pays a critiqué le décret d’application pour son manque de définitions claires sur l’IA à fort impact, notant que ceux qui sont les plus susceptibles de subir des violations de droits restent en dehors du cadre réglementaire.

Conclusion et perspectives

La loi vise à « éliminer l’incertitude juridique » et à construire un « écosystème IA domestique sain et sûr ». Contrairement aux modèles réglementaires stricts de l’UE ou aux approches sectorielles des États-Unis et du Royaume-Uni, la Corée du Sud a choisi un cadre plus flexible basé sur des principes, centré sur ce qui est décrit comme une « promotion et régulation fondées sur la confiance ». Cette approche pourrait servir de point de référence utile dans les discussions mondiales sur la gouvernance de l’IA.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...