Les nouvelles lois sur l’IA en Corée du Sud face à des critiques dans sa quête pour devenir une puissance technologique
La Corée du Sud a entrepris une incursion dans la régulation de l’IA, lançant ce qui est présenté comme l’ensemble de lois le plus complet au monde, qui pourrait servir de modèle pour d’autres pays. Cependant, cette nouvelle législation a déjà rencontré des résistances.
Les principales dispositions des lois
Les lois obligent les entreprises à étiqueter le contenu généré par l’IA. Elles ont été critiquées par les startups technologiques locales qui estiment qu’elles vont trop loin, ainsi que par des groupes de la société civile qui affirment qu’elles n’en font pas assez. La loi de base sur l’IA, entrée en vigueur récemment, vise à répondre à l’inquiétude croissante sur les médias artificiellement créés et la prise de décision automatisée.
Les entreprises fournissant des services d’IA doivent :
- Ajouter des filigranes numériques invisibles pour les contenus clairement artificiels comme les dessins animés ou les œuvres d’art. Pour les deepfakes réalistes, des étiquettes visibles sont requises.
- Les systèmes d’IA à fort impact, comme ceux utilisés pour le diagnostic médical, l’embauche et l’approbation de prêts, devront effectuer des évaluations des risques et documenter la manière dont les décisions sont prises.
- Les modèles d’IA extrêmement puissants nécessiteront des rapports de sécurité, mais le seuil est si élevé qu’aucun modèle dans le monde ne répond actuellement à ces exigences.
Les entreprises qui enfreignent les règles peuvent faire face à des amendes allant jusqu’à 30 millions de wons, bien que le gouvernement ait promis une période de grâce d’au moins un an avant l’imposition de sanctions.
Réactions et préoccupations
La législation, présentée comme la « première au monde » à être pleinement appliquée par un pays, est centrale dans l’ambition de la Corée du Sud de devenir l’une des trois principales puissances en IA aux côtés des États-Unis et de la Chine. Bien que les responsables gouvernementaux affirment que la loi est axée à 80-90 % sur la promotion de l’industrie plutôt que sur sa restriction, des frustrations existent.
Une enquête a révélé que 98 % des startups en IA étaient mal préparées pour se conformer aux nouvelles réglementations. Les critiques soulignent que les entreprises doivent déterminer si leurs systèmes sont considérés comme ayant un fort impact, un processus long qui crée de l’incertitude.
Risques pour la société civile
Des groupes de la société civile craignent que la législation ne protège pas suffisamment les individus affectés par les systèmes d’IA. Bien que la loi stipule une protection pour les « utilisateurs », ces utilisateurs incluent principalement des hôpitaux, des entreprises financières et des institutions publiques utilisant des systèmes d’IA, plutôt que les personnes touchées par l’IA. Aucun système d’IA prohibé n’a été établi, et les exemptions pour « l’implication humaine » créent d’importantes failles.
La commission des droits de l’homme du pays a critiqué le décret d’application pour son manque de définitions claires sur l’IA à fort impact, notant que ceux qui sont les plus susceptibles de subir des violations de droits restent en dehors du cadre réglementaire.
Conclusion et perspectives
La loi vise à « éliminer l’incertitude juridique » et à construire un « écosystème IA domestique sain et sûr ». Contrairement aux modèles réglementaires stricts de l’UE ou aux approches sectorielles des États-Unis et du Royaume-Uni, la Corée du Sud a choisi un cadre plus flexible basé sur des principes, centré sur ce qui est décrit comme une « promotion et régulation fondées sur la confiance ». Cette approche pourrait servir de point de référence utile dans les discussions mondiales sur la gouvernance de l’IA.