La loi IA coréenne déjà contestée par les startups

A futuristic, half-assembled robot holding a traditional Korean fan

La Corée du Sud pourrait regretter d’être la première à adopter une nouvelle loi sur l’IA

Le 22 janvier, la Corée du Sud a introduit sa Loi de base sur l’IA, qu’elle prétend être « le premier corpus législatif complet au monde pour réguler l’intelligence artificielle ». Le gouvernement affirme que cette législation aidera le pays à devenir un leader dans la course mondiale à l’IA en établissant une « base de confiance » tout en protégeant les intérêts des citoyens.

Une loi exhaustive avec des exigences strictes

La nouvelle loi — la Loi de base sur le développement de l’intelligence artificielle et l’établissement d’une fondation de confiance — se compose de six chapitres avec 43 articles, stipulant des exigences de conformité strictes pour les entreprises nationales et étrangères. La loi définit de manière vague une catégorie d’applications « à fort impact », telles que celles liées à la sécurité nucléaire, à l’approvisionnement en eau potable, aux transports, aux soins de santé et à l’évaluation du crédit financier, en stipulant que la supervision humaine est obligatoire pour ces applications.

Les entreprises doivent également informer à l’avance les utilisateurs des produits et services utilisant cette « IA à fort impact » pour répondre à une exigence d’« explicabilité ». De plus, un « plan de protection des utilisateurs » doit être en place.

Pour contrer la désinformation et les images générées par IA, la loi impose également une exigence de « transparence », appelant à des filigranes clairs ou à un étiquetage audible lorsque les sorties de l’IA sont « difficiles à distinguer de la réalité ». Même pour les jeux et les animations, des étiquettes doivent être placées dans les métadonnées. Des amendes administratives pouvant atteindre 30 millions de wons (environ 20 400 $) peuvent être imposées pour des infractions à ces exigences d’étiquetage, après une période de grâce d’un an.

Inquiétudes des startups

Bien que le gouvernement affirme que la nouvelle loi a été adoptée après « de nombreuses consultations », l’Alliance des startups de Corée du Sud a exprimé sa frustration face à l’ambiguïté du langage de la loi. Selon une enquête, 98 % des 101 startups locales d’IA n’ont pas de systèmes en place pour se conformer à la loi, et près de la moitié d’entre elles admettent ne pas être familières avec ses détails.

Le ministère de la Science et des TIC sera responsable de confirmer si un système est considéré comme une IA à fort impact, et le processus d’examen prendra 30 jours, avec une extension possible de 30 jours supplémentaires, ce qui entraînera inévitablement des retards incertains pour certains nouveaux services.

Les risques d’une régulation prématurée

La Corée du Sud a traditionnellement pris l’initiative de légiférer et de réguler, mais une telle approche peut conduire à des conséquences imprévues. Par exemple, dans le passé, des lois visant à protéger les citoyens ont souvent été critiquées pour leur excès. Une loi de 2009 imposant un système d’enregistrement de vrais noms en ligne a été déclarée inconstitutionnelle après avoir entraîné des violations de données massives.

Récemment, des lois sur la protection des données ont été révisées pour alléger les sanctions pénales, reconnaissant que penaliser les victimes de cyberattaques n’encourageait pas les meilleures pratiques en matière de cybersécurité.

Conclusion

Bien que la Corée du Sud soit bien positionnée dans le secteur de l’IA, des réglementations trop agressives pourraient entraîner des conséquences indésirables. L’histoire du pays montre que le fait d’être le premier à réguler peut aussi signifier être le premier à échouer à prédire toutes les conséquences inattendues d’une intervention législative. Il est donc essentiel d’équilibrer innovation et protection dans ce domaine en pleine évolution.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...