La loi coréenne sur l’IA peut-elle freiner les crimes liés aux deepfakes alors que Grok d’Elon Musk est critiqué ?
La société d’intelligence artificielle d’Elon Musk, xAI, est au centre d’une controverse concernant la diffusion d’images deepfake. Alors que xAI fait face à des critiques, la Loi-cadre sur le développement de l’intelligence artificielle de Corée est sur le point d’entrer en vigueur la semaine prochaine. Tous les regards sont tournés vers la capacité de cette législation — la première réglementation complète sur l’IA au monde — à jouer efficacement son rôle.
Préoccupations sur l’efficacité de la loi
Cependant, le scepticisme grandit quant à l’efficacité de la loi, beaucoup prédisant qu’elle sera confrontée à des obstacles pratiques pour bloquer les services deepfake de xAI ou restreindre l’accès. Des responsables de l’industrie ont déclaré que le modèle d’IA de xAI, Grok, continue d’offrir des fonctionnalités sur la plateforme sociale de Musk qui transforment des photos ordinaires en images deepfake à caractère sexuel.
Alors que la Malaisie et l’Indonésie ont restreint l’accès à la plateforme et que d’autres pays ont lancé des enquêtes juridiques — poussant xAI à limiter la fonctionnalité aux abonnés payants — des préoccupations persistent.
Objectifs et obligations de la loi
La loi, qui entre en vigueur le 22 janvier, a été adoptée pour renforcer les responsabilités des opérateurs d’IA et créer une base visant à instaurer la confiance dans une société pilotée par l’IA. La prévention des crimes deepfake a été citée comme un objectif clé.
La loi s’applique aux opérateurs à l’étranger et exige qu’ils désignent des agents domestiques pour remplir les obligations légales. Cependant, l’obligation de transparence pour étiqueter les deepfakes n’est pas spécifiquement incluse dans le rôle de l’agent domestique. Cette ambiguïté pourrait retarder la prévention ou la réponse lors de la communication avec des opérateurs étrangers.
Au lieu de cela, la loi impose que tout contenu généré par IA soit étiqueté. Elle exige des filigranes visibles sur le contenu deepfake qui sont difficiles à distinguer de la réalité. Les violations entraînent une ordonnance de correction, et le non-respect peut entraîner une amende allant jusqu’à 30 millions de wons (environ 20 300 dollars).
Défis d’application et perspectives futures
Dans le cadre de ces règles, les images deepfake de Grok doivent porter des filigranes. Cependant, comme la loi inclut une période de grâce d’un an, l’application immédiate est impossible. Les analystes estiment qu’après cette période, bloquer ou restreindre directement les services d’IA étrangers restera difficile en raison des frictions commerciales potentielles.
« Selon les lois actuelles, il est difficile de faire plus que d’imposer des amendes si des entreprises étrangères comme xAI ne coopèrent pas volontairement », a déclaré un avocat. Des experts conseillent que jusqu’à ce que la nouvelle loi sur l’IA prenne pleinement effet, les cas de deepfake devraient être traités en vertu des lois existantes telles que la Loi sur les réseaux d’information et de communication ou la Loi sur la protection des informations personnelles.
« La force obligatoire de la loi à elle seule est faible », a ajouté un autre avocat. « Les réglementations doivent être complétées par des sanctions spécifiques pour les violations en liaison avec les lois existantes. »
Le gouvernement maintient sa position sur l’application d’une réglementation minimale tout en surveillant la situation pendant une certaine période. Un responsable a déclaré : « Comme la technologie de l’IA est encore en développement par essais et erreurs, nous observerons la situation pour permettre une autocorrection. »