Suivi Réglementaire de l’IA au Japon

Le Japon adopte une approche de soft law en matière de gouvernance de l’IA, mais les législateurs avancent une proposition pour une approche de hard law concernant certains préjudices.

Législations/ Régulations Régissant Directement l’IA

Le 28 mai 2025, le Parlement japonais a adopté une loi visant à établir une nouvelle réglementation sur l’IA, intitulée « Loi sur la Promotion de la Recherche, du Développement et de l’Utilisation des Technologies Liées à l’Intelligence Artificielle » (la loi sur l’IA). Cette loi constitue le premier cadre légal du Japon explicitement consacré à la réglementation de l’IA.

La loi stipule que le gouvernement établira un Centre Stratégique sur l’IA, qui devrait être lancé à l’été 2025, et un Plan Fondamental sur l’IA sera mis en œuvre dans l’année.

Auparavant, le Japon avait favorisé une approche de soft law via des Directives pour les Entreprises publiées en avril 2024, mises à jour en décembre 2024 et mars 2025. Cependant, en août 2024, le Cabinet a formé un Groupe d’Étude Institutionnel sur l’IA pour déterminer, en consultation avec divers acteurs, les prochaines étapes de la réglementation de l’IA au Japon.

Statut des Régulations sur l’IA

La loi sur l’IA a été approuvée par le Cabinet le 28 février 2025 et par le Parlement le 28 mai 2025. Le lancement du Centre Stratégique sur l’IA est prévu pour l’été 2025, et le Plan Fondamental sur l’IA devrait être mis en œuvre dans l’année.

Autres Lois Affectant l’IA

Bien que diverses lois n’aient pas été adoptées spécifiquement pour réglementer l’IA, elles sont susceptibles d’affecter son développement ou son utilisation au Japon. Parmi les exemples clés, on trouve :

  • Loi sur la Transparence des Plateformes Numériques, qui impose des exigences aux grandes plateformes en ligne pour garantir la transparence et l’équité dans les transactions.
  • Loi sur les Instruments Financiers et les Échanges, qui exige que les entreprises de trading algorithmique enregistrent leurs activités auprès du gouvernement.
  • Code Civil, permettant des actions en responsabilité contre une personne ayant donné des instructions à une IA pour produire du contenu diffamatoire.

Définition de l’IA

Les « technologies liées à l’intelligence artificielle » sont définies dans l’article 2 de la loi sur l’IA comme étant les technologies nécessaires pour réaliser des fonctions qui substituent les capacités cognitives humaines par des moyens artificiels.

Exigences de Conformité

Les acteurs du marché de l’IA sont tenus de faire des efforts raisonnables pour utiliser l’IA conformément aux principes directeurs de la loi. Bien que la loi ne prévoie pas d’obligations de conformité détaillées, elle impose aux acteurs de l’IA et aux institutions de recherche de coopérer avec les enquêtes gouvernementales.

Pouvoirs d’Exécution et Sanctions

La loi sur l’IA n’impose pas de sanctions spécifiques pour le refus de coopérer, mais elle confère au gouvernement un large pouvoir d’action basé sur ses enquêtes.

En conclusion, le Japon se positionne comme un acteur clé dans la régulation de l’IA, cherchant à équilibrer innovation et protection des droits, tout en s’engageant sur la scène internationale avec des principes directeurs tels que les Principes de Hiroshima.

Articles

Renforcer la sécurité des LLM : l’alignement responsable de l’IA

Ce document traite de l'alignement responsable de l'IA dans le développement de phi-3, mettant l'accent sur les principes de sécurité adoptés par Microsoft. Des méthodes de test et des ensembles de...

Contrôle des données dans l’ère des clouds IA souverains

Les nuages d'IA souverains offrent à la fois contrôle et conformité, répondant aux préoccupations croissantes concernant la résidence des données et le risque réglementaire. Dans un environnement où...

L’Alliance Écossaise de l’IA : Vers une Intelligence Artificielle Éthique

L'Alliance écossaise de l'IA a publié son rapport d'impact 2024/2025, révélant une année de progrès significatifs dans la promotion d'une intelligence artificielle éthique et inclusive en Écosse. Le...

UE AI Act : Préparez-vous au changement inévitable

L'annonce de la Commission européenne vendredi dernier selon laquelle il n'y aura pas de retard concernant la loi sur l'IA de l'UE a suscité des réactions passionnées des deux côtés. Il est temps de...

Fiabilité des modèles linguistiques : un défi à relever avec la loi sur l’IA de l’UE

Les modèles de langage de grande taille (LLM) ont considérablement amélioré la capacité des machines à comprendre et à traiter des séquences de texte complexes. Cependant, leur déploiement croissant...

Pause ou avancée : l’avenir de la réglementation de l’IA en Europe

Le Conseil européen a maintenu le calendrier de l'Acte sur l'IA malgré les pressions, affirmant qu'il n'y aura pas de pause dans sa mise en œuvre. Le Premier ministre suédois a appelé à un...

Nouvelles restrictions sur l’IA : impacts et opportunités

L'administration Trump prépare de nouvelles restrictions sur les exportations de puces AI vers la Malaisie et la Thaïlande pour empêcher que des processeurs avancés n'atteignent la Chine via des pays...

Gouvernance de l’IA : Garantir l’éthique et la transparence dans les entreprises modernes

La gouvernance de l'IA et la gouvernance des données sont essentielles pour garantir le développement de solutions d'IA éthiques et fiables. Ces cadres de gouvernance sont interconnectés et vitaux...

LLMOps : Optimisez l’IA Responsable à Grande Échelle avec Python

Dans un paysage hyper-compétitif, déployer des modèles de langage de grande taille (LLM) n'est pas suffisant ; il faut un cadre LLMOps robuste pour garantir la fiabilité et la conformité. Python, avec...