La France face à l’innovation : Une législation AI sans sanctions

A bridge model

Le projet de loi sur l’IA au Japon : Promotion de la recherche et de la coordination plutôt que des sanctions

Le Japon adopte une approche distincte dans la gouvernance de l’intelligence artificielle (IA) au niveau mondial. Au lieu d’imposer des interdictions ou de définir des catégories de risque, le pays a adopté un nouveau projet de loi visant à soutenir la recherche, le développement et l’utilisation de l’IA. L’accent est mis sur la planification, l’infrastructure et l’implication de toutes les parties prenantes, allant du gouvernement aux entreprises. Cela contraste avec le modèle de l’ (UE), qui s’appuie fortement sur la réglementation et l’application des lois.

Ce que couvre le projet de loi sur la promotion de l’IA au Japon

Le Japon a mis en place une approche structurée et dirigée par le gouvernement en matière d’IA. Il a défini ses attentes concernant le développement et la gouvernance de l’IA. Pour orienter ce plan, la loi sur l’IA impose la création d’un Quartier Général de Stratégie de l’IA, établi par le Cabinet du pays et dirigé par le Premier ministre. La loi décrit l’IA comme une technologie imitant les compétences cognitives humaines telles que le raisonnement, la prise de décision et l’apprentissage. Elle rassemble les parties prenantes du gouvernement, du monde académique, des entreprises et du public pour favoriser l’adoption de manière coordonnée.

Les priorités de la loi

  • Soutenir la recherche et le développement allant de la recherche fondamentale à l’application concrète.
  • Promouvoir l’IA dans divers secteurs, y compris les services publics et l’industrie.
  • Prévenir les abus en garantissant la transparence et en s’alignant sur les normes internationales.
  • Participer activement à la formulation internationale de normes.
  • Former des compétences en IA par le biais de l’éducation et de la formation.

Répartition des responsabilités entre les parties prenantes

La loi répartit les responsabilités entre les différentes parties prenantes :

  • Le gouvernement central dirigera les politiques et fournira un soutien financier et législatif pour le développement de l’IA.
  • Les gouvernements locaux sont censés promouvoir l’utilisation de l’IA spécifique à leur région.
  • Les universités et instituts de recherche réaliseront des recherches interdisciplinaires complètes liées à l’IA.
  • Les entreprises sont encouragées à construire des systèmes d’IA responsables conformes aux normes internationales et à prévenir les utilisations nuisibles ou inappropriées.
  • Les citoyens doivent apprendre à interagir avec l’IA de manière responsable.

Contrairement à l’approche réglementaire de l’UE, la loi japonaise n’introduit pas de nouvelles sanctions pour les abus de l’IA. Elle s’appuie plutôt sur des cadres juridiques existants, tels que le Code pénal et la loi sur le droit d’auteur, pour aborder les risques.

Défis et questions soulevées

Bien que la loi permette au gouvernement de nommer publiquement les entreprises impliquées dans des utilisations nuisibles ou inappropriées de l’IA, telles que celles conduisant à des abus criminels ou des violations de droits, elle ne prévoit pas de sanctions spécifiques ou de mécanismes d’application dédiés. Cela soulève des questions sur la manière dont ces préjudices seront traités en pratique.

La loi japonaise permet également aux développeurs d’IA d’utiliser du matériel protégé par le droit d’auteur sans approbation préalable, tant que l’utilisation est non-expressive, comme pour la formation d’algorithmes ou l’analyse de données. Bien que cela réduise les frictions de conformité pour l’industrie, cela limite les protections du droit d’auteur sans ajouter de nouvelles garanties en retour.

Comparaison avec l’UE

En mars 2024, l’UE a adopté son propre Règlement sur l’Intelligence Artificielle, qui utilise un système par niveaux pour réguler l’IA en fonction du niveau de risque qu’elle pose à la sécurité publique, aux droits fondamentaux ou à la santé. Ce règlement classe les systèmes d’IA en quatre catégories : prohibés, à haut risque, d’usage général (GPAI) et à risque minimal.

La différence entre les approches japonaises et européennes est manifeste. Le Japon privilégie l’innovation par la coordination, tandis que l’UE a une approche plus stricte, catégorisant les systèmes d’IA et imposant des obligations contraignantes et des sanctions.

Conclusion : Vers un avenir de l’IA équilibré

Alors que le Japon et l’UE poursuivent des stratégies divergentes en matière de régulation de l’IA, ces modèles offrent des leçons pertinentes pour d’autres pays, comme l’Inde, qui n’a pas encore défini de stratégie claire pour gouverner l’IA. L’Inde devra décider si elle souhaite adopter un modèle basé sur la confiance, semblable à celui du Japon, ou construire un cadre juridique et institutionnel similaire à celui de l’UE.

Un équilibre entre l’innovation et la protection des droits pourrait être la voie à suivre pour l’Inde dans le domaine de l’intelligence artificielle.

Articles

Guide pratique pour une IA responsable pour les développeurs .NET

L'ère de l'intelligence artificielle (IA) est en cours, mais elle soulève des questions éthiques sur la confiance que l'on peut accorder aux systèmes d'IA. Cet article explore les six principes...

Directives du projet de loi sur l’IA de l’UE : évolutions en matière de droits d’auteur

Le projet de directive sur le Code de pratique de l'UE concernant les obligations des fournisseurs de modèles d'IA à usage général (GPAI) a été amélioré, offrant une voie de conformité structurée. Les...

Confiance client et conformité à l’ère de l’IA

L'intelligence artificielle promet une valeur considérable pour les marketeurs, mais cela ne sera possible que si elle est alimentée par des données de qualité collectées de manière responsable. Les...

L’IA au service de la gestion des risques dans le secteur bancaire

Dans le paysage bancaire complexe d'aujourd'hui, l'IA devient un moteur central de la gestion des risques, essentiel pour identifier les menaces et gérer la conformité. En Inde, où les attentes...

Loi californienne sur la transparence de l’IA : un tournant majeur pour l’innovation responsable

Les législateurs californiens ont fait les gros titres en adoptant une loi historique sur la transparence de l'IA, axée spécifiquement sur les "modèles de pointe". Cette législation vise à garantir la...

Bureau national de l’IA : autorité centrale pour la mise en œuvre de la législation européenne

Le gouvernement a désigné 15 autorités compétentes dans le cadre de la nouvelle loi sur l'IA de l'UE et a annoncé la création d'un Bureau national de l'IA d'ici le 2 août 2026. Ce bureau agira comme...

Défis de l’IA : Éviter les pièges juridiques et discriminatoires dans le recrutement

L'utilisation d'outils d'IA dans le processus de recrutement permet aux entreprises d'optimiser leurs processus, mais les employeurs doivent veiller à ce que les systèmes utilisés soient transparents...

Quatre piliers pour encadrer l’IA responsable dans les entreprises

Alors que l'IA générative transforme le fonctionnement des entreprises, il est crucial d'implémenter des garde-fous pour éviter des déploiements coûteux. Les quatre piliers de ces garde-fous incluent...

Concevoir une IA inclusive pour les marchés émergents

L'intelligence artificielle transforme notre monde à une vitesse fulgurante, mais ses bénéfices ne sont pas accessibles à tous. Il est crucial de concevoir des systèmes d'IA inclusifs qui tiennent...