La France face à l’innovation : Une législation AI sans sanctions

A bridge model

Le projet de loi sur l’IA au Japon : Promotion de la recherche et de la coordination plutôt que des sanctions

Le Japon adopte une approche distincte dans la gouvernance de l’intelligence artificielle (IA) au niveau mondial. Au lieu d’imposer des interdictions ou de définir des catégories de risque, le pays a adopté un nouveau projet de loi visant à soutenir la recherche, le développement et l’utilisation de l’IA. L’accent est mis sur la planification, l’infrastructure et l’implication de toutes les parties prenantes, allant du gouvernement aux entreprises. Cela contraste avec le modèle de l’ (UE), qui s’appuie fortement sur la réglementation et l’application des lois.

Ce que couvre le projet de loi sur la promotion de l’IA au Japon

Le Japon a mis en place une approche structurée et dirigée par le gouvernement en matière d’IA. Il a défini ses attentes concernant le développement et la gouvernance de l’IA. Pour orienter ce plan, la loi sur l’IA impose la création d’un Quartier Général de Stratégie de l’IA, établi par le Cabinet du pays et dirigé par le Premier ministre. La loi décrit l’IA comme une technologie imitant les compétences cognitives humaines telles que le raisonnement, la prise de décision et l’apprentissage. Elle rassemble les parties prenantes du gouvernement, du monde académique, des entreprises et du public pour favoriser l’adoption de manière coordonnée.

Les priorités de la loi

  • Soutenir la recherche et le développement allant de la recherche fondamentale à l’application concrète.
  • Promouvoir l’IA dans divers secteurs, y compris les services publics et l’industrie.
  • Prévenir les abus en garantissant la transparence et en s’alignant sur les normes internationales.
  • Participer activement à la formulation internationale de normes.
  • Former des compétences en IA par le biais de l’éducation et de la formation.

Répartition des responsabilités entre les parties prenantes

La loi répartit les responsabilités entre les différentes parties prenantes :

  • Le gouvernement central dirigera les politiques et fournira un soutien financier et législatif pour le développement de l’IA.
  • Les gouvernements locaux sont censés promouvoir l’utilisation de l’IA spécifique à leur région.
  • Les universités et instituts de recherche réaliseront des recherches interdisciplinaires complètes liées à l’IA.
  • Les entreprises sont encouragées à construire des systèmes d’IA responsables conformes aux normes internationales et à prévenir les utilisations nuisibles ou inappropriées.
  • Les citoyens doivent apprendre à interagir avec l’IA de manière responsable.

Contrairement à l’approche réglementaire de l’UE, la loi japonaise n’introduit pas de nouvelles sanctions pour les abus de l’IA. Elle s’appuie plutôt sur des cadres juridiques existants, tels que le Code pénal et la loi sur le droit d’auteur, pour aborder les risques.

Défis et questions soulevées

Bien que la loi permette au gouvernement de nommer publiquement les entreprises impliquées dans des utilisations nuisibles ou inappropriées de l’IA, telles que celles conduisant à des abus criminels ou des violations de droits, elle ne prévoit pas de sanctions spécifiques ou de mécanismes d’application dédiés. Cela soulève des questions sur la manière dont ces préjudices seront traités en pratique.

La loi japonaise permet également aux développeurs d’IA d’utiliser du matériel protégé par le droit d’auteur sans approbation préalable, tant que l’utilisation est non-expressive, comme pour la formation d’algorithmes ou l’analyse de données. Bien que cela réduise les frictions de conformité pour l’industrie, cela limite les protections du droit d’auteur sans ajouter de nouvelles garanties en retour.

Comparaison avec l’UE

En mars 2024, l’UE a adopté son propre Règlement sur l’Intelligence Artificielle, qui utilise un système par niveaux pour réguler l’IA en fonction du niveau de risque qu’elle pose à la sécurité publique, aux droits fondamentaux ou à la santé. Ce règlement classe les systèmes d’IA en quatre catégories : prohibés, à haut risque, d’usage général (GPAI) et à risque minimal.

La différence entre les approches japonaises et européennes est manifeste. Le Japon privilégie l’innovation par la coordination, tandis que l’UE a une approche plus stricte, catégorisant les systèmes d’IA et imposant des obligations contraignantes et des sanctions.

Conclusion : Vers un avenir de l’IA équilibré

Alors que le Japon et l’UE poursuivent des stratégies divergentes en matière de régulation de l’IA, ces modèles offrent des leçons pertinentes pour d’autres pays, comme l’Inde, qui n’a pas encore défini de stratégie claire pour gouverner l’IA. L’Inde devra décider si elle souhaite adopter un modèle basé sur la confiance, semblable à celui du Japon, ou construire un cadre juridique et institutionnel similaire à celui de l’UE.

Un équilibre entre l’innovation et la protection des droits pourrait être la voie à suivre pour l’Inde dans le domaine de l’intelligence artificielle.

Articles

L’IA Responsable : Défis et Solutions en Entreprise

Dans cet article, l'auteur discute de l'importance de l'IA responsable dans les applications d'entreprise et des défis liés à son application dans un cadre réel. Il présente également le cadre de...

Directives européennes pour l’IA : vers une régulation des risques systémiques

La Commission européenne a publié des lignes directrices pour aider les modèles d'intelligence artificielle identifiés comme présentant des risques systémiques à se conformer à la réglementation sur...

La gouvernance à l’ère de l’intelligence artificielle

L'intelligence artificielle (IA) transforme la manière dont nous travaillons et gérons les entreprises. Aux Philippines, cette évolution s'accélère, avec des investissements croissants et une...

Microsoft et l’UE : un tournant dans la régulation de l’IA

Microsoft est susceptible de signer le code de pratique de l'Union européenne pour garantir la conformité avec les réglementations sur l'intelligence artificielle, tandis que Meta a annoncé qu'elle ne...

Microsoft et l’UE : un tournant dans la régulation de l’IA

Microsoft est susceptible de signer le code de pratique de l'Union européenne pour garantir la conformité avec les réglementations sur l'intelligence artificielle, tandis que Meta a annoncé qu'elle ne...

La Loi AI du Colorado : Un Modèle de Régulation pour l’Avenir

La récente tentative infructueuse des membres du Congrès de geler les lois sur l'intelligence artificielle au niveau des États a laissé les entreprises américaines avec un patchwork de règles sur la...

Plan d’action AI : Vers une éthique renforcée

Le ministre numérique Gobind Singh Deo a annoncé que le prochain Plan d'action sur l'IA 2026-2030 de la Malaisie renforcera les normes éthiques et les cadres de gouvernance entourant l'utilisation de...

Stratégies et Éthique : Vers une Gouvernance de l’IA Responsable

Le développement de politiques d'intelligence artificielle (IA) responsables et de stratégies globales d'IA doit se faire simultanément plutôt que séquentiellement. Cela a été partagé par un panel...

Risques systémiques des IA : directives pour se conformer aux règles européennes

La Commission européenne a élaboré des lignes directrices pour aider les modèles d'IA présentant des risques systémiques à se conformer à la réglementation de l'IA de l'Union européenne. Les...