Réformer l’Acte sur l’Intelligence Artificielle avant 2026 : Un appel à l’innovation

A robot.

Réforme de l’Acte sur l’Intelligence Artificielle : Une Nécessité Avant 2026

Le 26 septembre 2025, une question écrite a été soumise à la Commission européenne concernant la réforme de l’Acte sur l’Intelligence Artificielle (AI Act). Cette législation vise à réguler les systèmes d’intelligence artificielle dans l’UE, mais des préoccupations ont été soulevées concernant certaines de ses dispositions, notamment celles relatives aux systèmes à haut risque.

Les Défis de l’AI Act

Les critiques affirment que les exigences de l’AI Act pourraient entraver l’innovation et dissuader les investissements, en particulier pour les start-ups et les PME de l’UE. Ces entreprises font déjà face à des coûts de conformité plus élevés que ceux de leurs concurrents mondiaux. Des experts avertissent que l’UE risque de manquer des bénéfices transformateurs dans des secteurs clés tels que l’éducation, la santé et les transports, ce qui nuirait à sa compétitivité et limiterait les gains potentiels pour les citoyens.

Appels à la Révision

Gabriele Mazzini, le principal rédacteur de l’AI Act, a exprimé des doutes sur le cadre actuel et a appelé à des révisions majeures. De plus, Mario Draghi a plaidé pour la suspension des dispositions relatives aux risques élevés et pour une réforme plus large de l’acquis numérique.

Une Opportunité de Réflexion

Il est important de noter que les exigences relatives aux systèmes à haut risque ne s’appliqueront qu’à partir d’août 2026. Cette période de transition offre une opportunité à l’UE de réfléchir et d’agir.

Questions Soulevées par les Députés

Dans ce contexte, trois questions ont été posées à la Commission :

  1. La Commission envisage-t-elle de réviser et de réformer les catégories à haut risque mentionnées dans l’AI Act avant leur entrée en vigueur en 2026 ?
  2. Considérera-t-elle la suspension ou la reclassification de certaines obligations si des preuves montrent qu’elles nuisent à la compétitivité et à l’innovation ?
  3. Comment la Commission s’assurera-t-elle que le cadre de l’IA ne place pas les entreprises de l’UE dans une situation de désavantage structurel par rapport à leurs concurrents mondiaux ?

Ces questions soulignent l’importance d’une approche équilibrée qui favorise à la fois l’innovation et la sûreté dans le développement de l’intelligence artificielle au sein de l’UE.

Articles

Collaboration et compétition : l’avenir de la gouvernance de l’IA

Le projet Red Cell vise à remettre en question les hypothèses et les idées reçues afin d'encourager des approches alternatives face aux défis de la politique étrangère et de sécurité nationale des...

Politique nationale de l’IA : vers un marché de 2,7 milliards de dollars au Pakistan

Le Pakistan a introduit une politique nationale ambitieuse en matière d'IA visant à créer un marché domestique de 2,7 milliards de dollars en cinq ans. Cette politique repose sur six piliers...

Gouvernance éthique de l’IA : un guide pratique pour les entreprises

Ce guide pratique souligne l'importance de la gouvernance éthique de l'IA pour les entreprises qui souhaitent intégrer l'IA de manière responsable. Il fournit des étapes concrètes pour établir un...

Stratégies IA pour transformer l’enseignement supérieur

L'intelligence artificielle transforme l'apprentissage, l'enseignement et les opérations dans l'enseignement supérieur en offrant des outils personnalisés pour le succès des étudiants et en renforçant...

Gouvernance de l’IA : Vers des normes éthiques en Afrique

L'intelligence artificielle (IA) façonne progressivement les services financiers, l'agriculture, l'éducation et même la gouvernance en Afrique. Pour réussir, les politiques organisationnelles doivent...

L’impact imminent de l’IA sur l’emploi

La transformation économique liée à l'IA a commencé, entraînant des licenciements massifs dans des entreprises comme IBM et Salesforce. Les résultats d'une enquête révèlent que les employés craignent...

Éthique du travail numérique : Qui est responsable de l’IA au sein de la main-d’œuvre ?

Le travail numérique devient de plus en plus courant sur le lieu de travail, mais peu de règles largement acceptées ont été mises en œuvre pour le régir. Les PDG doivent voir l'IA non seulement comme...

Anthropic présente Petri, l’outil d’audit automatisé pour la sécurité des IA

Anthropic a lancé Petri, un outil d'audit de sécurité AI open source conçu pour tester automatiquement les modèles de langage de grande taille (LLM) pour des comportements risqués. Cet outil utilise...

Conflit ou harmonie entre l’IA et la protection des données ?

L'IA est le mot à la mode dans le secteur juridique, et la loi sur l'IA de l'UE est un sujet d'intérêt majeur pour de nombreux professionnels du droit. Cet article examine les interactions...