Retrait de la directive sur la responsabilité liée à l’IA par la Commission européenne

A crumpled piece of legislation

Retrait de la Directive sur la Responsabilité liée à l’IA par la Commission Européenne

La Commission Européenne a décidé de ne pas renouveler le débat sur le projet de législation concernant la gestion des intelligences artificielles en cas de dommages, en raison d’un manque d’accord, alors que l’industrie technologique a plaidé en faveur de réglementations plus simples.

Contexte de la Directive sur la Responsabilité liée à l’IA

La Directive sur la Responsabilité liée à l’IA de l’UE avait été initialement conçue en 2022, deux ans avant la finalisation de la loi sur l’IA du bloc. La Commission l’avait présentée comme un moyen d’« améliorer le fonctionnement du marché intérieur en établissant des règles uniformes pour certains aspects de la responsabilité civile non contractuelle pour les dommages causés par des systèmes d’IA ».

Abandon de la Proposition

La décision d’abandonner la proposition a été notée dans le programme de travail 2025 de la Commission, qui a été adopté le 11 février et présenté au Parlement Européen le 12 février.

« Aucune perspective d’accord — la Commission évaluera si une autre proposition devrait être soumise ou si un autre type d’approche devrait être choisi », a expliqué la Commission dans l’annexe du programme.

Réactions à la Décision

La décision de passer à autre chose à propos de la directive a été critiquée par le membre allemand du Parlement Européen Axel Voss, qui a déclaré que l’idée selon laquelle la directive aurait créé une réglementation inutile avec la loi sur l’IA en vigueur passait à côté de son objectif. La directive était un « mécanisme de responsabilité ex post » ne s’activant qu’en cas de dommages, contrairement à l’objectif de la loi sur l’IA de les prévenir.

« Pourquoi ce soudain revirement ? La réponse réside probablement dans la pression des lobbyistes industriels qui considèrent que toute règle de responsabilité constitue une menace existentielle pour leurs modèles commerciaux », a déclaré Voss. « Les grandes entreprises technologiques ont peur d’un paysage juridique où elles pourraient être tenues responsables des dommages causés par leurs systèmes d’IA. Au lieu de s’opposer à elles, la Commission a cédé, sacrifiant ainsi les entreprises et les consommateurs européens dans le processus. »

Conséquences et Perspectives d’Avenir

Peter Craddock, partenaire chez Keller et Heckman, a indiqué que renoncer au débat sur la directive est plus acceptable que de retirer une législation après son adoption. Cependant, il a attiré l’attention sur la manière dont la Commission abordera désormais l’objectif prévu de la directive, qui était de progresser vers des règles de responsabilité harmonisées plutôt que de naviguer à travers des lois individuelles pour chaque État membre.

« Cela signifie-t-il qu’il n’y a aucun recours pour, par exemple, les victimes de discrimination basée sur l’utilisation d’un système d’IA ? Bien sûr que non, mais il est important de regarder le régime national », a déclaré Craddock.

Critiques du Régime Réglementaire Numérique de l’UE

Le mouvement de la Commission indique un changement potentiel d’approche afin de répondre aux critiques — récentes et de longue date — concernant le régime réglementaire numérique du bloc devenu trop complexe et lourd.

Un communiqué de presse de la Commission a décrit le programme de travail comme un cadre plus simple visant à réduire les charges administratives et « reflète le besoin de plus d’opportunités, d’innovation et de croissance pour nos citoyens et entreprises, favorisant finalement une UE plus sûre et prospère ». La présidente de la Commission, Ursula von der Leyen, s’est engagée à « faciliter » la croissance du marché de l’IA lors de récentes remarques au Sommet d’Action sur l’IA en France.

« Tel est l’objectif de la loi sur l’IA — fournir un ensemble unique de règles de sécurité à travers l’Union Européenne — 450 millions de personnes — au lieu de 27 réglementations nationales différentes. Et la sécurité est dans l’intérêt des entreprises », a-t-elle déclaré. « En même temps, je sais que nous devons faciliter les choses, nous devons réduire la paperasse. »

Conclusion

La décision de la Commission de retirer la directive sur la responsabilité liée à l’IA soulève des questions sur l’avenir de la réglementation de l’IA en Europe et sur la manière dont les autorités aborderont les préoccupations concernant la responsabilité et la protection des consommateurs dans un paysage technologique en constante évolution. Les discussions sur la nécessité d’une réglementation équilibrée qui promeut l’innovation tout en protégeant les utilisateurs continueront d’être au cœur des débats politiques.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...