Nouvelles directives de l’UE sur l’IA : interdiction des systèmes à risque inacceptable

A lockbox

La mise à jour de l’Acte sur l’IA de l’UE : interdiction des systèmes présentant un risque « inacceptable »

La Commission européenne (CE) a récemment établi de nouvelles directives concernant l’Acte sur l’intelligence artificielle (IA), introduisant des interdictions sur les systèmes d’IA jugés comme présentant un risque inacceptable. Cette législation, qui a été conçue pour réglementer le développement et l’application de l’IA au sein de l’Union européenne (UE), a été proposée pour la première fois en 2021 et a été adoptée par le Parlement européen en 2024.

Les niveaux de risque définis par l’Acte sur l’IA

L’Acte sur l’IA classe les systèmes d’IA en quatre niveaux de risque : risque inacceptable, risque élevé, risque limité et risque minimal. Les systèmes d’IA considérés comme présentant un risque inacceptable, c’est-à-dire ceux qui représentent une menace claire pour la sécurité, les moyens de subsistance et les droits des personnes, sont désormais interdits dans l’UE.

Parmi ces systèmes interdits figurent des pratiques telles que le scoring social, le scraping de matériel sur Internet ou de vidéosurveillance pour des bases de données de reconnaissance faciale, ainsi que la manipulation, la tromperie et l’exploitation de vulnérabilités par des systèmes d’IA.

Surveillance des systèmes à risque élevé

Bien que les systèmes classés comme risque élevé ne soient pas interdits, la CE procédera à une surveillance stricte. Ces systèmes comprennent des applications qui pourraient avoir été créées de bonne foi mais qui peuvent entraîner de graves conséquences si quelque chose tourne mal. Des exemples incluent :

  • Les composantes de sécurité d’IA dans des infrastructures critiques, telles que les transports, dont la défaillance pourrait mettre en danger la vie et la santé des citoyens.
  • Les solutions d’IA utilisées dans les institutions éducatives qui déterminent l’accès à l’éducation et l’avenir professionnel d’un individu, comme la notation des examens.
  • Les composants de sécurité des produits basés sur l’IA, tels que la chirurgie assistée par robot.
  • Les cas d’utilisation de l’IA dans les forces de l’ordre qui pourraient interférer avec les droits fondamentaux des personnes, comme l’évaluation des preuves.

Avant qu’un système d’IA à risque élevé puisse être commercialisé, il doit subir une évaluation de conformité et se conformer à toutes les exigences de l’Acte sur l’IA. Par la suite, le système doit être enregistré dans une base de données et porter le marquage Conformité Européenne (CE), utilisé pour réglementer les biens vendus au sein de l’Espace économique européen (EEE) depuis 1985.

Conséquences pour les entreprises non conformes

L’application de cette législation sera supervisée par des régulateurs nationaux, et les entreprises jugées non conformes risquent des amendes financières lourdes, pouvant atteindre 35 millions d’euros ou plus, en fonction des revenus annuels mondiaux. De plus, celles qui s’engagent dans des pratiques d’IA interdites pourraient également être bannies de l’UE.

Pour la plupart des développeurs d’IA dans la région, cependant, ces mesures ne seront peut-être pas nécessaires. Selon la CE, la majorité des systèmes d’IA actuellement utilisés dans l’UE présentent un risque minimal ou nul.

« L’Acte sur l’IA garantit que les Européens peuvent faire confiance à ce que l’IA a à offrir », a déclaré la CE. « Bien que la plupart des systèmes d’IA posent un risque limité à nul et puissent contribuer à résoudre de nombreux défis sociétaux, certains systèmes d’IA créent des risques que nous devons aborder pour éviter des résultats indésirables. »

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...