Nouvelles directives de l’UE sur l’IA : interdiction des systèmes à risque inacceptable

A lockbox

La mise à jour de l’Acte sur l’IA de l’UE : interdiction des systèmes présentant un risque « inacceptable »

La Commission européenne (CE) a récemment établi de nouvelles directives concernant l’Acte sur l’intelligence artificielle (IA), introduisant des interdictions sur les systèmes d’IA jugés comme présentant un risque inacceptable. Cette législation, qui a été conçue pour réglementer le développement et l’application de l’IA au sein de l’Union européenne (UE), a été proposée pour la première fois en 2021 et a été adoptée par le Parlement européen en 2024.

Les niveaux de risque définis par l’Acte sur l’IA

L’Acte sur l’IA classe les systèmes d’IA en quatre niveaux de risque : risque inacceptable, risque élevé, risque limité et risque minimal. Les systèmes d’IA considérés comme présentant un risque inacceptable, c’est-à-dire ceux qui représentent une menace claire pour la sécurité, les moyens de subsistance et les droits des personnes, sont désormais interdits dans l’UE.

Parmi ces systèmes interdits figurent des pratiques telles que le scoring social, le scraping de matériel sur Internet ou de vidéosurveillance pour des bases de données de reconnaissance faciale, ainsi que la manipulation, la tromperie et l’exploitation de vulnérabilités par des systèmes d’IA.

Surveillance des systèmes à risque élevé

Bien que les systèmes classés comme risque élevé ne soient pas interdits, la CE procédera à une surveillance stricte. Ces systèmes comprennent des applications qui pourraient avoir été créées de bonne foi mais qui peuvent entraîner de graves conséquences si quelque chose tourne mal. Des exemples incluent :

  • Les composantes de sécurité d’IA dans des infrastructures critiques, telles que les transports, dont la défaillance pourrait mettre en danger la vie et la santé des citoyens.
  • Les solutions d’IA utilisées dans les institutions éducatives qui déterminent l’accès à l’éducation et l’avenir professionnel d’un individu, comme la notation des examens.
  • Les composants de sécurité des produits basés sur l’IA, tels que la chirurgie assistée par robot.
  • Les cas d’utilisation de l’IA dans les forces de l’ordre qui pourraient interférer avec les droits fondamentaux des personnes, comme l’évaluation des preuves.

Avant qu’un système d’IA à risque élevé puisse être commercialisé, il doit subir une évaluation de conformité et se conformer à toutes les exigences de l’Acte sur l’IA. Par la suite, le système doit être enregistré dans une base de données et porter le marquage Conformité Européenne (CE), utilisé pour réglementer les biens vendus au sein de l’Espace économique européen (EEE) depuis 1985.

Conséquences pour les entreprises non conformes

L’application de cette législation sera supervisée par des régulateurs nationaux, et les entreprises jugées non conformes risquent des amendes financières lourdes, pouvant atteindre 35 millions d’euros ou plus, en fonction des revenus annuels mondiaux. De plus, celles qui s’engagent dans des pratiques d’IA interdites pourraient également être bannies de l’UE.

Pour la plupart des développeurs d’IA dans la région, cependant, ces mesures ne seront peut-être pas nécessaires. Selon la CE, la majorité des systèmes d’IA actuellement utilisés dans l’UE présentent un risque minimal ou nul.

« L’Acte sur l’IA garantit que les Européens peuvent faire confiance à ce que l’IA a à offrir », a déclaré la CE. « Bien que la plupart des systèmes d’IA posent un risque limité à nul et puissent contribuer à résoudre de nombreux défis sociétaux, certains systèmes d’IA créent des risques que nous devons aborder pour éviter des résultats indésirables. »

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...