Nouvelles directives de l’UE sur l’IA : interdiction des systèmes à risque inacceptable

A lockbox

La mise à jour de l’Acte sur l’IA de l’UE : interdiction des systèmes présentant un risque « inacceptable »

La Commission européenne (CE) a récemment établi de nouvelles directives concernant l’Acte sur l’intelligence artificielle (IA), introduisant des interdictions sur les systèmes d’IA jugés comme présentant un risque inacceptable. Cette législation, qui a été conçue pour réglementer le développement et l’application de l’IA au sein de l’Union européenne (UE), a été proposée pour la première fois en 2021 et a été adoptée par le Parlement européen en 2024.

Les niveaux de risque définis par l’Acte sur l’IA

L’Acte sur l’IA classe les systèmes d’IA en quatre niveaux de risque : risque inacceptable, risque élevé, risque limité et risque minimal. Les systèmes d’IA considérés comme présentant un risque inacceptable, c’est-à-dire ceux qui représentent une menace claire pour la sécurité, les moyens de subsistance et les droits des personnes, sont désormais interdits dans l’UE.

Parmi ces systèmes interdits figurent des pratiques telles que le scoring social, le scraping de matériel sur Internet ou de vidéosurveillance pour des bases de données de reconnaissance faciale, ainsi que la manipulation, la tromperie et l’exploitation de vulnérabilités par des systèmes d’IA.

Surveillance des systèmes à risque élevé

Bien que les systèmes classés comme risque élevé ne soient pas interdits, la CE procédera à une surveillance stricte. Ces systèmes comprennent des applications qui pourraient avoir été créées de bonne foi mais qui peuvent entraîner de graves conséquences si quelque chose tourne mal. Des exemples incluent :

  • Les composantes de sécurité d’IA dans des infrastructures critiques, telles que les transports, dont la défaillance pourrait mettre en danger la vie et la santé des citoyens.
  • Les solutions d’IA utilisées dans les institutions éducatives qui déterminent l’accès à l’éducation et l’avenir professionnel d’un individu, comme la notation des examens.
  • Les composants de sécurité des produits basés sur l’IA, tels que la chirurgie assistée par robot.
  • Les cas d’utilisation de l’IA dans les forces de l’ordre qui pourraient interférer avec les droits fondamentaux des personnes, comme l’évaluation des preuves.

Avant qu’un système d’IA à risque élevé puisse être commercialisé, il doit subir une évaluation de conformité et se conformer à toutes les exigences de l’Acte sur l’IA. Par la suite, le système doit être enregistré dans une base de données et porter le marquage Conformité Européenne (CE), utilisé pour réglementer les biens vendus au sein de l’Espace économique européen (EEE) depuis 1985.

Conséquences pour les entreprises non conformes

L’application de cette législation sera supervisée par des régulateurs nationaux, et les entreprises jugées non conformes risquent des amendes financières lourdes, pouvant atteindre 35 millions d’euros ou plus, en fonction des revenus annuels mondiaux. De plus, celles qui s’engagent dans des pratiques d’IA interdites pourraient également être bannies de l’UE.

Pour la plupart des développeurs d’IA dans la région, cependant, ces mesures ne seront peut-être pas nécessaires. Selon la CE, la majorité des systèmes d’IA actuellement utilisés dans l’UE présentent un risque minimal ou nul.

« L’Acte sur l’IA garantit que les Européens peuvent faire confiance à ce que l’IA a à offrir », a déclaré la CE. « Bien que la plupart des systèmes d’IA posent un risque limité à nul et puissent contribuer à résoudre de nombreux défis sociétaux, certains systèmes d’IA créent des risques que nous devons aborder pour éviter des résultats indésirables. »

Articles

Surveillance biométrique en Hongrie : une atteinte aux droits fondamentaux

Les nouvelles lois sur la surveillance biométrique en Hongrie violent l'AI Act, en élargissant l'utilisation de la technologie de reconnaissance faciale pour inclure des infractions mineures et des...

Pression américaine sur l’Europe : fin des règles sur l’IA ?

L'administration de Donald Trump fait pression sur l'Europe pour abandonner un code de conduite qui obligerait les développeurs d'intelligence artificielle avancée à respecter des normes plus...

Évitez les cauchemars liés à la conformité en IA

Les violations de conformité liées à l'IA peuvent causer de graves problèmes sur le lieu de travail. Cet article explore comment les éviter et assurer un environnement de travail sûr et conforme...

Gouvernance de l’IA : Enjeux et Stratégies pour les Marques

L'intelligence artificielle est désormais intégrée dans les décisions quotidiennes des marques et des agences, transformant la manière dont les marketeurs atteignent leur public. Cependant, avec ce...

Agents d’IA : Avantages et Risques Accrus

Les agents d'IA sont des systèmes de génération d'IA autonomes qui effectuent des tâches sans intervention humaine constante. Bien qu'ils offrent de nouvelles capacités, ils présentent également des...

Gouvernance de l’IA : Une avancée institutionnelle aux Émirats

Des experts affirment que les Émirats Arabes Unis sont en train de connaître une gouvernance de l'intelligence artificielle institutionnalisée. Cette évolution marque une étape importante dans la...

L’impact de l’AI Act de l’UE sur l’innovation américaine

Les États-Unis souhaitent annuler le code de pratique de l'IA de l'UE, laissant les entreprises développer leurs propres normes de risque. Les critiques affirment que ce code étouffe l'innovation et...

Les attentes des géants de la tech face au plan d’action sur l’IA aux États-Unis

Les grandes entreprises technologiques et les startups en intelligence artificielle ont exprimé leurs souhaits concernant le plan d'action de l'IA du gouvernement américain. Elles demandent notamment...

Czechia et l’Acte sur l’Intelligence Artificielle : Vers une réglementation éclairée

Avec l'essor de l'IA, l'Union européenne a introduit des réglementations pour standardiser certaines règles de son utilisation. La loi sur l'intelligence artificielle interdit notamment l'utilisation...