Nouvelles directives de l’UE sur l’IA : interdiction des systèmes à risque inacceptable

A lockbox

La mise à jour de l’Acte sur l’IA de l’UE : interdiction des systèmes présentant un risque « inacceptable »

La Commission européenne (CE) a récemment établi de nouvelles directives concernant l’Acte sur l’intelligence artificielle (IA), introduisant des interdictions sur les systèmes d’IA jugés comme présentant un risque inacceptable. Cette législation, qui a été conçue pour réglementer le développement et l’application de l’IA au sein de l’Union européenne (UE), a été proposée pour la première fois en 2021 et a été adoptée par le Parlement européen en 2024.

Les niveaux de risque définis par l’Acte sur l’IA

L’Acte sur l’IA classe les systèmes d’IA en quatre niveaux de risque : risque inacceptable, risque élevé, risque limité et risque minimal. Les systèmes d’IA considérés comme présentant un risque inacceptable, c’est-à-dire ceux qui représentent une menace claire pour la sécurité, les moyens de subsistance et les droits des personnes, sont désormais interdits dans l’UE.

Parmi ces systèmes interdits figurent des pratiques telles que le scoring social, le scraping de matériel sur Internet ou de vidéosurveillance pour des bases de données de reconnaissance faciale, ainsi que la manipulation, la tromperie et l’exploitation de vulnérabilités par des systèmes d’IA.

Surveillance des systèmes à risque élevé

Bien que les systèmes classés comme risque élevé ne soient pas interdits, la CE procédera à une surveillance stricte. Ces systèmes comprennent des applications qui pourraient avoir été créées de bonne foi mais qui peuvent entraîner de graves conséquences si quelque chose tourne mal. Des exemples incluent :

  • Les composantes de sécurité d’IA dans des infrastructures critiques, telles que les transports, dont la défaillance pourrait mettre en danger la vie et la santé des citoyens.
  • Les solutions d’IA utilisées dans les institutions éducatives qui déterminent l’accès à l’éducation et l’avenir professionnel d’un individu, comme la notation des examens.
  • Les composants de sécurité des produits basés sur l’IA, tels que la chirurgie assistée par robot.
  • Les cas d’utilisation de l’IA dans les forces de l’ordre qui pourraient interférer avec les droits fondamentaux des personnes, comme l’évaluation des preuves.

Avant qu’un système d’IA à risque élevé puisse être commercialisé, il doit subir une évaluation de conformité et se conformer à toutes les exigences de l’Acte sur l’IA. Par la suite, le système doit être enregistré dans une base de données et porter le marquage Conformité Européenne (CE), utilisé pour réglementer les biens vendus au sein de l’Espace économique européen (EEE) depuis 1985.

Conséquences pour les entreprises non conformes

L’application de cette législation sera supervisée par des régulateurs nationaux, et les entreprises jugées non conformes risquent des amendes financières lourdes, pouvant atteindre 35 millions d’euros ou plus, en fonction des revenus annuels mondiaux. De plus, celles qui s’engagent dans des pratiques d’IA interdites pourraient également être bannies de l’UE.

Pour la plupart des développeurs d’IA dans la région, cependant, ces mesures ne seront peut-être pas nécessaires. Selon la CE, la majorité des systèmes d’IA actuellement utilisés dans l’UE présentent un risque minimal ou nul.

« L’Acte sur l’IA garantit que les Européens peuvent faire confiance à ce que l’IA a à offrir », a déclaré la CE. « Bien que la plupart des systèmes d’IA posent un risque limité à nul et puissent contribuer à résoudre de nombreux défis sociétaux, certains systèmes d’IA créent des risques que nous devons aborder pour éviter des résultats indésirables. »

Articles

Intelligence artificielle et recherche UX : vers des workflows éthiques et efficaces

La recherche UX n'est aussi solide que les humains qui la dirigent, et les décisions humaines peuvent souvent introduire des erreurs. L'arrivée de l'IA dans la recherche UX est fascinante, promettant...

L’avenir de l’IA agentique dans le secteur bancaire

L'intelligence artificielle agentique transforme le secteur bancaire en automatisant des processus complexes et en améliorant l'expérience client. Cependant, elle pose des défis en matière de...

La conformité native à l’IA : clé d’une infrastructure crypto évolutive

L'industrie de la cryptographie connaît une croissance explosive, mais fait face à de nombreux défis réglementaires, en particulier dans les opérations transfrontalières. Les plateformes intégrant des...

Gouvernance de l’IA en ASEAN : un chemin semé d’embûches mais prometteur

L'Association des nations de l'Asie du Sud-Est (ASEAN) adopte une approche favorable à l'innovation pour l'intelligence artificielle (IA), visant à faire avancer la région vers une économie numérique...

L’UE face aux défis de l’IA : réglementation stricte contre innovation américaine

Dans un récent épisode du podcast "Regulating AI", le Dr Cari Miller a discuté des implications mondiales du Plan d'action sur l'IA des États-Unis, soulignant l'équilibre délicat entre innovation et...

Les risques méconnus de l’IA dans les entreprises

L'IA devient de plus en plus présente dans les lieux de travail, mais de nombreuses entreprises ignorent les risques associés. Il est essentiel d'établir des principes de conformité et de gouvernance...

Investir dans la sécurité de l’IA pour un avenir responsable

La révolution de l'intelligence artificielle est désormais une réalité, transformant les industries et la vie quotidienne. Pour les investisseurs, cela représente une opportunité en or d'exploiter un...

L’impact croissant de l’IA sur la sécurité publique

Les agences de maintien de l'ordre (LEAs) utilisent de plus en plus l'intelligence artificielle (IA) pour améliorer leur fonctionnement, en particulier grâce à des capacités accrues pour la police...

Kenya à l’avant-garde de la gouvernance mondiale de l’IA

Le Kenya a remporté une victoire diplomatique majeure après que les 193 États membres des Nations Unies ont convenu à l'unanimité de créer deux institutions marquantes pour gouverner l'intelligence...