La mise à jour de l’Acte sur l’IA de l’UE : interdiction des systèmes présentant un risque « inacceptable »
La Commission européenne (CE) a récemment établi de nouvelles directives concernant l’Acte sur l’intelligence artificielle (IA), introduisant des interdictions sur les systèmes d’IA jugés comme présentant un risque inacceptable. Cette législation, qui a été conçue pour réglementer le développement et l’application de l’IA au sein de l’Union européenne (UE), a été proposée pour la première fois en 2021 et a été adoptée par le Parlement européen en 2024.
Les niveaux de risque définis par l’Acte sur l’IA
L’Acte sur l’IA classe les systèmes d’IA en quatre niveaux de risque : risque inacceptable, risque élevé, risque limité et risque minimal. Les systèmes d’IA considérés comme présentant un risque inacceptable, c’est-à-dire ceux qui représentent une menace claire pour la sécurité, les moyens de subsistance et les droits des personnes, sont désormais interdits dans l’UE.
Parmi ces systèmes interdits figurent des pratiques telles que le scoring social, le scraping de matériel sur Internet ou de vidéosurveillance pour des bases de données de reconnaissance faciale, ainsi que la manipulation, la tromperie et l’exploitation de vulnérabilités par des systèmes d’IA.
Surveillance des systèmes à risque élevé
Bien que les systèmes classés comme risque élevé ne soient pas interdits, la CE procédera à une surveillance stricte. Ces systèmes comprennent des applications qui pourraient avoir été créées de bonne foi mais qui peuvent entraîner de graves conséquences si quelque chose tourne mal. Des exemples incluent :
- Les composantes de sécurité d’IA dans des infrastructures critiques, telles que les transports, dont la défaillance pourrait mettre en danger la vie et la santé des citoyens.
- Les solutions d’IA utilisées dans les institutions éducatives qui déterminent l’accès à l’éducation et l’avenir professionnel d’un individu, comme la notation des examens.
- Les composants de sécurité des produits basés sur l’IA, tels que la chirurgie assistée par robot.
- Les cas d’utilisation de l’IA dans les forces de l’ordre qui pourraient interférer avec les droits fondamentaux des personnes, comme l’évaluation des preuves.
Avant qu’un système d’IA à risque élevé puisse être commercialisé, il doit subir une évaluation de conformité et se conformer à toutes les exigences de l’Acte sur l’IA. Par la suite, le système doit être enregistré dans une base de données et porter le marquage Conformité Européenne (CE), utilisé pour réglementer les biens vendus au sein de l’Espace économique européen (EEE) depuis 1985.
Conséquences pour les entreprises non conformes
L’application de cette législation sera supervisée par des régulateurs nationaux, et les entreprises jugées non conformes risquent des amendes financières lourdes, pouvant atteindre 35 millions d’euros ou plus, en fonction des revenus annuels mondiaux. De plus, celles qui s’engagent dans des pratiques d’IA interdites pourraient également être bannies de l’UE.
Pour la plupart des développeurs d’IA dans la région, cependant, ces mesures ne seront peut-être pas nécessaires. Selon la CE, la majorité des systèmes d’IA actuellement utilisés dans l’UE présentent un risque minimal ou nul.
« L’Acte sur l’IA garantit que les Européens peuvent faire confiance à ce que l’IA a à offrir », a déclaré la CE. « Bien que la plupart des systèmes d’IA posent un risque limité à nul et puissent contribuer à résoudre de nombreux défis sociétaux, certains systèmes d’IA créent des risques que nous devons aborder pour éviter des résultats indésirables. »