Consultation ciblée des parties prenantes sur la classification des systèmes d’IA à haut risque
La consultation décrite dans cet article s’adresse à un large éventail de parties prenantes dans le domaine de l’intelligence artificielle (IA). Les catégories de parties prenantes incluent, sans s’y limiter, les fournisseurs et dépôts de systèmes d’IA (à haut risque), d’autres organisations industrielles, ainsi que des universitaires, des experts indépendants, des organisations de la société civile et des autorités publiques.
Le cadre légal : La loi sur l’intelligence artificielle
La Loi sur l’intelligence artificielle (la « AI Act »), entrée en vigueur le 1er août 2024, vise à établir un marché unique et des règles harmonisées pour une IA digne de confiance et centrée sur l’humain au sein de l’Union européenne (UE). Cette loi entend promouvoir l’innovation et l’adoption de l’IA tout en garantissant un niveau élevé de protection de la santé, de la sécurité et des droits fondamentaux, y compris la démocratie et l’état de droit.
La AI Act adopte une approche basée sur le risque, classifiant les systèmes d’IA en différentes catégories de risque, dont celle des systèmes d’IA à haut risque. Les obligations pertinentes pour ces systèmes entreront en vigueur deux ans après l’entrée en vigueur de la loi, soit à partir du 2 août 2026.
Classification des systèmes d’IA à haut risque
La loi distingue deux catégories de systèmes d’IA considérés comme à haut risque conformément aux articles 6(1) et 6(2) de la AI Act. L’article 6(1) couvre les systèmes d’IA intégrés en tant que composants de sécurité dans des produits, ou qui sont eux-mêmes des produits régis par la législation de l’Union. L’article 6(2) couvre les systèmes d’IA qui, en raison de leur finalité, sont considérés comme présentant un risque significatif pour la santé, la sécurité ou les droits fondamentaux.
La AI Act énumère huit domaines dans lesquels les systèmes d’IA pourraient poser un risque significatif, ainsi que des cas d’utilisation spécifiques à classer comme haut risque. De plus, l’article 6(3) prévoit des exceptions pour certains systèmes d’IA qui ne posent pas de risque significatif.
Exigences pour les systèmes d’IA à haut risque
Les systèmes d’IA classés comme à haut risque doivent être développés conformément aux exigences établies dans le Chapitre III, Section 2, concernant la gestion des données, la documentation, la transparence et d’autres aspects critiques tels que la robustesse et la sécabilité. Les fournisseurs sont tenus de s’assurer que leur système d’IA respecte ces exigences et de mettre en place un système de gestion de la qualité, notamment à travers une évaluation de conformité avant sa mise sur le marché.
Les dépôts de systèmes d’IA à haut risque ont également des obligations liées à l’utilisation correcte, à la surveillance et à la transparence vis-à-vis des personnes affectées.
Consultation ciblée et collecte de contributions
La consultation a pour but de recueillir les contributions des parties prenantes concernant des exemples pratiques de systèmes d’IA et les questions à clarifier dans les directives de la Commission sur la classification des systèmes d’IA à haut risque, ainsi que sur les exigences et obligations futures.
Les réponses peuvent se limiter aux sections et questions qui intéressent les participants. Ils sont encouragés à fournir des explications et des cas pratiques pour enrichir la pertinence des directives.
Structure du questionnaire
Le questionnaire est structuré en cinq sections, chacune contenant plusieurs questions. Les sections 1 et 2 concernent la classification des systèmes d’IA à haut risque selon l’article 6, tandis que les sections 3, 4 et 5 abordent des questions générales et spécifiques sur les exigences et obligations. Il est crucial de noter que toutes les contributions peuvent être rendues publiques, et les participants doivent éviter de partager des informations confidentielles.
La consultation, disponible uniquement en anglais, sera ouverte pendant 6 semaines, du 6 juin au 18 juillet 2025. La Commission publiera un résumé des résultats basés sur des données agrégées, garantissant ainsi l’anonymat des répondants.