Consultation sur la classification des systèmes d’IA à haut risque

A lockbox

Consultation ciblée des parties prenantes sur la classification des systèmes d’IA à haut risque

La consultation décrite dans cet article s’adresse à un large éventail de parties prenantes dans le domaine de l’intelligence artificielle (IA). Les catégories de parties prenantes incluent, sans s’y limiter, les fournisseurs et dépôts de systèmes d’IA (à haut risque), d’autres organisations industrielles, ainsi que des universitaires, des experts indépendants, des organisations de la société civile et des autorités publiques.

Le cadre légal : La loi sur l’intelligence artificielle

La Loi sur l’intelligence artificielle (la « AI Act »), entrée en vigueur le 1er août 2024, vise à établir un marché unique et des règles harmonisées pour une IA digne de confiance et centrée sur l’humain au sein de l’Union européenne (UE). Cette loi entend promouvoir l’innovation et l’adoption de l’IA tout en garantissant un niveau élevé de protection de la santé, de la sécurité et des droits fondamentaux, y compris la démocratie et l’état de droit.

La AI Act adopte une approche basée sur le risque, classifiant les systèmes d’IA en différentes catégories de risque, dont celle des systèmes d’IA à haut risque. Les obligations pertinentes pour ces systèmes entreront en vigueur deux ans après l’entrée en vigueur de la loi, soit à partir du 2 août 2026.

Classification des systèmes d’IA à haut risque

La loi distingue deux catégories de systèmes d’IA considérés comme à haut risque conformément aux articles 6(1) et 6(2) de la AI Act. L’article 6(1) couvre les systèmes d’IA intégrés en tant que composants de sécurité dans des produits, ou qui sont eux-mêmes des produits régis par la législation de l’Union. L’article 6(2) couvre les systèmes d’IA qui, en raison de leur finalité, sont considérés comme présentant un risque significatif pour la santé, la sécurité ou les droits fondamentaux.

La AI Act énumère huit domaines dans lesquels les systèmes d’IA pourraient poser un risque significatif, ainsi que des cas d’utilisation spécifiques à classer comme haut risque. De plus, l’article 6(3) prévoit des exceptions pour certains systèmes d’IA qui ne posent pas de risque significatif.

Exigences pour les systèmes d’IA à haut risque

Les systèmes d’IA classés comme à haut risque doivent être développés conformément aux exigences établies dans le Chapitre III, Section 2, concernant la gestion des données, la documentation, la transparence et d’autres aspects critiques tels que la robustesse et la sécabilité. Les fournisseurs sont tenus de s’assurer que leur système d’IA respecte ces exigences et de mettre en place un système de gestion de la qualité, notamment à travers une évaluation de conformité avant sa mise sur le marché.

Les dépôts de systèmes d’IA à haut risque ont également des obligations liées à l’utilisation correcte, à la surveillance et à la transparence vis-à-vis des personnes affectées.

Consultation ciblée et collecte de contributions

La consultation a pour but de recueillir les contributions des parties prenantes concernant des exemples pratiques de systèmes d’IA et les questions à clarifier dans les directives de la Commission sur la classification des systèmes d’IA à haut risque, ainsi que sur les exigences et obligations futures.

Les réponses peuvent se limiter aux sections et questions qui intéressent les participants. Ils sont encouragés à fournir des explications et des cas pratiques pour enrichir la pertinence des directives.

Structure du questionnaire

Le questionnaire est structuré en cinq sections, chacune contenant plusieurs questions. Les sections 1 et 2 concernent la classification des systèmes d’IA à haut risque selon l’article 6, tandis que les sections 3, 4 et 5 abordent des questions générales et spécifiques sur les exigences et obligations. Il est crucial de noter que toutes les contributions peuvent être rendues publiques, et les participants doivent éviter de partager des informations confidentielles.

La consultation, disponible uniquement en anglais, sera ouverte pendant 6 semaines, du 6 juin au 18 juillet 2025. La Commission publiera un résumé des résultats basés sur des données agrégées, garantissant ainsi l’anonymat des répondants.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...