Consultation sur la classification des systèmes d’IA à haut risque

A lockbox

Consultation ciblée des parties prenantes sur la classification des systèmes d’IA à haut risque

La consultation décrite dans cet article s’adresse à un large éventail de parties prenantes dans le domaine de l’intelligence artificielle (IA). Les catégories de parties prenantes incluent, sans s’y limiter, les fournisseurs et dépôts de systèmes d’IA (à haut risque), d’autres organisations industrielles, ainsi que des universitaires, des experts indépendants, des organisations de la société civile et des autorités publiques.

Le cadre légal : La loi sur l’intelligence artificielle

La Loi sur l’intelligence artificielle (la « AI Act »), entrée en vigueur le 1er août 2024, vise à établir un marché unique et des règles harmonisées pour une IA digne de confiance et centrée sur l’humain au sein de l’Union européenne (UE). Cette loi entend promouvoir l’innovation et l’adoption de l’IA tout en garantissant un niveau élevé de protection de la santé, de la sécurité et des droits fondamentaux, y compris la démocratie et l’état de droit.

La AI Act adopte une approche basée sur le risque, classifiant les systèmes d’IA en différentes catégories de risque, dont celle des systèmes d’IA à haut risque. Les obligations pertinentes pour ces systèmes entreront en vigueur deux ans après l’entrée en vigueur de la loi, soit à partir du 2 août 2026.

Classification des systèmes d’IA à haut risque

La loi distingue deux catégories de systèmes d’IA considérés comme à haut risque conformément aux articles 6(1) et 6(2) de la AI Act. L’article 6(1) couvre les systèmes d’IA intégrés en tant que composants de sécurité dans des produits, ou qui sont eux-mêmes des produits régis par la législation de l’Union. L’article 6(2) couvre les systèmes d’IA qui, en raison de leur finalité, sont considérés comme présentant un risque significatif pour la santé, la sécurité ou les droits fondamentaux.

La AI Act énumère huit domaines dans lesquels les systèmes d’IA pourraient poser un risque significatif, ainsi que des cas d’utilisation spécifiques à classer comme haut risque. De plus, l’article 6(3) prévoit des exceptions pour certains systèmes d’IA qui ne posent pas de risque significatif.

Exigences pour les systèmes d’IA à haut risque

Les systèmes d’IA classés comme à haut risque doivent être développés conformément aux exigences établies dans le Chapitre III, Section 2, concernant la gestion des données, la documentation, la transparence et d’autres aspects critiques tels que la robustesse et la sécabilité. Les fournisseurs sont tenus de s’assurer que leur système d’IA respecte ces exigences et de mettre en place un système de gestion de la qualité, notamment à travers une évaluation de conformité avant sa mise sur le marché.

Les dépôts de systèmes d’IA à haut risque ont également des obligations liées à l’utilisation correcte, à la surveillance et à la transparence vis-à-vis des personnes affectées.

Consultation ciblée et collecte de contributions

La consultation a pour but de recueillir les contributions des parties prenantes concernant des exemples pratiques de systèmes d’IA et les questions à clarifier dans les directives de la Commission sur la classification des systèmes d’IA à haut risque, ainsi que sur les exigences et obligations futures.

Les réponses peuvent se limiter aux sections et questions qui intéressent les participants. Ils sont encouragés à fournir des explications et des cas pratiques pour enrichir la pertinence des directives.

Structure du questionnaire

Le questionnaire est structuré en cinq sections, chacune contenant plusieurs questions. Les sections 1 et 2 concernent la classification des systèmes d’IA à haut risque selon l’article 6, tandis que les sections 3, 4 et 5 abordent des questions générales et spécifiques sur les exigences et obligations. Il est crucial de noter que toutes les contributions peuvent être rendues publiques, et les participants doivent éviter de partager des informations confidentielles.

La consultation, disponible uniquement en anglais, sera ouverte pendant 6 semaines, du 6 juin au 18 juillet 2025. La Commission publiera un résumé des résultats basés sur des données agrégées, garantissant ainsi l’anonymat des répondants.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...