Consultation sur la classification des systèmes d’IA à haut risque

A lockbox

Consultation ciblée des parties prenantes sur la classification des systèmes d’IA à haut risque

La consultation décrite dans cet article s’adresse à un large éventail de parties prenantes dans le domaine de l’intelligence artificielle (IA). Les catégories de parties prenantes incluent, sans s’y limiter, les fournisseurs et dépôts de systèmes d’IA (à haut risque), d’autres organisations industrielles, ainsi que des universitaires, des experts indépendants, des organisations de la société civile et des autorités publiques.

Le cadre légal : La loi sur l’intelligence artificielle

La Loi sur l’intelligence artificielle (la « AI Act »), entrée en vigueur le 1er août 2024, vise à établir un marché unique et des règles harmonisées pour une IA digne de confiance et centrée sur l’humain au sein de l’Union européenne (UE). Cette loi entend promouvoir l’innovation et l’adoption de l’IA tout en garantissant un niveau élevé de protection de la santé, de la sécurité et des droits fondamentaux, y compris la démocratie et l’état de droit.

La AI Act adopte une approche basée sur le risque, classifiant les systèmes d’IA en différentes catégories de risque, dont celle des systèmes d’IA à haut risque. Les obligations pertinentes pour ces systèmes entreront en vigueur deux ans après l’entrée en vigueur de la loi, soit à partir du 2 août 2026.

Classification des systèmes d’IA à haut risque

La loi distingue deux catégories de systèmes d’IA considérés comme à haut risque conformément aux articles 6(1) et 6(2) de la AI Act. L’article 6(1) couvre les systèmes d’IA intégrés en tant que composants de sécurité dans des produits, ou qui sont eux-mêmes des produits régis par la législation de l’Union. L’article 6(2) couvre les systèmes d’IA qui, en raison de leur finalité, sont considérés comme présentant un risque significatif pour la santé, la sécurité ou les droits fondamentaux.

La AI Act énumère huit domaines dans lesquels les systèmes d’IA pourraient poser un risque significatif, ainsi que des cas d’utilisation spécifiques à classer comme haut risque. De plus, l’article 6(3) prévoit des exceptions pour certains systèmes d’IA qui ne posent pas de risque significatif.

Exigences pour les systèmes d’IA à haut risque

Les systèmes d’IA classés comme à haut risque doivent être développés conformément aux exigences établies dans le Chapitre III, Section 2, concernant la gestion des données, la documentation, la transparence et d’autres aspects critiques tels que la robustesse et la sécabilité. Les fournisseurs sont tenus de s’assurer que leur système d’IA respecte ces exigences et de mettre en place un système de gestion de la qualité, notamment à travers une évaluation de conformité avant sa mise sur le marché.

Les dépôts de systèmes d’IA à haut risque ont également des obligations liées à l’utilisation correcte, à la surveillance et à la transparence vis-à-vis des personnes affectées.

Consultation ciblée et collecte de contributions

La consultation a pour but de recueillir les contributions des parties prenantes concernant des exemples pratiques de systèmes d’IA et les questions à clarifier dans les directives de la Commission sur la classification des systèmes d’IA à haut risque, ainsi que sur les exigences et obligations futures.

Les réponses peuvent se limiter aux sections et questions qui intéressent les participants. Ils sont encouragés à fournir des explications et des cas pratiques pour enrichir la pertinence des directives.

Structure du questionnaire

Le questionnaire est structuré en cinq sections, chacune contenant plusieurs questions. Les sections 1 et 2 concernent la classification des systèmes d’IA à haut risque selon l’article 6, tandis que les sections 3, 4 et 5 abordent des questions générales et spécifiques sur les exigences et obligations. Il est crucial de noter que toutes les contributions peuvent être rendues publiques, et les participants doivent éviter de partager des informations confidentielles.

La consultation, disponible uniquement en anglais, sera ouverte pendant 6 semaines, du 6 juin au 18 juillet 2025. La Commission publiera un résumé des résultats basés sur des données agrégées, garantissant ainsi l’anonymat des répondants.

Articles

L’IA Responsable : Défis et Solutions en Entreprise

Dans cet article, l'auteur discute de l'importance de l'IA responsable dans les applications d'entreprise et des défis liés à son application dans un cadre réel. Il présente également le cadre de...

Directives européennes pour l’IA : vers une régulation des risques systémiques

La Commission européenne a publié des lignes directrices pour aider les modèles d'intelligence artificielle identifiés comme présentant des risques systémiques à se conformer à la réglementation sur...

La gouvernance à l’ère de l’intelligence artificielle

L'intelligence artificielle (IA) transforme la manière dont nous travaillons et gérons les entreprises. Aux Philippines, cette évolution s'accélère, avec des investissements croissants et une...

Microsoft et l’UE : un tournant dans la régulation de l’IA

Microsoft est susceptible de signer le code de pratique de l'Union européenne pour garantir la conformité avec les réglementations sur l'intelligence artificielle, tandis que Meta a annoncé qu'elle ne...

Microsoft et l’UE : un tournant dans la régulation de l’IA

Microsoft est susceptible de signer le code de pratique de l'Union européenne pour garantir la conformité avec les réglementations sur l'intelligence artificielle, tandis que Meta a annoncé qu'elle ne...

La Loi AI du Colorado : Un Modèle de Régulation pour l’Avenir

La récente tentative infructueuse des membres du Congrès de geler les lois sur l'intelligence artificielle au niveau des États a laissé les entreprises américaines avec un patchwork de règles sur la...

Plan d’action AI : Vers une éthique renforcée

Le ministre numérique Gobind Singh Deo a annoncé que le prochain Plan d'action sur l'IA 2026-2030 de la Malaisie renforcera les normes éthiques et les cadres de gouvernance entourant l'utilisation de...

Stratégies et Éthique : Vers une Gouvernance de l’IA Responsable

Le développement de politiques d'intelligence artificielle (IA) responsables et de stratégies globales d'IA doit se faire simultanément plutôt que séquentiellement. Cela a été partagé par un panel...

Risques systémiques des IA : directives pour se conformer aux règles européennes

La Commission européenne a élaboré des lignes directrices pour aider les modèles d'IA présentant des risques systémiques à se conformer à la réglementation de l'IA de l'Union européenne. Les...