Consultation sur la classification des systèmes d’IA à haut risque

A lockbox

Consultation ciblée des parties prenantes sur la classification des systèmes d’IA à haut risque

La consultation décrite dans cet article s’adresse à un large éventail de parties prenantes dans le domaine de l’intelligence artificielle (IA). Les catégories de parties prenantes incluent, sans s’y limiter, les fournisseurs et dépôts de systèmes d’IA (à haut risque), d’autres organisations industrielles, ainsi que des universitaires, des experts indépendants, des organisations de la société civile et des autorités publiques.

Le cadre légal : La loi sur l’intelligence artificielle

La Loi sur l’intelligence artificielle (la « AI Act »), entrée en vigueur le 1er août 2024, vise à établir un marché unique et des règles harmonisées pour une IA digne de confiance et centrée sur l’humain au sein de l’Union européenne (UE). Cette loi entend promouvoir l’innovation et l’adoption de l’IA tout en garantissant un niveau élevé de protection de la santé, de la sécurité et des droits fondamentaux, y compris la démocratie et l’état de droit.

La AI Act adopte une approche basée sur le risque, classifiant les systèmes d’IA en différentes catégories de risque, dont celle des systèmes d’IA à haut risque. Les obligations pertinentes pour ces systèmes entreront en vigueur deux ans après l’entrée en vigueur de la loi, soit à partir du 2 août 2026.

Classification des systèmes d’IA à haut risque

La loi distingue deux catégories de systèmes d’IA considérés comme à haut risque conformément aux articles 6(1) et 6(2) de la AI Act. L’article 6(1) couvre les systèmes d’IA intégrés en tant que composants de sécurité dans des produits, ou qui sont eux-mêmes des produits régis par la législation de l’Union. L’article 6(2) couvre les systèmes d’IA qui, en raison de leur finalité, sont considérés comme présentant un risque significatif pour la santé, la sécurité ou les droits fondamentaux.

La AI Act énumère huit domaines dans lesquels les systèmes d’IA pourraient poser un risque significatif, ainsi que des cas d’utilisation spécifiques à classer comme haut risque. De plus, l’article 6(3) prévoit des exceptions pour certains systèmes d’IA qui ne posent pas de risque significatif.

Exigences pour les systèmes d’IA à haut risque

Les systèmes d’IA classés comme à haut risque doivent être développés conformément aux exigences établies dans le Chapitre III, Section 2, concernant la gestion des données, la documentation, la transparence et d’autres aspects critiques tels que la robustesse et la sécabilité. Les fournisseurs sont tenus de s’assurer que leur système d’IA respecte ces exigences et de mettre en place un système de gestion de la qualité, notamment à travers une évaluation de conformité avant sa mise sur le marché.

Les dépôts de systèmes d’IA à haut risque ont également des obligations liées à l’utilisation correcte, à la surveillance et à la transparence vis-à-vis des personnes affectées.

Consultation ciblée et collecte de contributions

La consultation a pour but de recueillir les contributions des parties prenantes concernant des exemples pratiques de systèmes d’IA et les questions à clarifier dans les directives de la Commission sur la classification des systèmes d’IA à haut risque, ainsi que sur les exigences et obligations futures.

Les réponses peuvent se limiter aux sections et questions qui intéressent les participants. Ils sont encouragés à fournir des explications et des cas pratiques pour enrichir la pertinence des directives.

Structure du questionnaire

Le questionnaire est structuré en cinq sections, chacune contenant plusieurs questions. Les sections 1 et 2 concernent la classification des systèmes d’IA à haut risque selon l’article 6, tandis que les sections 3, 4 et 5 abordent des questions générales et spécifiques sur les exigences et obligations. Il est crucial de noter que toutes les contributions peuvent être rendues publiques, et les participants doivent éviter de partager des informations confidentielles.

La consultation, disponible uniquement en anglais, sera ouverte pendant 6 semaines, du 6 juin au 18 juillet 2025. La Commission publiera un résumé des résultats basés sur des données agrégées, garantissant ainsi l’anonymat des répondants.

Articles

Classifiez rapidement votre système d’IA selon la loi européenne sur l’IA

L'Acte sur l'IA de l'UE va transformer la manière dont l'IA est construite, évaluée et déployée en Europe. Pour aider les équipes à classer rapidement leur système d'IA, Genbounty a créé un outil...

Harmonisation juridique de l’IA : enjeux et perspectives à AIPPI 2025

La présidente de l'AIPPI, Lorenza Ferrari Hofer, a souligné l'importance d'une législation mondiale harmonisée pour réguler l'intelligence artificielle, qui dépasse les frontières. L'événement de...

L’impact de la loi sur l’IA du Colorado sur les entreprises

La semaine dernière, les législateurs du Colorado ont décidé de retarder la mise en œuvre de la loi sur l'intelligence artificielle du Colorado (CAIA) jusqu'au 30 juin 2026. Cette loi rend les...

Surveillance intelligente : sécurité ou atteinte à la vie privée ?

La surveillance alimentée par l'IA améliore la sécurité, mais présente des risques de biais et d'érosion des libertés civiles. Les réglementations mondiales restent inégales, tandis qu'une gouvernance...

L’intelligence artificielle responsable : vers un avenir financier sûr

La discussion mondiale sur l'intelligence artificielle a évolué vers une question cruciale : comment utiliser ces outils de manière responsable, en particulier dans le secteur financier où la...

Certification pour une IA de confiance et durable

La certification transforme la réglementation en un catalyseur pour l'adoption de l'IA fiable, offrant un avantage concurrentiel aux entreprises qui adoptent la conformité tôt. En 2025, la loi sur...

Confiance et transparence : l’avenir de l’IA explicable

L'IA explicable (XAI) est essentielle pour établir la confiance, garantir la transparence et permettre la responsabilité dans des domaines critiques comme la santé et la finance. Les réglementations...

Réguler l’IA pour un avenir responsable

L'intelligence artificielle est la technologie révolutionnaire la plus transformative de notre époque, mais elle comporte également d'immenses risques. Les systèmes d'IA sont souvent biaisés et...

Intelligence artificielle et recherche UX : vers des workflows éthiques et efficaces

La recherche UX n'est aussi solide que les humains qui la dirigent, et les décisions humaines peuvent souvent introduire des erreurs. L'arrivée de l'IA dans la recherche UX est fascinante, promettant...