Systèmes d’IA à risque : obligations des employeurs

A broken chain

Les systèmes d’IA à risque : de quoi s’agit-il et que doivent faire les employeurs concernés ?

La réglementation sur l’IA dans l’Union Européenne, connue sous le nom de Règlement sur l’IA, est la première législation au monde à réguler les systèmes d’intelligence artificielle. Cette loi impose des obligations basées sur le niveau de risque associé à certaines utilisations des systèmes d’IA. Les dispositions relatives aux usages « les plus risqués » de l’IA sont entrées en vigueur le 2 février 2025, et l’ensemble du règlement sera appliqué d’ici le 1er août 2026. L’intention du Parlement européen est de réglementer et de classifier les systèmes d’IA de manière à accroître la sûreté, la transparence et la sustainabilité, tout en prévenant les pratiques discriminatoires liées à l’IA.

Les capacités de l’IA ont considérablement évolué ces dernières années, entraînant des défis juridiques et éthiques. Par exemple, des données d’entraînement incomplètes et biaisées ont conduit des systèmes d’IA à évaluer de manière discriminatoire des CV, à mal étiqueter des images et à identifier incorrectement des suspects criminels. De plus, l’IA soulève des préoccupations en matière de confidentialité et de transparence, notamment lorsque des informations personnelles des utilisateurs sont « collectées » à partir de sites accessibles au public sans leur consentement. L’IA générative peut également créer des images dérangeantes, offensantes et racistes. En réponse à ces problèmes, le Parlement européen a adopté ce règlement pour trouver un équilibre entre la promotion de l’innovation et la protection des utilisateurs et de leurs droits.

Cette réglementation s’applique-t-elle à votre entreprise ?

Le règlement s’applique aux fournisseurs de systèmes d’IA sur le marché de l’UE, quel que soit leur lieu d’établissement, ainsi qu’aux utilisateurs de ces systèmes situés en dehors de l’UE, si le produit de l’IA sera utilisé dans l’UE. Cela signifie que même les entreprises non situées dans l’UE doivent être conscientes des implications du règlement. Par exemple, si vous utilisez un outil de recrutement basé sur l’IA au Royaume-Uni pour le recrutement dans votre entreprise en UE, cela sera soumis au règlement.

Catégories de risque

Le règlement tente de classifier les utilisations de l’IA en différentes catégories de risque, allant de « risque minimal » et « risque limité » à « risque élevé » et « risque inacceptable ». Selon le règlement, les systèmes d’IA « à risque minimal » (qui incluent la plupart des systèmes actuellement disponibles sur le marché de l’UE) resteront non réglementés. Les systèmes à « risque limité » seront soumis à des obligations légères pour garantir que les utilisateurs savent et comprennent qu’ils interagissent avec une IA. Des réglementations beaucoup plus strictes sont imposées aux systèmes « à risque élevé » et « à risque inacceptable ». L’amende maximale pour non-conformité est de 35 millions d’euros ou jusqu’à 7% du chiffre d’affaires mondial total de l’entreprise pour l’année financière précédente, selon le montant le plus élevé.

Systèmes d’IA « à risque élevé »

Les systèmes d’IA à risque élevé comprennent ceux utilisés pour catégoriser les personnes sur la base de leurs données biométriques (par exemple, l’IA utilisée dans la vidéosurveillance) ; pour l’éducation et la formation (par exemple, l’IA utilisée pour détecter un comportement erratique des étudiants lors des examens) ; dans l’emploi (par exemple, l’IA utilisée dans la prise de décision RH, lors de l’intégration ou des processus de recrutement) ; et pour administrer la justice (par exemple, l’IA utilisée dans la résolution alternative des litiges).

Un système ne sera qualifié de haut risque que s’il pose un risque significatif de préjudice à la santé, à la sécurité ou aux droits fondamentaux. Un système qui effectue uniquement une tâche procédurale étroite ou qui vise à améliorer le résultat d’une activité humaine précédemment réalisée, par exemple, sera considéré comme ne posant pas de risque significatif et ne relèvera pas de la classification à risque élevé.

Il est clair d’après la liste prescrite ci-dessus que de nombreux outils d’IA que les entreprises pourraient utiliser dans un contexte RH tomberont dans la catégorie à risque élevé. Cela inclura les systèmes d’IA qui aident à la présélection de CV et d’applications pour des postes, ainsi que les outils de gestion de la performance.

Les développeurs d’IA à risque élevé ont jusqu’à au moins 2027 pour :

  • Créer et mettre à jour un système de gestion des risques tout au long du cycle de vie du système d’IA ;
  • Mettre en œuvre un système de gouvernance des données ;
  • Créer un système de gestion de la qualité ainsi que la documentation technique pour démontrer et garantir la conformité avec le règlement et permettre aux autorités de tester cette conformité ;
  • Concevoir l’IA de manière à ce qu’elle maintienne et mette à jour automatiquement et régulièrement des dossiers indiquant tout risque ou changement significatif de l’IA ;
  • Fournir des instructions sur la façon d’utiliser l’IA à ses déployeurs ;
  • Concevoir l’IA de telle sorte que des humains puissent la superviser et que l’IA soit sécurisée, fonctionne correctement et donne le bon résultat.

Systèmes d’IA « à risque inacceptable »

Le règlement interdit les systèmes d’IA à risque inacceptable depuis le 2 février 2025. Huit systèmes d’IA sont interdits en vertu du règlement car ils posent une menace significative pour leurs utilisateurs et pour la société au sens large. Cela inclut les systèmes qui impliquent une notation sociale des personnes (par exemple, le classement des utilisateurs ou de groupes d’utilisateurs en fonction de traits de personnalité, entraînant un traitement défavorable ou préjudiciable), la reconnaissance des émotions dans le milieu professionnel ou éducatif, et l’utilisation d’informations biométriques pour des systèmes de catégorisation déduisant des attributs sensibles (par exemple, le genre, la religion, l’ethnicité).

La Commission européenne a récemment approuvé des directives sur les pratiques d’IA interdites.

Que doivent faire les employeurs ?

Si votre entreprise, ou une partie de celle-ci, entre dans le champ d’application du règlement, vous devez agir dès maintenant pour vous assurer que vous respectez vos obligations :

  • Audits : Envisagez de réaliser un audit des systèmes d’IA que vous utilisez actuellement, afin de vérifier s’ils relèvent des catégories « à risque inacceptable » ou « à risque élevé ». Si un système d’IA dans ces catégories est identifié, vous devez le retirer ou le modifier immédiatement pour éviter les conséquences de non-conformité.
  • Politiques : Mettez en œuvre des politiques de gouvernance de l’IA pour définir clairement comment les employés doivent utiliser de manière responsable l’IA afin de respecter le règlement.
  • Formation : Envisagez une formation sur l’utilisation de l’IA pour aider les employés à comprendre les défis, les risques et les opportunités que l’IA présente, ainsi que leur rôle et leurs responsabilités.
  • Conformité des fournisseurs : Si vous utilisez des fournisseurs tiers pour vos systèmes d’IA (par exemple, pour l’IA dans le recrutement), assurez-vous que le fournisseur d’IA respecte le règlement et examinez vos contrats fournisseurs pour garantir que la responsabilité en cas de non-conformité repose sur eux.

En prenant des mesures proactives dès maintenant pour garantir la conformité avec le règlement, les employeurs peuvent maintenir une culture d’entreprise axée sur les personnes et éviter des amendes substantielles, ainsi que des répercussions sur leur réputation.

Articles

L’Amérique refuse la gouvernance mondiale de l’IA lors de l’Assemblée générale de l’ONU

Les responsables américains ont rejeté une proposition visant à établir un cadre de gouvernance mondial de l'IA lors de l'Assemblée générale des Nations Unies, malgré le soutien de nombreux pays, y...

Risques et enjeux de la prolifération de l’IA agentique pour les entreprises

Dans un monde en évolution rapide de l'intelligence artificielle, les entreprises adoptent de plus en plus des systèmes d'IA agentique, mais cela entraîne un nouveau défi : l'expansion incontrôlée de...

Biais cachés dans les intelligences artificielles : un danger pour la démocratie

Le rôle croissant des modèles de langage (LLM) comme gardiens d'opinion suscite des inquiétudes quant aux biais cachés qui pourraient fausser le discours public et compromettre les processus...

L’ère de la responsabilité : la régulation de l’IA en pleine ascension

Le monde en pleine expansion de l'intelligence artificielle (IA) est à un tournant critique, alors qu'une vague d'actions réglementaires souligne un virage mondial vers la responsabilité et le...

Choisir les outils de gouvernance AI adaptés aux entreprises

Alors que l'adoption de l'IA générative s'accélère, les risques associés deviennent de plus en plus préoccupants. Cet article explore comment les outils de gouvernance de l'IA peuvent aider à gérer...

L’ONU s’engage pour une intelligence artificielle sécurisée et digne de confiance

Les Nations Unies cherchent à influencer directement la politique mondiale sur l'intelligence artificielle, en promouvant des normes politiques et techniques autour d'une IA « sûre, sécurisée et digne...

L’essor de la gouvernance de l’IA : quand les données façonnent les politiques

Récemment, lors d'une audience captivée à Singapour, deux hommes ont discuté d'un sujet pouvant redéfinir la réglementation de l'IA. Leur conversation a mis en lumière le projet MindForge, une...

Préparez-vous aux nouvelles régulations de l’IA pour les PME

Les PME doivent se préparer aux nouvelles réglementations de l'UE sur l'IA, qui entrent en vigueur en 2026, en intégrant des systèmes d'IA de manière conforme dès le départ. En adoptant des...

Nouvelles obligations de déclaration pour les systèmes d’IA à haut risque en Europe

La Commission européenne a publié des lignes directrices provisoires sur les exigences de déclaration des incidents graves pour les systèmes d'IA à haut risque dans le cadre de la loi sur l'IA de...