Obligations du Règlement sur l’IA : Formation et Pratiques Interdites

A warning sign

Obligations à venir de la loi sur l’IA de l’UE : Formation obligatoire et pratiques interdites

À partir du 2 février 2025, les fournisseurs et déployeurs de systèmes d’IA devront s’assurer de la littératie en IA au sein de leurs équipes, tout en éliminant les pratiques d’IA interdites. La loi sur l’IA de l’UE est entrée en vigueur le 1er août 2024, et les premières obligations en vertu de cette loi commenceront à s’appliquer à partir du 2 février 2025.

Littératie en IA

Quelque chose d’important à considérer est : quelles sont les obligations de formation en IA auxquelles mon entreprise doit se conformer ? L’article 4 de la loi sur l’IA impose une exigence générale élevée en matière de littératie en IA : « Les fournisseurs et déployeurs de systèmes d’IA doivent prendre des mesures pour garantir, dans la mesure du possible, un niveau suffisant de littératie en IA de leur personnel et d’autres personnes s’occupant de l’exploitation et de l’utilisation des systèmes d’IA en leur nom, en tenant compte de leurs connaissances techniques, de leur expérience, de leur éducation et de leur formation ainsi que du contexte dans lequel les systèmes d’IA doivent être utilisés. »

Les entreprises disposent donc d’une flexibilité considérable pour concevoir le contenu et le format de leur formation en IA pour leur personnel, afin de répondre à cette obligation d’ici le 2 février. Bien qu’il soit difficile de se défendre contre des allégations de non-conformité si les entreprises ne mettent en œuvre aucune forme de formation ou de ressources d’apprentissage en IA, il sera beaucoup plus facile de se défendre contre les régulateurs ou les plaignants soutenant que la formation en IA fournie était inadéquate. Une formation de base est certainement préférable à l’absence de formation dans ce contexte.

Quelles sont les conséquences de la non-conformité aux obligations de littératie en IA ?

Aucune amende directe ou autre sanction n’appliquera pour avoir violé les exigences de littératie en IA en vertu de l’article 4 de la loi sur l’IA. À partir du 2 août 2026 (date à laquelle les dispositions de sanctions de la loi sur l’IA deviendront applicables), les fournisseurs et déployeurs de systèmes d’IA pourraient faire face à une responsabilité civile, par exemple si l’utilisation des systèmes d’IA par un personnel non correctement formé cause des dommages aux consommateurs, partenaires commerciaux ou autres tiers.

Que peuvent faire les entreprises dès maintenant ?

Une première étape utile consiste à analyser les formations ou autres ressources destinées à atteindre la littératie en IA que l’entreprise a fournies à son personnel par le passé – et à documenter ces mesures pour prouver la conformité et se défendre contre de futures enquêtes des régulateurs ou des réclamations de tiers.

Si une analyse n’est pas réalisable ou indique des lacunes dans la formation en IA, les entreprises peuvent opter pour mettre rapidement en œuvre des mesures de littératie en IA pour combler les lacunes existantes de manière efficace avant le 2 février 2025.

Solutions pratiques pour atténuer les risques

  • Évaluer les besoins en formation en IA : Évaluer les programmes de formation actuels pour identifier les lacunes en matière de littératie en IA.
  • Documenter les mesures existantes : Conserver des dossiers de toutes les initiatives de formation pour démontrer la conformité.
  • Choisir une approche par couches : Tous les domaines d’activité ou employés n’auront pas besoin d’avoir le même degré de littératie en IA. Offrir une formation de base générale à tous les employés et déployer des formations plus sophistiquées ou spécifiques aux rôles au besoin, dans une approche par phases.
  • Consulter vos conseillers juridiques : Ils peuvent vous aider à mettre en œuvre des ateliers de littératie en IA ou des cours en ligne adaptés aux besoins de vos différentes équipes.

Pratiques interdites en IA

Quelles pratiques d’IA la loi sur l’IA interdit-elle ?

L’article 5 de la loi sur l’IA énumère un certain nombre de pratiques et d’applications d’IA interdites. Ces pratiques interdites sont décrites en termes relativement généraux, ce qui laisse place à l’interprétation et nécessite une analyse nuancée pour déterminer leur application en pratique. Les pratiques interdites incluent :

  • Systèmes d’IA manipulateurs : Systèmes d’IA utilisant des techniques subliminales au-delà de la conscience d’une personne pour modifier significativement son comportement, pouvant entraîner des dommages physiques ou psychologiques.
  • Systèmes d’IA exploitants : Systèmes d’IA exploitant les vulnérabilités de groupes spécifiques, tels que les enfants ou les personnes handicapées, pour modifier significativement le comportement de manière nuisible.
  • Analyse des émotions au travail : Systèmes d’IA effectuant une analyse des émotions ou une catégorisation biométrique des employés, ce qui peut entraîner des violations de la vie privée et des pratiques discriminatoires.
  • Notation sociale à des fins commerciales déloyales : Systèmes d’IA utilisés pour le scoring social, évaluant ou classifiant les individus en fonction de leur comportement social ou de leurs caractéristiques personnelles, entraînant un traitement défavorable ou injustifié.

Quelles sont les conséquences de la non-conformité aux interdictions de l’article 5 de la loi sur l’IA ?

L’article 99 de la loi sur l’IA prévoit des sanctions sévères pour engagement dans des pratiques d’IA interdites, y compris des amendes pouvant atteindre le plus élevé entre 35 millions d’euros ou 7 % du chiffre d’affaires mondial de l’année précédente par violation. Comme mentionné précédemment, le régime de sanctions de la loi sur l’IA s’appliquera à partir du 2 août 2026. En général, le droit de l’UE ne prévoit pas d’amendes rétroactives.

Que peuvent faire les entreprises dès maintenant ?

Les entreprises peuvent accéder à diverses façons pratiques d’atténuer les risques associés aux pratiques d’IA interdites par l’article 5 de la loi sur l’IA. Bien que le cours normal des affaires présente un faible risque pour de nombreuses entreprises, des problèmes potentiels sont plus susceptibles de surgir en raison de la description ambiguë de ces activités interdites dans la loi sur l’IA. Par exemple, la définition de l’inférence d’émotion alimentée par l’IA dans le milieu de travail ou des techniques manipulatrices dans les processus commerciaux est très ambiguë en pratique.

Par conséquent, dans le processus de mise en place de structures de conformité robustes conformément à la loi sur l’IA, les entreprises doivent identifier, évaluer et documenter les systèmes d’IA qu’elles utilisent dans leurs processus commerciaux. En particulier, elles doivent analyser les systèmes qui pourraient potentiellement relever des catégories de pratiques d’IA interdites.

Solutions pratiques pour atténuer les risques

  • Identifier et évaluer les systèmes d’IA : Passer en revue les systèmes d’IA pour s’assurer qu’ils ne relèvent pas de catégories interdites.
  • Documenter les efforts de conformité : Documenter la raison pour laquelle certaines utilisations de l’IA ne violent pas les interdictions prévues à l’article 5.
  • Autres objectifs possibles : Analyser les systèmes d’IA pour des activités potentiellement à haut risque et s’assurer que les obligations de transparence sont respectées.

Articles

La bataille pour la régulation de l’IA : enjeux et perspectives

La lutte pour savoir qui régule l'IA est loin d'être terminée, avec des propositions législatives qui pourraient avoir un impact significatif sur la réglementation des modèles et des applications d'IA...

Préparer l’Industrie Pharmaceutique à l’Intelligence Artificielle

L'intelligence artificielle est sur le point de transformer chaque aspect de l'industrie pharmaceutique, de la découverte de molécules aux essais cliniques et au-delà. Cependant, dans un domaine où...

Renforcer la sécurité des LLM : l’alignement responsable de l’IA

Ce document traite de l'alignement responsable de l'IA dans le développement de phi-3, mettant l'accent sur les principes de sécurité adoptés par Microsoft. Des méthodes de test et des ensembles de...

Contrôle des données dans l’ère des clouds IA souverains

Les nuages d'IA souverains offrent à la fois contrôle et conformité, répondant aux préoccupations croissantes concernant la résidence des données et le risque réglementaire. Dans un environnement où...

L’Alliance Écossaise de l’IA : Vers une Intelligence Artificielle Éthique

L'Alliance écossaise de l'IA a publié son rapport d'impact 2024/2025, révélant une année de progrès significatifs dans la promotion d'une intelligence artificielle éthique et inclusive en Écosse. Le...

UE AI Act : Préparez-vous au changement inévitable

L'annonce de la Commission européenne vendredi dernier selon laquelle il n'y aura pas de retard concernant la loi sur l'IA de l'UE a suscité des réactions passionnées des deux côtés. Il est temps de...

Fiabilité des modèles linguistiques : un défi à relever avec la loi sur l’IA de l’UE

Les modèles de langage de grande taille (LLM) ont considérablement amélioré la capacité des machines à comprendre et à traiter des séquences de texte complexes. Cependant, leur déploiement croissant...

Pause ou avancée : l’avenir de la réglementation de l’IA en Europe

Le Conseil européen a maintenu le calendrier de l'Acte sur l'IA malgré les pressions, affirmant qu'il n'y aura pas de pause dans sa mise en œuvre. Le Premier ministre suédois a appelé à un...

Nouvelles restrictions sur l’IA : impacts et opportunités

L'administration Trump prépare de nouvelles restrictions sur les exportations de puces AI vers la Malaisie et la Thaïlande pour empêcher que des processeurs avancés n'atteignent la Chine via des pays...