Obligations du Règlement sur l’IA : Formation et Pratiques Interdites

A warning sign

Obligations à venir de la loi sur l’IA de l’UE : Formation obligatoire et pratiques interdites

À partir du 2 février 2025, les fournisseurs et déployeurs de systèmes d’IA devront s’assurer de la littératie en IA au sein de leurs équipes, tout en éliminant les pratiques d’IA interdites. La loi sur l’IA de l’UE est entrée en vigueur le 1er août 2024, et les premières obligations en vertu de cette loi commenceront à s’appliquer à partir du 2 février 2025.

Littératie en IA

Quelque chose d’important à considérer est : quelles sont les obligations de formation en IA auxquelles mon entreprise doit se conformer ? L’article 4 de la loi sur l’IA impose une exigence générale élevée en matière de littératie en IA : « Les fournisseurs et déployeurs de systèmes d’IA doivent prendre des mesures pour garantir, dans la mesure du possible, un niveau suffisant de littératie en IA de leur personnel et d’autres personnes s’occupant de l’exploitation et de l’utilisation des systèmes d’IA en leur nom, en tenant compte de leurs connaissances techniques, de leur expérience, de leur éducation et de leur formation ainsi que du contexte dans lequel les systèmes d’IA doivent être utilisés. »

Les entreprises disposent donc d’une flexibilité considérable pour concevoir le contenu et le format de leur formation en IA pour leur personnel, afin de répondre à cette obligation d’ici le 2 février. Bien qu’il soit difficile de se défendre contre des allégations de non-conformité si les entreprises ne mettent en œuvre aucune forme de formation ou de ressources d’apprentissage en IA, il sera beaucoup plus facile de se défendre contre les régulateurs ou les plaignants soutenant que la formation en IA fournie était inadéquate. Une formation de base est certainement préférable à l’absence de formation dans ce contexte.

Quelles sont les conséquences de la non-conformité aux obligations de littératie en IA ?

Aucune amende directe ou autre sanction n’appliquera pour avoir violé les exigences de littératie en IA en vertu de l’article 4 de la loi sur l’IA. À partir du 2 août 2026 (date à laquelle les dispositions de sanctions de la loi sur l’IA deviendront applicables), les fournisseurs et déployeurs de systèmes d’IA pourraient faire face à une responsabilité civile, par exemple si l’utilisation des systèmes d’IA par un personnel non correctement formé cause des dommages aux consommateurs, partenaires commerciaux ou autres tiers.

Que peuvent faire les entreprises dès maintenant ?

Une première étape utile consiste à analyser les formations ou autres ressources destinées à atteindre la littératie en IA que l’entreprise a fournies à son personnel par le passé – et à documenter ces mesures pour prouver la conformité et se défendre contre de futures enquêtes des régulateurs ou des réclamations de tiers.

Si une analyse n’est pas réalisable ou indique des lacunes dans la formation en IA, les entreprises peuvent opter pour mettre rapidement en œuvre des mesures de littératie en IA pour combler les lacunes existantes de manière efficace avant le 2 février 2025.

Solutions pratiques pour atténuer les risques

  • Évaluer les besoins en formation en IA : Évaluer les programmes de formation actuels pour identifier les lacunes en matière de littératie en IA.
  • Documenter les mesures existantes : Conserver des dossiers de toutes les initiatives de formation pour démontrer la conformité.
  • Choisir une approche par couches : Tous les domaines d’activité ou employés n’auront pas besoin d’avoir le même degré de littératie en IA. Offrir une formation de base générale à tous les employés et déployer des formations plus sophistiquées ou spécifiques aux rôles au besoin, dans une approche par phases.
  • Consulter vos conseillers juridiques : Ils peuvent vous aider à mettre en œuvre des ateliers de littératie en IA ou des cours en ligne adaptés aux besoins de vos différentes équipes.

Pratiques interdites en IA

Quelles pratiques d’IA la loi sur l’IA interdit-elle ?

L’article 5 de la loi sur l’IA énumère un certain nombre de pratiques et d’applications d’IA interdites. Ces pratiques interdites sont décrites en termes relativement généraux, ce qui laisse place à l’interprétation et nécessite une analyse nuancée pour déterminer leur application en pratique. Les pratiques interdites incluent :

  • Systèmes d’IA manipulateurs : Systèmes d’IA utilisant des techniques subliminales au-delà de la conscience d’une personne pour modifier significativement son comportement, pouvant entraîner des dommages physiques ou psychologiques.
  • Systèmes d’IA exploitants : Systèmes d’IA exploitant les vulnérabilités de groupes spécifiques, tels que les enfants ou les personnes handicapées, pour modifier significativement le comportement de manière nuisible.
  • Analyse des émotions au travail : Systèmes d’IA effectuant une analyse des émotions ou une catégorisation biométrique des employés, ce qui peut entraîner des violations de la vie privée et des pratiques discriminatoires.
  • Notation sociale à des fins commerciales déloyales : Systèmes d’IA utilisés pour le scoring social, évaluant ou classifiant les individus en fonction de leur comportement social ou de leurs caractéristiques personnelles, entraînant un traitement défavorable ou injustifié.

Quelles sont les conséquences de la non-conformité aux interdictions de l’article 5 de la loi sur l’IA ?

L’article 99 de la loi sur l’IA prévoit des sanctions sévères pour engagement dans des pratiques d’IA interdites, y compris des amendes pouvant atteindre le plus élevé entre 35 millions d’euros ou 7 % du chiffre d’affaires mondial de l’année précédente par violation. Comme mentionné précédemment, le régime de sanctions de la loi sur l’IA s’appliquera à partir du 2 août 2026. En général, le droit de l’UE ne prévoit pas d’amendes rétroactives.

Que peuvent faire les entreprises dès maintenant ?

Les entreprises peuvent accéder à diverses façons pratiques d’atténuer les risques associés aux pratiques d’IA interdites par l’article 5 de la loi sur l’IA. Bien que le cours normal des affaires présente un faible risque pour de nombreuses entreprises, des problèmes potentiels sont plus susceptibles de surgir en raison de la description ambiguë de ces activités interdites dans la loi sur l’IA. Par exemple, la définition de l’inférence d’émotion alimentée par l’IA dans le milieu de travail ou des techniques manipulatrices dans les processus commerciaux est très ambiguë en pratique.

Par conséquent, dans le processus de mise en place de structures de conformité robustes conformément à la loi sur l’IA, les entreprises doivent identifier, évaluer et documenter les systèmes d’IA qu’elles utilisent dans leurs processus commerciaux. En particulier, elles doivent analyser les systèmes qui pourraient potentiellement relever des catégories de pratiques d’IA interdites.

Solutions pratiques pour atténuer les risques

  • Identifier et évaluer les systèmes d’IA : Passer en revue les systèmes d’IA pour s’assurer qu’ils ne relèvent pas de catégories interdites.
  • Documenter les efforts de conformité : Documenter la raison pour laquelle certaines utilisations de l’IA ne violent pas les interdictions prévues à l’article 5.
  • Autres objectifs possibles : Analyser les systèmes d’IA pour des activités potentiellement à haut risque et s’assurer que les obligations de transparence sont respectées.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...