Conformité à l’IA : Stratégies pour les entreprises face à la législation européenne

A compass

Utiliser l’ISO 42001 et le NIST AI RMF pour se conformer à la loi sur l’IA de l’UE

Au cours des dernières années, l’adoption des technologies d’IA a explosé. En 2019, 58% des organisations utilisaient l’IA pour au moins une fonction commerciale ; d’ici 2024, ce chiffre a grimpé à 72%. L’utilisation de l’IA générative a presque doublé entre 2023 et 2024, passant de 33% à 65%.

Qu’est-ce que la loi sur l’IA de l’UE ?

La loi sur l’intelligence artificielle de l’Union européenne (Règlement (UE) 2024/1689) concerne l’IA et établit un cadre réglementaire et juridique commun au sein de l’UE. Elle est entrée en vigueur le 1er août 2024 et couvre tous les types d’IA dans divers secteurs, à l’exception des systèmes d’IA utilisés uniquement à des fins militaires, de sécurité nationale, de recherche et non professionnelles.

Cette loi vise à établir des directives claires pour la gestion des risques, la surveillance continue des systèmes et la supervision humaine, créant ainsi une base pour une IA digne de confiance. Elle protège également les droits fondamentaux tels que la vie privée et veille à ce que les systèmes d’IA ne discriminent pas de manière injuste.

Qui sera affecté ?

Les organisations qui utilisent l’IA et opèrent au sein de l’UE, ainsi que celles situées en dehors de l’UE qui développent ou utilisent des systèmes d’IA sur le territoire de l’UE, seront concernées.

Qui ne sera pas affecté ?

Il est crucial de comprendre ce qui ne relève pas du champ d’application de la loi. Les applications militaires et de sécurité nationale, ainsi que les systèmes d’IA purement axés sur la recherche scientifique, bénéficient d’une exemption. La loi ne s’applique qu’une fois que les systèmes d’IA sont déployés ou commercialisés.

Amendes prévues par la loi sur l’IA de l’UE

Les sanctions pour non-conformité sont sévères :

  • Pour les pratiques d’IA interdites, les organisations peuvent être condamnées à une amende pouvant atteindre 35 millions d’euros ou 7% du chiffre d’affaires mondial annuel, selon le montant le plus élevé.
  • Pour le non-respect des exigences relatives aux systèmes d’IA à haut risque, les amendes peuvent atteindre 15 millions d’euros ou 3% du chiffre d’affaires mondial annuel.
  • La fourniture d’informations incorrectes, incomplètes ou trompeuses aux autorités peut entraîner des amendes allant jusqu’à 7,5 millions d’euros ou 1% du chiffre d’affaires mondial annuel.

Approche basée sur les risques de la loi sur l’IA de l’UE

1. Risques inacceptables :

Les systèmes d’IA qui permettent des pratiques de manipulation, d’exploitation et de contrôle social sont considérés comme présentant un risque inacceptable. Par exemple, l’utilisation de techniques subliminales ou manipulatrices, l’identification biométrique à distance, ou la compilation de bases de données de reconnaissance faciale.

2. Risques élevés :

Les systèmes d’IA ayant un impact négatif sur la sécurité ou les droits fondamentaux sont classés comme à haut risque. Cela inclut les biométries, les infrastructures critiques, ainsi que les processus judiciaires et démocratiques. Ces systèmes peuvent être déployés dans le marché de l’UE après avoir atténué les risques.

3. Risques limités :

Certaines IA destinées à interagir avec des personnes naturelles ou à générer du contenu peuvent ne pas être classées comme à haut risque mais peuvent comporter des risques de tromperie. Cela inclut les chatbots et les deepfakes, soumis à des obligations de transparence légères.

4. Risques minimes :

Les systèmes d’IA qui ne relèvent d’aucune autre catégorie, tels que les jeux vidéo assistés par IA ou les filtres anti-spam, ne sont pas réglementés sur le marché de l’UE.

Comprendre le cadre de gestion des risques de l’IA du NIST et l’ISO/IEC 42001

Ces normes sont conçues pour fournir une approche structurée de la gestion des risques associés aux technologies d’IA, assurant un développement, un déploiement et une utilisation responsables et éthiques des systèmes d’IA.

Qu’est-ce que l’ISO/IEC 42001:2023 ?

L’ISO/IEC 42001 est une norme internationale qui spécifie les exigences pour établir, mettre en œuvre, maintenir et améliorer en continu un Système de gestion de l’intelligence artificielle (AIMS) au sein des organisations. Applicable à toutes les entités impliquées dans le développement ou l’utilisation de produits ou services basés sur l’IA, elle est pertinente pour tous les secteurs.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...