Conformité et opportunités avec la nouvelle législation sur l’IA en Europe

A data flow diagram illustrating how data moves between entities and the implications of data sharing regulations.

La Loi sur l’IA de l’UE est arrivée : Ce qu’il faut savoir

La Loi sur l’IA de l’UE est maintenant en vigueur, marquant le début d’une nouvelle ère de conformité pour les entreprises opérant dans l’Union européenne. À compter du 2 août 2025, des pénalités, y compris des amendes administratives, sont applicables. La prochaine échéance pour les systèmes à haut risque, qui incluent de nombreux produits médicaux utilisant des systèmes d’intelligence artificielle (IA), est prévue dans un an, nécessitant une conformité pour les systèmes d’IA mis sur le marché avant le 2 août 2026.

Les étapes déjà en vigueur : Échéances d’août 2025

La loi s’applique rétroactivement à tous les modèles d’IA à usage général en cours d’utilisation dans l’UE à partir du 2 août 2025. Cela inclut des exigences importantes telles que :

  • Chapitre III Section 4 : Établissement des autorités de notification et des procédures de notification;
  • Chapitre V : Exigences complètes pour les modèles et systèmes d’IA à usage général;
  • Chapitre VII : Gouvernance aux niveaux national et de l’Union;
  • Chapitre XII : Pénalités.

Les modèles d’IA à usage général en opération dans l’UE avant le 2 août 2025 doivent finaliser la documentation et les étapes de déclaration d’ici le 2 août 2027. Les dispositions de confidentialité de l’Article 78 de la loi sont également en vigueur, avec des pénalités futures pouvant atteindre jusqu’à 3% des revenus mondiaux ou 15 millions d’euros, selon le montant le plus élevé.

Le compte à rebours pour l’application en août 2026

La loi sera entièrement applicable le 2 août 2026, avec une période de phase pour les systèmes à haut risque décrits à l’Article 6. Un système est classé comme à haut risque si son utilisation prévue peut poser un risque élevé pour la santé et la sécurité ou les droits fondamentaux des personnes.

Les dispositifs médicaux, les dispositifs de diagnostic in vitro (IVD) et les logiciels utilisés dans le triage des soins de santé sont explicitement désignés comme des systèmes à haut risque. La loi vise à compléter les lois existantes telles que le Règlement MDR de l’UE (2017/745) et le Règlement IVDR de l’UE (2017/746).

Ce qui vient : Application complète d’ici le 2 août 2027

Les dispositions restantes de la loi nécessiteront une conformité d’ici le 2 août 2027. À cette date, la loi s’appliquera à tous les systèmes d’IA à haut risque entrant en service dans l’UE.

Les opérateurs de systèmes à haut risque, en particulier ceux des dispositifs médicaux et des applications de diagnostic in vitro soumis à des exigences de marquage CE, devront être conformes à cette échéance finale.

Portée et juridiction de la loi

La loi s’applique généralement aux entreprises introduisant des systèmes d’IA sur le marché ou les mettant en service dans l’UE. Des nuances existent quant à l’applicabilité de la loi selon la nature de l’implication d’une entreprise dans le développement ou le déploiement du système d’IA.

Les modèles et systèmes utilisés uniquement pour la recherche et le développement ainsi que ceux en phase de développement pré-commercial sont exemptés de conformité jusqu’à ce que leurs applications soient commercialisées.

Soutien des experts : Le rôle du panel scientifique

Reconnaissant la nécessité d’une surveillance technique continue, l’UE a lancé un panel scientifique d’experts indépendants. Ce panel soutient le Bureau de l’IA dans l’évaluation des risques techniques, des classifications d’IA et des menaces systémiques. Il peut émettre des « alertes qualifiées » lorsque de nouveaux risques sont identifiés.

Étapes suivantes pour les entreprises Medtech et développeurs d’IA

Avec les dispositions clés de la Loi sur l’IA de l’UE maintenant en vigueur et l’application complète prévue pour le 2 août 2027, les entreprises Medtech opérant dans l’UE doivent agir rapidement. L’étendue rétroactive de la réglementation, la désignation des systèmes à haut risque et l’introduction d’un cadre de sandbox réglementaire représentent à la fois des défis de conformité et des opportunités d’innovation.

Les entités soumises à la loi devraient commencer par évaluer leur exposition, mettre à jour leur documentation et se préparer à interagir avec les régulateurs.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...