L’impact de la réglementation de l’IA sur les systèmes hérités

A bridge

La Loi sur l’IA de l’UE s’applique-t-elle aux systèmes d’IA « anciens » ?

Que se passe-t-il pour les systèmes d’IA qui ont été construits et déployés avant l’entrée en vigueur de la loi ? Les nouvelles règles s’appliquent-elles rétroactivement ?

La réponse courte est : Généralement non, mais avec des exceptions importantes et des obligations de transition.

Le Principe de Non-Rétroactivité

La Loi sur l’IA n’est pas rétroactive. Cela signifie :

  • Les systèmes d’IA mis sur le marché ou mis en service avant le 2 août 2025 sont largement exempts des nouvelles obligations de la loi.
  • Cependant, cette exemption ne s’applique pas à certaines pratiques d’IA interdites en vertu de l’Article 5 de la loi.

Pratiques Interdites Clés Affectant Tous les Systèmes d’IA

Indépendamment de la date de déploiement du système d’IA, les utilisations suivantes sont interdites et doivent être éliminées :

  • Évaluation sociale par les gouvernements
  • Identification biométrique en temps réel dans des espaces publics (avec exceptions limitées)
  • Manipulation exploitante de groupes vulnérables
  • IA à motifs sombres conçue pour déformer matériellement le comportement des utilisateurs

Toute IA héritée tombant sous ces catégories doit être immédiatement remédiée ou interrompue.

Dates de Transition Importantes et Déclencheurs de Conformité

Quand les Systèmes d’IA Hérités doivent-ils se Conformer ?

1. Modification Substantielle

Si un système d’IA mis sur le marché avant le 2 août 2025 est substantiellement modifié après le 2 août 2026, il est considéré comme un nouveau système et doit se conformer pleinement à la Loi sur l’IA.

La modification substantielle fait référence à des changements significatifs dans la conception, la fonctionnalité ou le but prévu (voir Article 3(23), Récital 177).

2. Règles Spéciales pour les Modèles d’IA à Usage Général (GPAI)

Pour les modèles de base comme GPT, LLaMA, et des systèmes similaires :

  • Les modèles déjà sur le marché avant le 2 août 2025 doivent se conformer à certaines obligations de transparence, de gestion des risques et de droits d’auteur à partir du 2 août 2027.
  • Cette période de transition permet l’audit, la mise à jour des politiques et la mise en œuvre de mesures de protection contre les risques systémiques.

3. Systèmes d’IA à Haut Risque du Secteur Public

Les autorités publiques utilisant des systèmes d’IA à haut risque déployés avant le 2 août 2025 ont jusqu’au 2 août 2030 pour garantir leur pleine conformité.

La Loi sur l’IA reconnaît la complexité et les cycles budgétaires des administrations publiques. Les fournisseurs et déployeurs dans cet espace doivent adapter, remplacer ou décommissionner les anciennes IA pour répondre aux exigences d’ici cette date limite.

4. Considération Spéciale : Systèmes d’Information Européens à Grande Échelle

Les systèmes d’IA hérités utilisés dans des infrastructures publiques critiques de l’UE (sous l’Annexe X, par exemple, Système d’information Schengen, Eurodac) :

  • Sont exemptés temporairement s’ils ont été déployés avant le 2 août 2027.
  • Toute modification substantielle déclenche la conformité immédiatement.
  • Les nouveaux déploiements après cette date doivent se conformer pleinement dès le départ.

Résumé : Applicabilité de la Loi sur l’IA aux Systèmes Hérités

Intégration de l’IA Héritée dans le Cadre de Gestion des Risques

Effectuer des Évaluations d’Impact sur les Droits Fondamentaux (FRIA) et des Évaluations d’Impact sur la Protection des Données (DPIA)

Même si l’IA héritée est exonérée, la réalisation de ces évaluations aide à identifier les risques et à s’aligner sur les obligations du RGPD et des droits fondamentaux.

  • La Loi sur l’IA (Article 27) nécessite une FRIA pour certains systèmes d’IA à haut risque.
  • Le RGPD (Article 35) exige une DPIA si le traitement est susceptible d’entraîner un haut risque pour les droits et libertés.
  • Les déployeurs publics d’IA héritée à haut risque doivent soumettre des résumés de ces évaluations lors de l’enregistrement.

Enregistrer les Systèmes d’IA à Haut Risque

Les autorités publiques et les organismes de l’UE doivent enregistrer les systèmes d’IA à haut risque, y compris les systèmes hérités, dans la base de données de l’UE avant leur déploiement ou leur utilisation.

L’enregistrement comprend la fourniture d’informations de contact, de détails sur le système et de résumés des évaluations d’impact.

S’Aligner sur les Normes et Cadres de Gouvernance

Suivez les normes émergentes telles que le ISO/IEC 42001 Système de Gestion de l’IA (AIMS) et les normes harmonisées à venir en vertu de la Loi sur l’IA.

Le ISO/IEC DIS 42005 (Évaluation d’Impact de l’IA — en développement) pousse à une gestion des risques holistique et basée sur les droits.

Intégrez la conformité à l’IA dans les systèmes de gouvernance, de gestion des risques et de conformité (GRC) existants.

Conclusion

Bien que la Loi sur l’IA exonère généralement les systèmes d’IA hérités de la plupart des nouvelles obligations, la non-conformité, en particulier en ce qui concerne les pratiques interdites ou l’IA à haut risque, peut entraîner des amendes substantielles en vertu de l’Article 99. Ces pénalités peuvent atteindre jusqu’à 35 millions d’euros ou 7 % du chiffre d’affaires annuel mondial.

Il est important de noter que la Loi sur l’IA n’est pas destinée à freiner le progrès technologique. Au contraire, elle reflète l’engagement de l’UE à trouver un équilibre entre l’innovation et la protection des droits fondamentaux et des infrastructures critiques.

Une gouvernance efficace de l’IA commence par une préparation proactive. Les organisations doivent d’abord identifier leurs systèmes d’IA les plus opaques ou à fort impact, ceux où les risques et les incertitudes convergent, et les prioriser. À partir de là, construire une approche de gestion de l’IA structurée et basée sur les risques devient non seulement une nécessité réglementaire mais un avantage stratégique.

Articles

L’illusion de l’IA : Quand la rapidité mène à la négligence

Dans un monde obsédé par des résultats plus rapides et moins chers, l'IA a rendu le concept de « suffisant » très tentant en matière de conformité. Cependant, la conformité n'est pas une course...

Nouveau Code de Pratique pour l’IA Générale en Europe

Le 10 juillet 2025, la Commission européenne a publié la version finale du Code de pratique sur l'IA à usage général, trois semaines avant l'entrée en vigueur des obligations relatives aux modèles...

Code de conformité de l’UE pour l’IA : une nouvelle ère pour les entreprises

L'Union européenne a publié un nouveau code de pratique volontaire pour aider les entreprises à se conformer à la prochaine loi sur l'IA, qui régira l'utilisation de l'IA dans les 27 États membres. Ce...

Responsabilité et transparence : repenser l’approvisionnement en IA dans les gouvernements

En 2018, le public a appris que le département de police de la Nouvelle-Orléans utilisait un logiciel de police prédictive de Palantir pour décider où envoyer des agents. Cette situation a mis en...

Cadre SAIL : La nouvelle référence en sécurité pour l’IA

Pillar Security a codifié un cadre de sécurité AI qui représente une avancée significative dans les efforts de l'industrie pour assurer des opérations sécurisées pour l'IA. Ce cadre, connu sous le nom...

Gouvernance de l’IA : Tokio Marine fixe les règles du jeu

Tokio Marine Holdings a introduit un cadre de gouvernance de l'IA pour guider le développement et l'utilisation de l'intelligence artificielle au sein de ses entreprises. La politique met l'accent sur...

L’essor de l’IA clandestine et la nécessité d’une gouvernance agile

L'intelligence artificielle générative (GenAI) est déjà profondément intégrée dans les entreprises, souvent sans approbation ni contrôle formel. Cela a conduit à ce que l'on appelle l'IA de l'ombre...

Fragmentation et Capture : Défis de la Régulation de l’IA

Dans cette recherche récente, Filippo Lancieri, Laura Edelson et Stefan Bechtold explorent comment l'économie politique de la réglementation de l'intelligence artificielle est façonnée par le...

Fragmentation et Capture : Défis de la Régulation de l’IA

Dans cette recherche récente, Filippo Lancieri, Laura Edelson et Stefan Bechtold explorent comment l'économie politique de la réglementation de l'intelligence artificielle est façonnée par le...