Le Bulletin d’Information sur la Loi sur l’IA de l’UE #88 : Ressources pour Soutenir l’Implémentation
Bienvenue dans le Bulletin d’Information sur la Loi sur l’IA de l’UE, une brève newsletter bimensuelle fournissant des mises à jour sur les développements et analyses de la législation européenne sur l’intelligence artificielle.
Processus Législatif
Ressources pour soutenir l’implémentation
La Commission Européenne a lancé deux ressources clés pour faciliter l’implémentation de la loi sur l’IA : le Service Desk de la Loi sur l’IA et la Plateforme d’Information Unique. Ces initiatives visent à soutenir le développement d’une IA digne de confiance tout en fournissant la clarté juridique nécessaire à travers l’Europe. La Plateforme d’Information Unique servira de centre d’information sur la loi sur l’IA, offrant aux parties prenantes des conseils complets sur son implémentation.
La plateforme comprend des matériaux provenant des États membres, des questions fréquemment posées et diverses ressources. Trois outils numériques sont présentés sur cette plateforme : 1) un Vérificateur de Conformité pour aider les parties prenantes à identifier leurs obligations légales ; 2) un Explorateur de la Loi sur l’IA pour naviguer intuitivement à travers les chapitres, annexes et considérants de la loi ; et 3) un formulaire en ligne connectant les utilisateurs au Service Desk de la Loi sur l’IA, composé d’experts travaillant en collaboration avec le Bureau de l’IA.
La loi sur l’IA en Italie
Dan Cooper et Laura Somaini ont rapporté que l’Italie a adopté sa loi nationale sur l’IA, dont l’implémentation a débuté le 10 octobre 2025. Cette législation complète la loi sur l’IA de l’UE et comprend à la fois des principes généraux et des règles spécifiques à des secteurs non couverts par la législation européenne. La loi désigne deux autorités compétentes : l’ Agence pour l’Italie Numérique (AgID) comme autorité de notification et l’Agence Nationale de Cybersécurité (ACN) comme autorité de surveillance du marché.
Le gouvernement a douze mois pour adopter des mesures supplémentaires, y compris l’harmonisation du cadre national avec la loi sur l’IA, l’attribution de pouvoirs administratifs aux autorités compétentes, l’établissement de règles pour la formation des systèmes d’IA et la mise à jour du cadre des sanctions civiles et pénales. Notamment, la version finale omet les exigences précédemment proposées pour le marquage des contenus d’actualités générés par l’IA, car les exigences générales de transparence sous la loi sur l’IA s’appliquent.
Les Pays-Bas souhaitent clarifier les règles sur l’IA au lieu de les retarder
Les Pays-Bas ont publié un document de position soutenant la clarification des règles sur l’IA plutôt que leur retardement, tout en plaidant pour une réduction des charges réglementaires dans le cadre numérique. Le document expose trois principes clés : premièrement, maintenir les objectifs originaux de la législation numérique tout en se concentrant sur la clarification et la cohérence ; deuxièmement, réduire les coûts de conformité grâce à des outils pratiques et une assistance, en particulier pour les gouvernements et les PME ; et troisièmement, rationaliser la gouvernance grâce à une meilleure coordination des organes régulateurs européens.
Les recommandations spécifiques concernant la loi sur l’IA incluent : 1) donner la priorité à la simplification de l’implémentation plutôt qu’aux extensions de délais ; 2) créer une liste commune d’infrastructures critiques sous l’Annexe III ; 3) développer des modèles de conformité tout en maintenant la flexibilité pour les fournisseurs ; et 4) prolonger la dérogation pour les Systèmes de Gestion de la Qualité pour les PME.
Analyses
Critique de l’UE par une entreprise néerlandaise de puces sur la sur-réglementation de l’IA
ASML, le leader technologique européen par sa valeur de marché, a critiqué l’approche de l’UE en matière de réglementation de l’IA, arguant qu’elle pousse les talents et les entreprises vers la Silicon Valley. Lors d’un événement à Eindhoven, son directeur financier, Roger Dassen, a suggéré que l’approche réglementaire de l’Europe entrave le développement de l’IA. ASML a plaidé pour une pause dans certaines parties de l’implémentation de la loi sur l’IA, rejoignant 46 entreprises dans une demande de délai de deux ans.
La Californie met en place sa propre « Loi sur l’IA »
La Californie a pris des mesures significatives en matière de réglementation de l’IA, tandis que la politique fédérale reste bloquée. Le gouverneur Newsom a signé une législation sur la transparence de l’IA et la protection des enfants. Ces actions au niveau de l’État reflètent une nécessité plutôt qu’une défiance envers l’autorité fédérale. Les mesures clés comprennent la Loi sur la Transparence de l’IA de 2025, qui s’attaque au contenu en ligne trompeur, et la loi SB 53, qui établit des normes de sécurité pour les systèmes d’IA puissants et protège les lanceurs d’alerte.
Cependant, ces réformes ne couvrent pas l’ensemble du champ d’application de la loi sur l’IA de l’UE et les protections souhaitées par les défenseurs. Des lacunes notables demeurent en matière de protection de la vie privée des localisations et d’équité algorithmique, avec une exigence proposée d’évaluation des systèmes automatisés reportée.
Ligne du temps sur les lignes directrices concernant l’interaction de la loi sur l’IA
La Commission Européenne prévoit de publier des lignes directrices expliquant comment la loi sur l’IA interagit avec d’autres lois numériques au troisième trimestre 2026, coïncidant potentiellement avec ou suivant l’implémentation des dispositions clés. Cette chronologie est particulièrement pertinente pour les systèmes d’IA à haut risque, dont les exigences fondamentales entreront en vigueur le 2 août 2026.
Les lignes directrices aborderont la relation de la loi sur l’IA avec des réglementations telles que la Réglementation sur les Dispositifs Médicaux, le Règlement Général sur la Protection des Données, la Loi sur les Marchés Numériques, la Loi sur les Services Numériques, les règles de droit d’auteur et le régime plus large de sécurité des produits. De plus, des éclaircissements sur les obligations à haut risque et leur application tout au long de la chaîne de valeur de l’IA sont attendus au deuxième ou troisième trimestre 2026, tandis que des clarifications sur les interactions des rapports d’incidents avec la législation sectorielle et horizontale suivront plus tard.
Pas de spécifications communes malgré des retards dans les normes de l’IA
La Commission Européenne ne prévoit pas de développer des exigences techniques obligatoires (spécifications communes) dans le cadre de la loi sur l’IA, malgré les retards dans la préparation des normes techniques nécessaires à la conformité légale. Ces spécifications étaient destinées à servir de solution de secours lorsque les normes techniques s’avéraient inadéquates ou retardées.
Les normes pour les systèmes d’IA à haut risque devraient arriver vers août 2026, coïncidant avec la date limite d’implémentation. Lors d’une réunion fermée avec le groupe de travail sur l’implémentation de la loi sur l’IA du Parlement Européen, les fonctionnaires de la Commission ont cité un manque de temps et de ressources pour développer des spécifications communes. Cette absence d’option de secours pourrait inciter les acteurs de l’industrie à retarder davantage l’établissement des normes, en particulier alors que ces retards ont déjà suscité des appels à reporter les exigences liées aux risques élevés.