Irlande : publication du schéma pour l’application nationale de la loi sur l’intelligence artificielle de 2026
Le gouvernement irlandais a publié le schéma général de la loi sur la régulation de l’intelligence artificielle de 2026, marquant le développement le plus significatif de la régulation de l’IA en Irlande à ce jour.
Ce plan législatif transforme le règlement de l’intelligence artificielle de l’UE en un système opérationnel de mise en œuvre en Irlande, capable d’imposer des pénalités atteignant 7 % du chiffre d’affaires mondial pour les violations les plus graves. Pour les entreprises opérant en Irlande en tant que fournisseurs, déployeurs, distributeurs ou importateurs de systèmes d’IA, cette publication offre la première vue détaillée de l’architecture législative et réglementaire qui régira la conformité en matière d’IA.
Modèle de régulation distribué avec coordination centrale
L’Irlande a choisi un modèle réglementaire distinct qui diffère des approches centralisées adoptées par certains autres États membres. Plutôt que de créer un régulateur unique de l’IA, le gouvernement habilitera treize autorités sectorielles existantes à superviser les systèmes d’IA dans leurs domaines tout en établissant un nouveau corps central pour coordonner l’approche nationale. Ce modèle distribué reflète la façon dont l’IA touche pratiquement tous les secteurs réglementés.
Les autorités de surveillance du marché pertinentes pour différents secteurs ont été identifiées, notamment :
- La Banque centrale pour les services financiers réglementés
- Coimisiún na Meán pour les services de médias audiovisuels
- La Commission pour la régulation des utilités pour les applications dans le secteur de l’énergie
- La Commission des relations de travail pour les systèmes d’IA utilisés dans les contextes d’emploi
- La Commission de protection des données pour les droits fondamentaux liés aux données personnelles
- Le HSE pour certaines utilisations de l’IA à haut risque dans les services de santé publique essentiels
Bureau de l’IA d’Irlande
Pour éviter la fragmentation et garantir la cohérence dans ce paysage distribué, le schéma propose d’établir un nouveau corps statutaire appelé Bureau de l’IA d’Irlande. Ce bureau disposera de pouvoirs statutaires indépendants, dirigé par un directeur général et un conseil de sept membres nommés par le ministre compétent. Le bureau servira de point de contact unique pour les entreprises basées en Irlande concernant les questions réglementaires liées à l’IA.
Les fonctions statutaires du bureau incluent :
- Faciliter une application cohérente à travers les treize autorités sectorielles
- Maintenir un pool centralisé d’experts techniques pour évaluer les systèmes d’IA complexes
- Compiler et partager des données sur les incidents d’IA et les questions de conformité
- Représenter l’Irlande lors des réunions de la Commission européenne sur l’IA
Pouvoirs d’application et défis de classification
Les pouvoirs d’application accordés aux autorités de surveillance sont étendus, reflétant ceux contenus dans le règlement de surveillance du marché de l’UE. Les autorités peuvent :
- Exiger des documents pertinents pour démontrer la conformité avec la loi sur l’IA
- Réaliser des inspections sur site annoncées et non annoncées
- Obtenir des échantillons de produits par le biais d’opérations sous couverture
- Tester des systèmes d’IA et exiger l’accès aux logiciels intégrés
Pour la distribution en ligne, les autorités peuvent exiger la suppression de contenu ou la restriction d’accès lorsque les systèmes d’IA présentent des risques ou violent des exigences réglementaires.
Les autorités de surveillance peuvent également remettre en question les classifications de risque. Si une autorité soupçonne que l’évaluation d’un système comme étant en dehors de la catégorie à haut risque est incorrecte, elle peut exiger une évaluation formelle, ce qui peut entraîner l’application de toutes les obligations à haut risque suite à une reclassification.
Le régime des sanctions
Le régime des sanctions administratives proposé crée une exposition financière à une échelle qui place la conformité à l’IA au même niveau de risque que l’application du RGPD. Les pratiques d’IA interdites peuvent entraîner des amendes maximales atteignant 35 millions d’euros ou 7 % du chiffre d’affaires mondial annuel, selon le montant le plus élevé. Pour la non-conformité aux obligations applicables aux systèmes d’IA à haut risque, le maximum atteint 15 millions d’euros ou 3 % du chiffre d’affaires mondial.
Le processus de sanctions prévoit des garanties procédurales substantielles. Les procédures d’application commencent par un avis de non-conformité suspectée, suivi d’une période de notification pour des représentations écrites. En cas d’adjudication formelle, les affaires sont entendues par des adjudicateurs indépendants nommés par le bureau de l’IA.
Implications pratiques pour les entreprises
Le modèle réglementaire distribué implique que la première question de conformité est juridictionnelle, nécessitant que les entreprises comprennent quelle autorité sectorielle supervisera leur cas d’utilisation de l’IA. Le pouvoir des autorités de contester les classifications de risque rend la documentation défendable essentielle. Les entreprises doivent conserver des enregistrements clairs démontrant pourquoi leurs systèmes d’IA relèvent ou non des catégories à haut risque.
Les exigences de surveillance post-commercialisation et d’obligation de rapport d’incidents graves créent des responsabilités de conformité continues qui s’étendent bien au-delà du déploiement initial du système. Un investissement précoce dans la construction des capacités de conformité avant le début des actions d’application est considérablement plus rentable que des réponses réactives après une intervention réglementaire.