Ireland renforce son cadre réglementaire pour l’intelligence artificielle

A blueprint of a digital landscape to symbolize the framework of AI regulation.

Ireland Appoints Its AI Act Competent Authorities

Le 4 mars 2025, le gouvernement irlandais a approuvé une recommandation du ministre de l’Entreprise, du Tourisme et de l’Emploi, Peter Burke, pour mettre en œuvre un modèle réglementaire distribué pour l’application de la Directive sur l’Intelligence Artificielle (IA) de l’UE. Cette décision marque une étape significative dans le cadre de gouvernance de l’IA en Irlande et s’aligne sur l’ambition du pays de se positionner comme un centre clé d’expertise en matière de régulation numérique et de données au sein de l’UE.

Désignations Réglementaires Clés Selon l’Article 70

Le gouvernement a désigné huit organismes publics comme autorités compétentes nationales en vertu de l’Article 70 de la Directive IA. Cet article exige que chaque État membre de l’UE établisse ou désigne au moins une autorité de notification et une autorité de surveillance du marché pour la surveillance de l’IA. Ces autorités seront responsables de la supervision de l’application de la Directive IA dans leurs secteurs respectifs :

  • Banque centrale d’Irlande (CBI) – Surveillance des applications d’IA dans les services financiers, y compris le trading algorithmique et les évaluations de risque de crédit.
  • Commission pour la régulation des communications (ComReg) – Régulation de l’infrastructure téléphonique et des communications numériques alimentées par l’IA.
  • Commission pour la régulation des chemins de fer (CRR) – Supervision de l’utilisation de l’IA dans les systèmes ferroviaires, garantissant la sécurité et la conformité.
  • Commission de la concurrence et de la protection des consommateurs (CCPC) – Garantie d’une concurrence loyale et des droits des consommateurs sur les marchés alimentés par l’IA.
  • Commission de protection des données (DPC) – Surveillance des applications d’IA impliquant des données personnelles, en conformité avec les obligations du RGPD.
  • Autorité de la santé et de la sécurité (HSA) – Régulation des applications d’IA liées à la santé au travail et à la sécurité.
  • Autorité de régulation des produits de santé (HPRA) – Supervision de l’utilisation de l’IA dans les dispositifs médicaux et les produits pharmaceutiques.
  • Bureau de l’enquête maritime (Ministère des Transports) – Surveillance des applications d’IA dans le transport maritime et la sécurité.

Ces autorités seront responsables de l’application des dispositions de la Directive IA applicables à leurs secteurs respectifs, garantissant la conformité avec les classifications de risque de l’IA et coordonnant avec d’autres organismes de réglementation pour faire face aux défis intersectoriels.

Un régulateur principal sera désigné ultérieurement pour coordonner l’application et superviser les fonctions centralisées, assurant la cohérence de l’approche réglementaire de l’Irlande en matière d’IA.

Différences Entre les Désignations de l’Article 70 et les Autorités des Droits Fondamentaux de l’Article 77

Ce processus de désignation en vertu de l’Article 70 est distinct de la nomination précédente par l’Irlande d’autorités publiques nationales sous l’Article 77 de la Directive IA, qui se concentre spécifiquement sur la protection des droits fondamentaux. En novembre 2024, le gouvernement a désigné neuf autorités sous l’Article 77 pour superviser et appliquer l’impact de l’IA sur les droits fondamentaux, y compris la non-discrimination, l’intégrité électorale et la protection des consommateurs. Ces autorités, telles que la Commission de protection des données (DPC), Coimisiún na Meán, et la Commission irlandaise des droits de l’homme et de l’égalité (IHREC), ont des pouvoirs spécifiques pour accéder à la documentation sur l’IA, effectuer des évaluations techniques et demander des tests de conformité des systèmes d’IA à haut risque lorsque des préoccupations relatives aux droits fondamentaux surviennent.

En revanche, les autorités de l’Article 70 sont chargées de l’application et de l’exécution plus larges de la Directive IA, garantissant la conformité à travers tous les systèmes d’IA réglementés, y compris la surveillance du marché et les évaluations de conformité technique.

Obligations Réglementaires et Prochaines Étapes

En vertu de l’Article 70, les États membres doivent :

  • Communiquer l’identité de leurs autorités de notification et de surveillance du marché à la Commission européenne d’ici le 2 août 2025.
  • Désigner un point de contact unique responsable de la coordination centralisée de l’application de la Directive IA.
  • Assurer que les autorités disposent de ressources techniques, financières et humaines adéquates, y compris une expertise en technologies de l’IA, en protection des données, en cybersécurité et en droits fondamentaux.
  • Fournir des coordonnées publiques pour les autorités compétentes afin de faciliter la communication avec les fournisseurs, les déployeurs et les parties prenantes de l’IA ; et
  • Faire rapport à la Commission européenne tous les deux ans sur l’adéquation des ressources financières et humaines allouées aux autorités compétentes nationales.

De plus, ces autorités peuvent fournir des conseils et des orientations aux entreprises, en particulier aux PME et aux startups, pour soutenir la conformité avec la Directive IA. Cela sera essentiel pour garantir que les entreprises irlandaises comprennent leurs obligations dans le nouveau cadre, en particulier pour les applications d’IA à haut risque.

Implications Juridiques et de Conformité pour les Entreprises

Pour les entreprises exploitant des systèmes d’IA en Irlande, la nomination de ces autorités marque le début d’une phase active d’application réglementaire sous la Directive IA. Les entreprises développant ou déployant de l’IA dans des secteurs réglementés doivent immédiatement évaluer leurs obligations de conformité, en particulier celles dont les systèmes d’IA sont classés comme à haut risque en vertu de la loi.

Les étapes clés pour les entreprises incluent :

  • Cartographie des Déploiements d’IA – Identifier si leurs systèmes d’IA relèvent de catégories à haut risque (par exemple, emploi, services financiers, santé, application de la loi).
  • Engagement avec les Autorités Compétentes – Comprendre les attentes réglementaires spécifiques au secteur et les orientations fournies par l’autorité concernée.
  • Mise en Œuvre des Mesures de Conformité – Assurer la conformité technique et procédurale avec les exigences de la Directive IA, y compris les évaluations des risques, la gouvernance des données et les obligations de transparence.
  • Préparation à la Surveillance du Marché – Assurer que les systèmes d’IA sont bien documentés et capables de répondre aux exigences des organismes de réglementation désignés.

L’Approche de l’Irlande en Matière de Gouvernance de l’IA

La décision de l’Irlande d’adopter un modèle distribué pour la régulation de l’IA reflète son paysage réglementaire sectoriel et vise à fournir aux entreprises un chemin de conformité clair et familier. Le gouvernement a positionné ce modèle comme un moyen d’assurer une surveillance efficace tout en favorisant l’innovation. Le ministre Burke a souligné que l’approche de l’Irlande garantira que l’adoption de l’IA se déroule de manière fiable, sécurisée et alignée sur les objectifs de croissance économique.

Avec d’autres désignations, y compris la nomination d’un régulateur principal, attendues dans les mois à venir, les entreprises exploitant des systèmes d’IA en Irlande doivent rester étroitement engagées avec les développements réglementaires pour garantir leur conformité avec le cadre en évolution.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...