Qui est responsable de l’application des interdictions de la loi sur l’IA en Irlande ? L’État ne sait pas
Dans moins de trois semaines, l’Irlande doit informer la Commission européenne des noms des régulateurs responsables pour la loi sur l’IA de l’UE. Pourtant, l’État ne sait toujours pas qui seront ces régulateurs. Cette incertitude est préoccupante pour les régulateurs, les citoyens, la société civile et les entreprises.
Pour l’Irlande, qui s’apprête à prendre la présidence du Conseil européen, la loi sur l’IA représente une opportunité de redresser la situation après une décennie de scandales liés à la fiscalité, à la technologie et à l’application des données. L’État se concentrera sur l’IA pendant sa présidence de l’UE l’année prochaine. Cependant, le mauvais dossier d’application des technologies en Irlande risque de se poursuivre avec l’IA, à moins que l’État ne prenne des mesures immédiates.
Urgence de désigner les autorités de surveillance du marché
Le 3 juillet, une lettre a été envoyée au Ministre de l’Entreprise, du Tourisme et de l’Emploi par une organisation de défense des droits, exhortant à désigner rapidement les « autorités de surveillance du marché » (MSAs), qui sont les régulateurs chargés d’appliquer les interdictions prévues par la loi sur l’IA. Cette démarche est urgente, car ces autorités seront responsables de l’application des interdictions sur les IA dangereuses dans quelques jours, dès le 2 août 2025.
Incertitude parlementaire
Lors d’une question parlementaire, le Ministre n’a pas été en mesure de nommer les MSAs responsables de l’application des interdictions la semaine dernière. Cela signifie qu’aucun régulateur ne sait s’il est responsable de la surveillance des systèmes de recommandation de Tiktok qui nuisent gravement aux enfants.
Régulateurs pour les usages « à haut risque » de l’IA
L’Irlande doit également désigner des régulateurs pour les usages « à haut risque » de l’IA d’ici le 2 août. Jusqu’à présent, l’État n’a désigné qu’un seul régulateur, la Commission de protection des données, qui est responsable de trois des huit usages à haut risque de l’IA. Pour tous les autres, y compris l’éducation, les infrastructures critiques et l’accès aux services essentiels, le Ministre n’a pu que dire que « les arrangements doivent être finalisés ».
Obligations légales de l’État
L’État est tenu par la loi de l’UE de fournir aux régulateurs des ressources techniques, financières et humaines adéquates, ainsi que des infrastructures, d’ici le 2 août. Il ne peut pas le faire s’il ne sait pas qui seront ces régulateurs.
Cette situation soulève des questions cruciales sur la capacité de l’État à gérer efficacement les défis posés par l’IA, ainsi que sur la protection des droits des citoyens dans un paysage technologique en constante évolution.