La loi sur l’IA de l’UE vise la souveraineté numérique, rivalisant avec les États-Unis et la Chine
La loi sur l’intelligence artificielle (IA) de l’Union européenne (UE) fait partie des efforts du bloc pour réduire sa dépendance vis-à-vis des grandes entreprises technologiques non européennes et contrebalancer la domination des États-Unis et de la Chine dans le développement de l’IA.
Contexte et motivations
Adonis Bogris, professeur d’informatique et d’ingénierie informatique à l’Université de West Attica en Grèce, décrit la loi comme le premier cadre juridique complet au monde pour l’IA. La motivation principale est de construire sur le succès du Règlement général sur la protection des données (RGPD) de 2016, qui est devenu une référence mondiale en matière de protection des données.
La loi sur l’IA vise à établir une norme mondiale ambitieuse pour la réglementation de l’IA, tout en cherchant à être indépendante des grandes entreprises technologiques non européennes.
Objectifs stratégiques de l’UE
Le concept de souveraineté numérique est une question clé, l’UE cherchant à s’assurer que l’IA est substantiellement développée au sein de l’UE et respecte les valeurs et réglementations de l’UE. Cela permet de différencier l’IA développée dans l’UE de celle développée aux États-Unis et en Chine.
La loi vise également à créer un marché de l’IA équitable et compétitif, en empêchant les pratiques monopolistiques par les grandes entreprises technologiques.
Réglementation et éthique
Au-delà des considérations stratégiques et économiques, la loi sur l’IA a été motivée par des préoccupations éthiques concernant la prévalence croissante des applications d’IA à haut risque. Des biais ont été observés dans les systèmes d’IA, en particulier dans des domaines sensibles tels que la santé, les services financiers et l’application de la loi.
La loi vise à instaurer la confiance dans les systèmes d’IA tout en répondant à ces préoccupations. Elle introduit des exigences strictes, y compris des évaluations de risque obligatoires, des obligations de transparence et une supervision humaine pour les entreprises développant des technologies d’IA.
Impact sur les utilisateurs
Ces mesures devraient accroître les coûts de conformité pour les entreprises, mais elles promettent également des avantages significatifs pour les utilisateurs. Les utilisateurs disposeront d’une meilleure compréhension du fonctionnement des systèmes d’IA, en particulier dans des secteurs à haut risque tels que la santé, la finance et le recrutement, et s’assureront que les systèmes d’IA respectent les normes de sécurité et d’éthique.
Défis et avenir
Concernant les étapes supplémentaires nécessaires pour réguler l’IA, il est crucial d’accélérer l’établissement de mécanismes de surveillance et d’application clairement définis. L’UE doit continuer à dialoguer avec des organisations qui ont soulevé des préoccupations concernant les conséquences potentielles de la loi sur l’IA, notamment en ce qui concerne la surveillance, la vie privée, le biais algorithmique et la protection des données.
De plus, des inquiétudes subsistent quant à l’impact de l’IA sur l’emploi et l’environnement. La loi sur l’IA ne traite pas pleinement de l’impact environnemental de l’IA, en particulier en ce qui concerne l’augmentation des besoins énergétiques des centres de données.
Conclusion
La loi sur l’IA de l’UE constitue un pas significatif vers la régulation de l’intelligence artificielle en Europe. Alors que l’UE s’efforce de maintenir son cadre réglementaire dans un contexte de pression externe, il est impératif que le bloc développe un plan stratégique propre à la transformation numérique, l’IA étant l’un des leviers clés pour la souveraineté et le leadership.