Le Plan d’Action de l’UE sur l’IA Face aux Lacunes en Matière de Confidentialité et de Conformité
Le Commission Européenne a récemment publié son Plan d’Action pour l’IA, visant à renforcer les capacités en intelligence artificielle à travers l’UE. Cependant, en le comparant aux cadres juridiques existants, notamment la Loi sur l’IA et le Règlement Général sur la Protection des Données (RGPD), plusieurs lacunes politiques émergent.
Les Infrastructures au Cœur de l’Action, mais l’Exécution Reste Floue
La Commission souhaite développer la capacité de calcul de l’Europe via des Usines d’IA et de plus grandes Gigafactories destinées à héberger 100 000 puces d’IA haut de gamme. L’initiative InvestAI, dotée de 20 milliards d’euros, financera cette démarche. Pourtant, le Plan d’Action ne fournit pas de détails sur la gestion de l’énergie de ces Gigafactories, ni sur le calendrier de déploiement.
En comparaison, l’Inde a commencé à développer une infrastructure publique pour l’IA sous la mission IndiaAI, bien qu’elle n’ait pas encore établi de feuille de route nationale pour le calcul.
Les Objectifs d’Accès aux Données Entrent en Conflit avec les Règles de Confidentialité Existantes
Le Plan d’Action et OpenAI s’accordent sur l’importance d’un accès à des données de haute qualité. La Commission envisage de créer des Laboratoires de Données et de lancer une Stratégie d’Union des Données. Cependant, le RGPD impose de fortes restrictions sur la réutilisation des données, même anonymisées, créant ainsi un flou juridique.
Aucune Voie Claire entre la Loi sur l’IA et le RGPD
Actuellement, la Loi sur l’IA et le RGPD fonctionnent en parallèle sans véritable connexion. La Loi sur l’IA se concentre sur la régulation des systèmes d’IA à haut risque, tandis que le RGPD traite de l’utilisation des données personnelles, y compris de la profilage automatisé. Cette absence de coordination complique la conformité pour les développeurs.
Les Startups Mentionnées, mais le Soutien Reste Limité
Le Plan d’Action promet de simplifier la conformité pour les petites entreprises. Cependant, ces soutiens prennent principalement la forme de documentation, sans aide financière substantielle. OpenAI souligne que ces supports sont souvent insuffisants pour les startups, en particulier celles développant des modèles à haut risque.
Les Modèles Fondamentaux Ne Correspondent Pas au Modèle Juridique Actuel
La Loi sur l’IA classe les systèmes d’IA par niveau de risque à leur création, ce qui ne fonctionne pas pour les modèles fondamentaux qui évoluent après leur déploiement. OpenAI appelle à une régulation adaptative permettant de surveiller ces modèles en utilisation.
Pourquoi Cela Compte
Le Plan d’Action de l’UE et OpenAI partagent une vision claire du développement de l’IA en Europe, mais cette vision n’est pas encore intégrée dans le cadre juridique. Les lacunes en matière d’exécution, les règles de confidentialité qui entravent l’innovation, et l’absence d’une régulation claire pour les modèles fondamentaux compliquent la mise en œuvre des plans de l’UE.
Pour les pays comme l’Inde qui développent encore leur politique en matière d’IA, cela rappelle l’importance d’intégrer l’infrastructure et la régulation pour éviter des problèmes similaires.