Étude sur l’Acte Européen sur l’Intelligence Artificielle
L’Artificial Intelligence Act de l’Union Européenne (EU AI Act), entré en vigueur le 1er août 2024 et applicable pleinement à partir du 2 août 2026, représente une avancée majeure dans la régulation mondiale de l’IA. En tant que premier cadre normatif complet pour les systèmes d’IA au sein de l’UE, il introduit un approche basée sur le risque pour assurer un développement et une utilisation responsables des technologies d’IA.
Ambit de l’application
L’EU AI Act définit un système d’IA comme “un système basé sur des machines conçu pour fonctionner avec différents niveaux d’autonomie et capable de montrer une adaptabilité après son déploiement”. Cette définition large englobe un large éventail d’applications d’IA, allant des modèles de machine learning aux systèmes experts. L’acte s’applique à :
- Fournisseurs introduisant des systèmes d’IA sur le marché de l’UE ou les mettant en service.
- Utilisateurs de systèmes d’IA au sein de l’UE.
- Fournisseurs et utilisateurs de pays tiers si les résultats des systèmes d’IA sont utilisés dans l’UE.
De plus, l’acte couvre également les modèles d’IA à usage général (GPAI models), reflétant son champ d’application complet.
Classification basée sur le risque
L’acte classe les systèmes d’IA en quatre niveaux de risque :
- Risque inacceptable : les systèmes d’IA qui représentent une menace claire pour la sécurité, le bien-être ou les droits sont prohibés. Exemples incluent l’IA pour le score social par les gouvernements.
- Risque élevé : systèmes d’IA ayant un impact significatif sur les droits ou la sécurité des personnes, comme ceux utilisés dans des infrastructures critiques, l’éducation, l’emploi et les forces de l’ordre. Ces systèmes sont soumis à des exigences strictes, y compris :
- Systèmes de gestion des risques robustes.
- Datasets de haute qualité pour minimiser les risques et les discriminations.
- Documentation détaillée pour la transparence.
- Supervision humaine pour garantir un fonctionnement approprié.
- Hauts niveaux de précision, robustesse et sécurité informatique.
- Risque limité : systèmes d’IA avec des obligations spécifiques de transparence, comme les chatbots qui doivent déclarer leur nature d’IA aux utilisateurs.
- Risque minimum ou nul : systèmes d’IA ayant un impact minimal, comme les filtres anti-spam ou les jeux vidéo habilités à l’IA, qui sont largement non régulés par l’acte.
Obligations pour les entreprises d’IA
Pour les entreprises d’IA, en particulier celles traitant des systèmes d’IA à haut risque, l’acte impose plusieurs obligations :
- Gouvernance des données : garantir la qualité et l’intégrité des données utilisées pour l’entraînement des modèles d’IA afin de prévenir les biais et les erreurs.
- Documentation technique : maintenir une documentation complète fournissant transparence sur l’objectif, le design et les performances du système d’IA.
- Conservation des registres : conserver les registres des opérations du système d’IA pour faciliter la traçabilité et la responsabilité.
- Transparence et information : informer les utilisateurs sur les capacités et limitations du système d’IA.
- Supervision humaine : mettre en œuvre des mesures permettant l’intervention humaine lorsque nécessaire pour prévenir ou atténuer les risques.
- Robustesse, précision et sécurité : garantir que les systèmes d’IA fonctionnent de manière fiable et sont protégés contre les vulnérabilités.
Le non-respect de ces obligations peut entraîner des amendes substantielles, allant jusqu’à 35 millions d’euros ou 7% du chiffre d’affaires annuel mondial de l’entreprise, selon ce qui est le plus élevé.
Implications pour les entreprises d’IA
L’EU AI Act a des implications significatives pour les entreprises d’IA qui opèrent ou visent le marché de l’UE :
- Coûts de conformité : les entreprises pourraient devoir investir dans des infrastructures de conformité, y compris l’embauche d’experts juridiques et la mise en œuvre de nouvelles structures de gouvernance.
- Considérations sur l’innovation : bien que l’acte vise à promouvoir une IA fiable, certaines entreprises expriment des préoccupations quant au fait que des réglementations strictes pourraient freiner l’innovation.
- Influence mondiale : il est prévu que l’acte établisse un précédent, influençant les réglementations sur l’IA à l’échelle mondiale. Les entreprises pourraient devoir adapter leurs pratiques non seulement pour le marché de l’UE, mais également en prévision de réglementations similaires dans d’autres juridictions.
Étapes de préparation pour les entreprises d’IA
Pour faire face aux complexités de l’EU AI Act, les entreprises d’IA devraient envisager les étapes suivantes :
- Effectuer un audit complet : évaluer tous les systèmes d’IA pour déterminer leur classification de risque selon l’acte.
- Développer des stratégies de conformité : pour les systèmes d’IA à haut risque, mettre en œuvre les mesures nécessaires pour satisfaire aux exigences de l’acte, y compris la gouvernance des données et les mécanismes de supervision humaine.
- Collaborer avec des experts juridiques : consulter des professionnels juridiques spécialisés dans l’IA et les réglementations de l’UE pour garantir une compréhension approfondie et la conformité.
- Surveiller les développements réglementaires : rester informé des orientations et des mises à jour relatives à l’acte pour adapter les stratégies de conformité en conséquence.
En abordant proactivement ces domaines, les entreprises d’IA peuvent s’aligner sur le cadre réglementaire de l’UE, atténuer les risques et continuer à innover de manière responsable dans l’évolution de la gouvernance de l’IA.