Acte sur l’Intelligence Artificielle de l’UE – Implications pour les entreprises et stratégies de conformité
Entré en vigueur le 1er août 2024, l’Acte sur l’Intelligence Artificielle (AI Act) de l’Union européenne représente une avancée majeure dans la régulation de l’IA. Ce cadre réglementaire exhaustif vise à influencer les entreprises à l’échelle mondiale, couvrant pratiquement tous les secteurs. Étant donné que certaines parties de l’AI Act entreront en application à partir du 2 février 2025, les entreprises doivent envisager de développer et de mettre en œuvre des stratégies de conformité dès maintenant.
Objectifs de l’AI Act
L’AI Act a pour but de promouvoir une IA axée sur l’humain et digne de confiance tout en garantissant un haut niveau de sécurité, de protection des droits fondamentaux et de protection de l’environnement. Les législateurs espèrent également stimuler l’innovation et l’emploi, faisant de l’UE un leader dans le développement d’une IA sécurisée et éthique.
Approche basée sur le risque
L’AI Act adopte une approche basée sur le risque, qui repose sur l’auto-évaluation des systèmes d’IA par leurs fabricants, fournisseurs et déployeurs. Selon la catégorie de risque, certaines mesures doivent être prises, et dans certains cas, un système d’IA particulier ne peut même pas être exploité.
Champ d’application large
Le champ d’application de l’AI Act s’étend non seulement aux fournisseurs, importateurs, distributeurs et fabricants de systèmes d’IA, mais également aux déployeurs de ces systèmes, c’est-à-dire toute personne ou entité utilisant ou intégrant un système d’IA.
Pratiques d’IA interdites
L’AI Act interdit certaines pratiques d’IA, notamment :
- Les systèmes d’évaluation ou de classification des personnes basés sur leur comportement social.
- Les systèmes de reconnaissance faciale créés par le scraping non ciblé d’images faciales sur Internet.
- Les systèmes d’identification biométrique en temps réel dans des espaces accessibles au public.
Systèmes d’IA à haut risque
Un cadre spécifique est établi pour les systèmes dits à haut risque, qui incluent les systèmes critiques pour la sécurité. Tous les systèmes classés comme à haut risque doivent être enregistrés et sont soumis à un mécanisme de conformité strict.
Modèles d’IA à usage général
Des exigences distinctes sont introduites pour les modèles d’IA à usage général (GPAI), qui doivent maintenir une documentation technique à jour et informer les autorités compétentes sur demande.
Obligations de transparence
Les systèmes d’IA destinés à interagir avec les êtres humains doivent informer ces utilisateurs de leur interaction avec un système d’IA, sauf si cela est évident dans le contexte d’utilisation.
Sanctions
Des pénalités pour non-conformité, qui peuvent atteindre jusqu’à 35 millions d’euros ou 7 % du chiffre d’affaires annuel mondial, sont prévues pour ceux qui enfreignent l’AI Act.
Stratégies de conformité et prochaines étapes
Les entreprises doivent envisager de prendre des mesures proactives pour évaluer leurs pratiques en matière d’IA. Cela inclut :
- Réaliser une évaluation d’impact pour comprendre l’impact réglementaire de l’AI Act.
- Mettre en œuvre des mécanismes de conformité adaptés à leur rôle et à la catégorie de risque applicable.
- Surveiller le paysage réglementaire pour rester informé des directives et codes de conduite.
- S’engager dans un dialogue avec les régulateurs pour influencer les développements futurs.
Conclusion
Dans cette ère transformative de la régulation de l’IA, l’AI Act de l’UE représente à la fois un défi et une opportunité pour les entreprises de redéfinir leurs stratégies en matière d’IA. Adopter une approche réglementaire pragmatique peut favoriser l’innovation tout en minimisant les risques de conformité.