Acte sur l’Intelligence Artificielle de l’UE – Implications pour les entreprises et stratégies de conformité
L’Acte sur l’Intelligence Artificielle de l’UE, entré en vigueur le 1er août 2024, marque le début d’une nouvelle ère dans la régulation de l’IA. Il établit un cadre réglementaire étendu qui affectera les entreprises du monde entier.
Objectifs de l’Acte
L’AI Act vise à promouvoir une IA centrée sur l’humain tout en garantissant un haut niveau de sécurité, de droits fondamentaux et de protection de l’environnement. En parallèle, il aspire à stimuler l’innovation et l’emploi.
Approche basée sur le risque
Le cadre réglementaire de l’AI Act repose sur une auto-évaluation des systèmes d’IA par leurs fabricants et déployeurs, selon des catégories de risque spécifiques. Des mesures doivent être prises en fonction de la catégorie déterminée.
Champ d’application large
L’AI Act s’applique non seulement aux fournisseurs et fabricants de systèmes d’IA, mais également aux déployeurs, c’est-à-dire à toute personne ou entité utilisant un système d’IA. Il a également une portée extraterritoriale, couvrant des entreprises basées hors de l’UE qui offrent des services sur le marché européen.
Pratiques d’IA interdites
Certains usages de l’IA sont prohibés, notamment :
- Évaluation sociale des personnes basée sur leur comportement.
- Création de bases de données de reconnaissance faciale par le scraping non ciblé d’images.
- Systèmes d’identification biométrique en temps réel dans des espaces accessibles au public.
Systèmes d’IA à haut risque
Les systèmes classés comme à haut risque doivent être enregistrés dans une base de données maintenue par la Commission européenne avant leur mise à disposition. Ils sont soumis à un mécanisme de conformité détaillé.
Modèles d’IA à usage général
Des exigences spécifiques s’appliquent aux modèles d’IA à usage général, définis comme des modèles capables d’effectuer une large gamme de tâches. Les fournisseurs de ces modèles doivent maintenir une documentation technique à jour.
Obligations de transparence
Les fournisseurs doivent informer les utilisateurs lorsqu’ils interagissent avec un système d’IA, sauf si cela est évident dans le contexte d’utilisation.
Sanctions
Des pénalités pour non-conformité ont été établies, pouvant atteindre jusqu’à 35 millions d’euros ou 7 % du chiffre d’affaires mondial, en cas de pratiques d’IA prohibées.
Stratégies de conformité
Les entreprises doivent prendre des mesures proactives pour évaluer leurs pratiques d’IA :
- Évaluation d’impact : Comprendre l’impact réglementaire de l’AI Act.
- Mécanismes de conformité : Concevoir des stratégies adaptées à la taille et à la culture de l’organisation.
- Surveillance : Rester informé des évolutions réglementaires et des lignes directrices.
Aperçu
Dans cette ère transformative de la régulation de l’IA, l’AI Act représente à la fois un défi et une opportunité pour les entreprises de redéfinir leurs stratégies d’IA.