L’Acte sur l’IA de l’UE : Les Premières Obligations Entrent en Vigueur
Avec l’Acte sur l’IA, l’UE vise à créer un cadre juridique uniforme pour le développement, la mise sur le marché, le service et l’utilisation des systèmes d’IA au sein de l’UE. Cette initiative est en accord avec les valeurs de l’UE ; à savoir, promouvoir l’adoption d’une IA centrée sur l’humain et fiable, tout en garantissant un haut niveau de protection de la santé, de la sécurité et des droits fondamentaux, tels qu’énoncés dans la Charte des droits fondamentaux de l’Union européenne.
L’Acte sur l’IA s’applique aux fournisseurs qui mettent des systèmes d’IA sur le marché ou les mettent en service, ainsi qu’aux utilisateurs qui utilisent ces systèmes. Par exemple, en tant qu’employeur, si vous utilisez des systèmes d’IA – par exemple, dans le processus de recrutement – vous devrez principalement tenir compte des obligations des utilisateurs.
Compétence en IA
La première obligation qui est maintenant entrée en vigueur (depuis le 2 février 2025) est d’assurer un niveau suffisant de compétence en IA. L’objectif est de garantir que toutes les personnes impliquées dans les systèmes d’IA au sein de l’organisation disposent des compétences et des connaissances nécessaires pour prendre des décisions éclairées et utiliser les systèmes d’IA de manière responsable.
Lors de la mise en œuvre de mesures pour garantir un niveau suffisant de compétence en IA, les facteurs suivants doivent être pris en compte :
- les connaissances techniques, l’expérience, l’éducation et la formation du personnel et des autres personnes s’occupant de l’exploitation et de l’utilisation des systèmes d’IA ; et
- le contexte dans lequel les systèmes d’IA doivent être utilisés.
Les employeurs couverts par les règles devraient également considérer les personnes ou groupes de personnes sur lesquels les systèmes d’IA seront utilisés.
L’Acte sur l’IA ne précise pas quelles mesures un employeur doit prendre pour atteindre un niveau de compétence en IA « suffisant ». Cela rend difficile la démonstration de la conformité à cette obligation, mais cela offre également une opportunité aux employeurs de déterminer ce qui est « suffisant » pour leur organisation et leurs employés.
Pour cette raison, les organisations qui utilisent des systèmes d’IA devraient organiser des cours de formation sur la compétence en IA. La mise en œuvre d’une politique détaillée sur l’utilisation responsable de l’IA contribuerait également à respecter l’obligation de compétence en IA.
Cependant, tous les employés n’ont pas besoin d’atteindre le même niveau de compétence en IA. Ce n’est pas une obligation « universelle », mais celle qui nécessite une approche plus sur mesure. Néanmoins, chacun qui entre en contact avec l’IA est censé comprendre les principes de base, ainsi que pouvoir traiter de manière responsable et critique avec les systèmes d’IA. La conformité à cette obligation est un processus continu et dynamique.
Pratiques d’IA interdites
Depuis le 2 février 2025, l’Acte sur l’IA interdit un certain nombre de pratiques en matière d’IA jugées inacceptables. Ces pratiques sont contraires aux normes et valeurs fondamentales européennes, telles que la violation des droits fondamentaux énoncés dans la Charte.
Par exemple, les pratiques d’IA suivantes (entre autres) sont désormais interdites :
- Les systèmes d’IA qui déploient des techniques subliminales au-delà de la conscience d’une personne ou des techniques manipulatrices ou trompeuses. Cela inclut les systèmes qui poussent les gens à prendre des décisions qu’ils ne prendraient pas autrement, ce qui peut entraîner des dommages significatifs ;
- Les systèmes d’IA qui exploitent les vulnérabilités d’une personne ou d’un groupe de personnes en raison de leur âge ou de leur handicap, perturbant matériellement leur comportement, ce qui peut entraîner des dommages significatifs ;
- Les systèmes d’IA qui évaluent ou classifient les personnes en fonction de leur comportement social ou de leurs caractéristiques personnelles ou de personnalité connues, inférées ou prédites (connu sous le nom de notation sociale) et qui entraînent un traitement défavorable ;
- Les systèmes d’IA qui créent ou étendent des bases de données de reconnaissance faciale par le biais du scraping non ciblé d’images faciales sur Internet ou de séquences de vidéosurveillance ; et
- Les systèmes d’IA qui infèrent les émotions d’une personne, sauf lorsque le système d’IA est utilisé pour des raisons médicales ou de sécurité.
Les entreprises qui développent ou utilisent des pratiques d’IA interdites seront soumises à des amendes administratives allant jusqu’à 35 millions d’euros ou, si l’auteur est une entreprise, jusqu’à 7 % de son chiffre d’affaires annuel mondial total, selon le montant le plus élevé. Lors de l’imposition d’amendes aux PME et aux start-ups, leurs intérêts et leur viabilité économique sont pris en compte, et une amende inférieure peut être imposée.
Politique d’IA
Conformément à ses obligations en vertu de l’Acte sur l’IA, l’Office de l’IA de l’UE encouragera et facilitera l’élaboration de codes de pratique, en tenant compte des approches internationales.
Le terme codes de conduite est interprété assez largement dans ce contexte, et il n’est pas tout à fait clair si cela inclut également une politique d’IA ou non. Néanmoins, l’établissement d’une telle politique est certainement recommandé. Dans une politique d’IA, les employeurs peuvent créer des lignes directrices claires pour l’utilisation de l’IA au sein de l’entreprise. Cela peut inclure quels systèmes d’IA peuvent être utilisés, par qui, et dans quelle mesure les systèmes d’IA peuvent être utilisés en ce qui concerne certains employés. La politique peut également déterminer comment le personnel peut rester suffisamment compétent en IA.
Conclusion pour les employeurs
Les premières obligations en vertu de l’Acte sur l’IA sont désormais en vigueur. Cette régulation mondiale tant attendue sur l’IA commence à prendre racine dans le monde réel des affaires, et il est donc important que les employeurs soient pleinement conscients de leurs obligations. Les employeurs devraient :
- Cartographier quels systèmes d’IA sont utilisés au sein de leur organisation ;
- Qualifier ces systèmes d’IA en fonction de leur niveau de risque ; et
- Arrêter d’utiliser tout système d’IA qui présente un niveau de risque inacceptable.
Par la suite, ils devraient évaluer le niveau actuel de compétence en IA au sein de l’organisation et déterminer quelles mesures supplémentaires sont nécessaires (par exemple, formation, réglementations internes, etc.).
Bien que cela ne soit pas obligatoire, nous recommandons également de rédiger une politique d’IA avec des lignes directrices claires sur l’utilisation de l’IA au sein de l’entreprise. Nous pensons que l’élaboration d’une politique d’IA est un moyen relativement simple et accessible pour les employeurs de faire le premier pas vers l’atteinte d’un niveau suffisant de compétence en IA.
Enfin, il est important de garder un œil sur les développements à venir : les prochaines obligations en vertu de l’Acte sur l’IA entreront en vigueur le 2 août 2025.
Comme exploré ci-dessus, les conséquences d’une mauvaise application sont significatives. Nous recommandons donc aux employeurs de considérer la possibilité de demander des conseils juridiques professionnels s’ils ont des questions concernant les ressources humaines, la vie privée et l’IA au sein de leur organisation, ou s’ils souhaitent obtenir de l’aide pour élaborer une politique d’IA ou organiser des cours de formation.