L’impact du règlement sur l’IA de l’UE sur les entreprises

A blueprint illustrating the structured approach to AI compliance.

L’Acte sur l’IA de l’UE : Les Premières Obligations Entrent en Vigueur

Avec l’Acte sur l’IA, l’UE vise à créer un cadre juridique uniforme pour le développement, la mise sur le marché, le service et l’utilisation des systèmes d’IA au sein de l’UE. Cette initiative est en accord avec les valeurs de l’UE ; à savoir, promouvoir l’adoption d’une IA centrée sur l’humain et fiable, tout en garantissant un haut niveau de protection de la santé, de la sécurité et des droits fondamentaux, tels qu’énoncés dans la Charte des droits fondamentaux de l’Union européenne.

L’Acte sur l’IA s’applique aux fournisseurs qui mettent des systèmes d’IA sur le marché ou les mettent en service, ainsi qu’aux utilisateurs qui utilisent ces systèmes. Par exemple, en tant qu’employeur, si vous utilisez des systèmes d’IA – par exemple, dans le processus de recrutement – vous devrez principalement tenir compte des obligations des utilisateurs.

Compétence en IA

La première obligation qui est maintenant entrée en vigueur (depuis le 2 février 2025) est d’assurer un niveau suffisant de compétence en IA. L’objectif est de garantir que toutes les personnes impliquées dans les systèmes d’IA au sein de l’organisation disposent des compétences et des connaissances nécessaires pour prendre des décisions éclairées et utiliser les systèmes d’IA de manière responsable.

Lors de la mise en œuvre de mesures pour garantir un niveau suffisant de compétence en IA, les facteurs suivants doivent être pris en compte :

  • les connaissances techniques, l’expérience, l’éducation et la formation du personnel et des autres personnes s’occupant de l’exploitation et de l’utilisation des systèmes d’IA ; et
  • le contexte dans lequel les systèmes d’IA doivent être utilisés.

Les employeurs couverts par les règles devraient également considérer les personnes ou groupes de personnes sur lesquels les systèmes d’IA seront utilisés.

L’Acte sur l’IA ne précise pas quelles mesures un employeur doit prendre pour atteindre un niveau de compétence en IA « suffisant ». Cela rend difficile la démonstration de la conformité à cette obligation, mais cela offre également une opportunité aux employeurs de déterminer ce qui est « suffisant » pour leur organisation et leurs employés.

Pour cette raison, les organisations qui utilisent des systèmes d’IA devraient organiser des cours de formation sur la compétence en IA. La mise en œuvre d’une politique détaillée sur l’utilisation responsable de l’IA contribuerait également à respecter l’obligation de compétence en IA.

Cependant, tous les employés n’ont pas besoin d’atteindre le même niveau de compétence en IA. Ce n’est pas une obligation « universelle », mais celle qui nécessite une approche plus sur mesure. Néanmoins, chacun qui entre en contact avec l’IA est censé comprendre les principes de base, ainsi que pouvoir traiter de manière responsable et critique avec les systèmes d’IA. La conformité à cette obligation est un processus continu et dynamique.

Pratiques d’IA interdites

Depuis le 2 février 2025, l’Acte sur l’IA interdit un certain nombre de pratiques en matière d’IA jugées inacceptables. Ces pratiques sont contraires aux normes et valeurs fondamentales européennes, telles que la violation des droits fondamentaux énoncés dans la Charte.

Par exemple, les pratiques d’IA suivantes (entre autres) sont désormais interdites :

  • Les systèmes d’IA qui déploient des techniques subliminales au-delà de la conscience d’une personne ou des techniques manipulatrices ou trompeuses. Cela inclut les systèmes qui poussent les gens à prendre des décisions qu’ils ne prendraient pas autrement, ce qui peut entraîner des dommages significatifs ;
  • Les systèmes d’IA qui exploitent les vulnérabilités d’une personne ou d’un groupe de personnes en raison de leur âge ou de leur handicap, perturbant matériellement leur comportement, ce qui peut entraîner des dommages significatifs ;
  • Les systèmes d’IA qui évaluent ou classifient les personnes en fonction de leur comportement social ou de leurs caractéristiques personnelles ou de personnalité connues, inférées ou prédites (connu sous le nom de notation sociale) et qui entraînent un traitement défavorable ;
  • Les systèmes d’IA qui créent ou étendent des bases de données de reconnaissance faciale par le biais du scraping non ciblé d’images faciales sur Internet ou de séquences de vidéosurveillance ; et
  • Les systèmes d’IA qui infèrent les émotions d’une personne, sauf lorsque le système d’IA est utilisé pour des raisons médicales ou de sécurité.

Les entreprises qui développent ou utilisent des pratiques d’IA interdites seront soumises à des amendes administratives allant jusqu’à 35 millions d’euros ou, si l’auteur est une entreprise, jusqu’à 7 % de son chiffre d’affaires annuel mondial total, selon le montant le plus élevé. Lors de l’imposition d’amendes aux PME et aux start-ups, leurs intérêts et leur viabilité économique sont pris en compte, et une amende inférieure peut être imposée.

Politique d’IA

Conformément à ses obligations en vertu de l’Acte sur l’IA, l’Office de l’IA de l’UE encouragera et facilitera l’élaboration de codes de pratique, en tenant compte des approches internationales.

Le terme codes de conduite est interprété assez largement dans ce contexte, et il n’est pas tout à fait clair si cela inclut également une politique d’IA ou non. Néanmoins, l’établissement d’une telle politique est certainement recommandé. Dans une politique d’IA, les employeurs peuvent créer des lignes directrices claires pour l’utilisation de l’IA au sein de l’entreprise. Cela peut inclure quels systèmes d’IA peuvent être utilisés, par qui, et dans quelle mesure les systèmes d’IA peuvent être utilisés en ce qui concerne certains employés. La politique peut également déterminer comment le personnel peut rester suffisamment compétent en IA.

Conclusion pour les employeurs

Les premières obligations en vertu de l’Acte sur l’IA sont désormais en vigueur. Cette régulation mondiale tant attendue sur l’IA commence à prendre racine dans le monde réel des affaires, et il est donc important que les employeurs soient pleinement conscients de leurs obligations. Les employeurs devraient :

  • Cartographier quels systèmes d’IA sont utilisés au sein de leur organisation ;
  • Qualifier ces systèmes d’IA en fonction de leur niveau de risque ; et
  • Arrêter d’utiliser tout système d’IA qui présente un niveau de risque inacceptable.

Par la suite, ils devraient évaluer le niveau actuel de compétence en IA au sein de l’organisation et déterminer quelles mesures supplémentaires sont nécessaires (par exemple, formation, réglementations internes, etc.).

Bien que cela ne soit pas obligatoire, nous recommandons également de rédiger une politique d’IA avec des lignes directrices claires sur l’utilisation de l’IA au sein de l’entreprise. Nous pensons que l’élaboration d’une politique d’IA est un moyen relativement simple et accessible pour les employeurs de faire le premier pas vers l’atteinte d’un niveau suffisant de compétence en IA.

Enfin, il est important de garder un œil sur les développements à venir : les prochaines obligations en vertu de l’Acte sur l’IA entreront en vigueur le 2 août 2025.

Comme exploré ci-dessus, les conséquences d’une mauvaise application sont significatives. Nous recommandons donc aux employeurs de considérer la possibilité de demander des conseils juridiques professionnels s’ils ont des questions concernant les ressources humaines, la vie privée et l’IA au sein de leur organisation, ou s’ils souhaitent obtenir de l’aide pour élaborer une politique d’IA ou organiser des cours de formation.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...