L’impact du règlement sur l’IA de l’UE sur les entreprises

A blueprint illustrating the structured approach to AI compliance.

L’Acte sur l’IA de l’UE : Les Premières Obligations Entrent en Vigueur

Avec l’Acte sur l’IA, l’UE vise à créer un cadre juridique uniforme pour le développement, la mise sur le marché, le service et l’utilisation des systèmes d’IA au sein de l’UE. Cette initiative est en accord avec les valeurs de l’UE ; à savoir, promouvoir l’adoption d’une IA centrée sur l’humain et fiable, tout en garantissant un haut niveau de protection de la santé, de la sécurité et des droits fondamentaux, tels qu’énoncés dans la Charte des droits fondamentaux de l’Union européenne.

L’Acte sur l’IA s’applique aux fournisseurs qui mettent des systèmes d’IA sur le marché ou les mettent en service, ainsi qu’aux utilisateurs qui utilisent ces systèmes. Par exemple, en tant qu’employeur, si vous utilisez des systèmes d’IA – par exemple, dans le processus de recrutement – vous devrez principalement tenir compte des obligations des utilisateurs.

Compétence en IA

La première obligation qui est maintenant entrée en vigueur (depuis le 2 février 2025) est d’assurer un niveau suffisant de compétence en IA. L’objectif est de garantir que toutes les personnes impliquées dans les systèmes d’IA au sein de l’organisation disposent des compétences et des connaissances nécessaires pour prendre des décisions éclairées et utiliser les systèmes d’IA de manière responsable.

Lors de la mise en œuvre de mesures pour garantir un niveau suffisant de compétence en IA, les facteurs suivants doivent être pris en compte :

  • les connaissances techniques, l’expérience, l’éducation et la formation du personnel et des autres personnes s’occupant de l’exploitation et de l’utilisation des systèmes d’IA ; et
  • le contexte dans lequel les systèmes d’IA doivent être utilisés.

Les employeurs couverts par les règles devraient également considérer les personnes ou groupes de personnes sur lesquels les systèmes d’IA seront utilisés.

L’Acte sur l’IA ne précise pas quelles mesures un employeur doit prendre pour atteindre un niveau de compétence en IA « suffisant ». Cela rend difficile la démonstration de la conformité à cette obligation, mais cela offre également une opportunité aux employeurs de déterminer ce qui est « suffisant » pour leur organisation et leurs employés.

Pour cette raison, les organisations qui utilisent des systèmes d’IA devraient organiser des cours de formation sur la compétence en IA. La mise en œuvre d’une politique détaillée sur l’utilisation responsable de l’IA contribuerait également à respecter l’obligation de compétence en IA.

Cependant, tous les employés n’ont pas besoin d’atteindre le même niveau de compétence en IA. Ce n’est pas une obligation « universelle », mais celle qui nécessite une approche plus sur mesure. Néanmoins, chacun qui entre en contact avec l’IA est censé comprendre les principes de base, ainsi que pouvoir traiter de manière responsable et critique avec les systèmes d’IA. La conformité à cette obligation est un processus continu et dynamique.

Pratiques d’IA interdites

Depuis le 2 février 2025, l’Acte sur l’IA interdit un certain nombre de pratiques en matière d’IA jugées inacceptables. Ces pratiques sont contraires aux normes et valeurs fondamentales européennes, telles que la violation des droits fondamentaux énoncés dans la Charte.

Par exemple, les pratiques d’IA suivantes (entre autres) sont désormais interdites :

  • Les systèmes d’IA qui déploient des techniques subliminales au-delà de la conscience d’une personne ou des techniques manipulatrices ou trompeuses. Cela inclut les systèmes qui poussent les gens à prendre des décisions qu’ils ne prendraient pas autrement, ce qui peut entraîner des dommages significatifs ;
  • Les systèmes d’IA qui exploitent les vulnérabilités d’une personne ou d’un groupe de personnes en raison de leur âge ou de leur handicap, perturbant matériellement leur comportement, ce qui peut entraîner des dommages significatifs ;
  • Les systèmes d’IA qui évaluent ou classifient les personnes en fonction de leur comportement social ou de leurs caractéristiques personnelles ou de personnalité connues, inférées ou prédites (connu sous le nom de notation sociale) et qui entraînent un traitement défavorable ;
  • Les systèmes d’IA qui créent ou étendent des bases de données de reconnaissance faciale par le biais du scraping non ciblé d’images faciales sur Internet ou de séquences de vidéosurveillance ; et
  • Les systèmes d’IA qui infèrent les émotions d’une personne, sauf lorsque le système d’IA est utilisé pour des raisons médicales ou de sécurité.

Les entreprises qui développent ou utilisent des pratiques d’IA interdites seront soumises à des amendes administratives allant jusqu’à 35 millions d’euros ou, si l’auteur est une entreprise, jusqu’à 7 % de son chiffre d’affaires annuel mondial total, selon le montant le plus élevé. Lors de l’imposition d’amendes aux PME et aux start-ups, leurs intérêts et leur viabilité économique sont pris en compte, et une amende inférieure peut être imposée.

Politique d’IA

Conformément à ses obligations en vertu de l’Acte sur l’IA, l’Office de l’IA de l’UE encouragera et facilitera l’élaboration de codes de pratique, en tenant compte des approches internationales.

Le terme codes de conduite est interprété assez largement dans ce contexte, et il n’est pas tout à fait clair si cela inclut également une politique d’IA ou non. Néanmoins, l’établissement d’une telle politique est certainement recommandé. Dans une politique d’IA, les employeurs peuvent créer des lignes directrices claires pour l’utilisation de l’IA au sein de l’entreprise. Cela peut inclure quels systèmes d’IA peuvent être utilisés, par qui, et dans quelle mesure les systèmes d’IA peuvent être utilisés en ce qui concerne certains employés. La politique peut également déterminer comment le personnel peut rester suffisamment compétent en IA.

Conclusion pour les employeurs

Les premières obligations en vertu de l’Acte sur l’IA sont désormais en vigueur. Cette régulation mondiale tant attendue sur l’IA commence à prendre racine dans le monde réel des affaires, et il est donc important que les employeurs soient pleinement conscients de leurs obligations. Les employeurs devraient :

  • Cartographier quels systèmes d’IA sont utilisés au sein de leur organisation ;
  • Qualifier ces systèmes d’IA en fonction de leur niveau de risque ; et
  • Arrêter d’utiliser tout système d’IA qui présente un niveau de risque inacceptable.

Par la suite, ils devraient évaluer le niveau actuel de compétence en IA au sein de l’organisation et déterminer quelles mesures supplémentaires sont nécessaires (par exemple, formation, réglementations internes, etc.).

Bien que cela ne soit pas obligatoire, nous recommandons également de rédiger une politique d’IA avec des lignes directrices claires sur l’utilisation de l’IA au sein de l’entreprise. Nous pensons que l’élaboration d’une politique d’IA est un moyen relativement simple et accessible pour les employeurs de faire le premier pas vers l’atteinte d’un niveau suffisant de compétence en IA.

Enfin, il est important de garder un œil sur les développements à venir : les prochaines obligations en vertu de l’Acte sur l’IA entreront en vigueur le 2 août 2025.

Comme exploré ci-dessus, les conséquences d’une mauvaise application sont significatives. Nous recommandons donc aux employeurs de considérer la possibilité de demander des conseils juridiques professionnels s’ils ont des questions concernant les ressources humaines, la vie privée et l’IA au sein de leur organisation, ou s’ils souhaitent obtenir de l’aide pour élaborer une politique d’IA ou organiser des cours de formation.

Articles

Surveillance biométrique en Hongrie : une atteinte aux droits fondamentaux

Les nouvelles lois sur la surveillance biométrique en Hongrie violent l'AI Act, en élargissant l'utilisation de la technologie de reconnaissance faciale pour inclure des infractions mineures et des...

Pression américaine sur l’Europe : fin des règles sur l’IA ?

L'administration de Donald Trump fait pression sur l'Europe pour abandonner un code de conduite qui obligerait les développeurs d'intelligence artificielle avancée à respecter des normes plus...

Évitez les cauchemars liés à la conformité en IA

Les violations de conformité liées à l'IA peuvent causer de graves problèmes sur le lieu de travail. Cet article explore comment les éviter et assurer un environnement de travail sûr et conforme...

Gouvernance de l’IA : Enjeux et Stratégies pour les Marques

L'intelligence artificielle est désormais intégrée dans les décisions quotidiennes des marques et des agences, transformant la manière dont les marketeurs atteignent leur public. Cependant, avec ce...

Agents d’IA : Avantages et Risques Accrus

Les agents d'IA sont des systèmes de génération d'IA autonomes qui effectuent des tâches sans intervention humaine constante. Bien qu'ils offrent de nouvelles capacités, ils présentent également des...

Gouvernance de l’IA : Une avancée institutionnelle aux Émirats

Des experts affirment que les Émirats Arabes Unis sont en train de connaître une gouvernance de l'intelligence artificielle institutionnalisée. Cette évolution marque une étape importante dans la...

L’impact de l’AI Act de l’UE sur l’innovation américaine

Les États-Unis souhaitent annuler le code de pratique de l'IA de l'UE, laissant les entreprises développer leurs propres normes de risque. Les critiques affirment que ce code étouffe l'innovation et...

Les attentes des géants de la tech face au plan d’action sur l’IA aux États-Unis

Les grandes entreprises technologiques et les startups en intelligence artificielle ont exprimé leurs souhaits concernant le plan d'action de l'IA du gouvernement américain. Elles demandent notamment...

Czechia et l’Acte sur l’Intelligence Artificielle : Vers une réglementation éclairée

Avec l'essor de l'IA, l'Union européenne a introduit des réglementations pour standardiser certaines règles de son utilisation. La loi sur l'intelligence artificielle interdit notamment l'utilisation...