Interdiction des outils d’IA à risque par l’UE

A magnifying glass over a digital footprint

Interdiction des outils d’IA utilisés pour le scoring social et la police prédictive par l’UE

Le premier ensemble de restrictions dans le cadre de la loi sur l’IA de l’Union Européenne est entré en vigueur le 2 février 2025. Cela signifie que les systèmes d’IA considérés comme présentant un risque inacceptable selon la législation sont désormais illégaux dans les pays de l’UE.

Catégories d’IA interdites

Les catégories suivantes de systèmes d’IA ont été interdites car elles sont considérées comme une menace claire pour la sécurité, les moyens de subsistance et les droits des personnes :

  • Systèmes de scoring social
  • Systèmes de reconnaissance des émotions dans les lieux de travail et les établissements d’enseignement
  • Outils d’évaluation ou de prédiction du risque criminel individuel
  • Outils de manipulation et de déception basés sur l’IA nuisibles
  • Outils basés sur l’IA nuisibles exploitant les vulnérabilités

Des pratiques telles que le scraping non ciblé de l’internet ou de matériel de vidéosurveillance pour créer ou étendre des bases de données de reconnaissance faciale, ainsi que l’identification biométrique à distance en temps réel à des fins d’application de la loi dans des espaces accessibles au public, ont également été interdites.

Sanctions potentielles

Les entreprises qui enfreignent la loi sur l’IA pourraient encourir des sanctions financières considérables. Selon un rapport de CNBC, les amendes pourraient atteindre jusqu’à 35 millions d’euros (environ 35,8 millions de dollars) ou 7 % de leur chiffre d’affaires annuel mondial, selon le montant le plus élevé.

Exemptions et critiques

Cependant, des critiques ont souligné que la loi sur l’IA comporte plusieurs exemptions permettant aux forces de police et aux autorités migratoires européennes d’utiliser l’IA pour suivre les suspects d’attaques terroristes. En outre, des obligations légales ont été mises en place pour garantir une littératie technologique suffisante parmi le personnel.

Cadre réglementaire pour l’IA

Ce cadre réglementaire sans précédent pour l’IA a été officiellement lancé en août de l’année dernière. Cependant, plusieurs dispositions de la loi sont mises en œuvre par phases. Par exemple, les règles de gouvernance et les obligations pour les entreprises technologiques développant des modèles d’IA à usage général entreront en vigueur le 2 août 2025.

Les modèles d’IA à usage général (GPAI) se réfèrent à des modèles de langage volumineux ou LLM tels que la série GPT d’OpenAI. Les entreprises développant des systèmes d’IA à haut risque pour des cas d’utilisation dans des secteurs critiques tels que l’éducation, la médecine et le transport bénéficieront d’une période de transition prolongée jusqu’au 2 août 2027.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...