Huit pratiques d’IA nuisibles interdites par l’UE pour garantir la sécurité

A broken chain link

Réglementation de l’IA dans l’UE : Huit pratiques nuisibles à interdire

Les régulateurs de l’Union européenne (UE) ont récemment détaillé les types d’outils d’intelligence artificielle (IA) considérés comme trop dangereux et qui seront prohibés dans le cadre de l’Acte sur l’IA. Ces nouvelles règles visent à protéger les citoyens tout en évitant de freiner l’innovation dans le domaine technologique.

Une législation pionnière

Adoptées l’année dernière, les règles de l’UE cherchent à prévenir les abus liés à cette technologie émergente, alors même que l’Europe fait face à des défis importants face aux avancées rapides des États-Unis et de la Chine dans le domaine de l’IA.

Le cadre législatif, considéré comme le plus complet au monde en matière de réglementation de l’IA, adopte une approche basée sur les risques. Cela signifie que si un système est jugé à haut risque, une entreprise devra respecter un ensemble d’obligations plus strictes avant d’être autorisée à opérer au sein de l’UE.

Les pratiques interdites

Les régulateurs ont identifié huit pratiques justifiant une interdiction :

  1. Identification des personnes en temps réel par caméras dans des espaces publics
    L’utilisation de systèmes d’IA équipés de caméras pour l’identification biométrique en temps réel à des fins d’application de la loi est interdite, afin de prévenir des arrestations sans vérification d’informations réelles.
  2. Notation sociale basée sur des données personnelles non liées au risque
    L’IA ne peut pas être utilisée pour évaluer la probabilité qu’une personne fasse défaut sur un prêt, par exemple, en se basant sur des données personnelles sans rapport avec le contexte.
  3. Évaluation du risque criminel uniquement sur des données biométriques
    Les forces de l’ordre ne peuvent pas utiliser l’IA pour prédire un comportement criminel sur la base de caractéristiques personnelles sans tenir compte de faits objectifs vérifiables.
  4. Extraction d’images en ligne pour créer des bases de données de reconnaissance faciale
    Les outils qui parcourent Internet et les images de vidéosurveillance pour extraire des images faciales à grande échelle sont prohibés.
  5. Détection des émotions sur les lieux de travail et dans les établissements éducatifs
    Les organisations ne peuvent pas utiliser de webcams ou de systèmes de reconnaissance vocale pour détecter les émotions des personnes.
  6. Manipulation comportementale par l’IA
    L’intégration de systèmes IA trompeurs ou subliminaux pour inciter les utilisateurs à réaliser un achat est interdite.
  7. Exploitation des vulnérabilités liées à l’âge ou au handicap
    Les jouets ou systèmes d’IA destinés aux enfants, aux personnes âgées ou vulnérables, qui encouragent des comportements potentiellement nocifs, sont prohibés.
  8. Inférence d’opinions politiques ou d’orientations sexuelles sur la base de données biométriques
    Les systèmes qui prétendent déduire les opinions politiques ou l’orientation sexuelle d’une personne à partir de l’analyse de son visage ne seront pas autorisés au sein de l’UE.

Conséquences des violations

Les entreprises qui ne respectent pas ces règles s’exposent à des amendes pouvant atteindre sept pour cent de leur chiffre d’affaires mondial annuel, ou des amendes allant jusqu’à 35 millions d’euros — selon le montant le plus élevé.

Avec ces nouvelles réglementations, l’UE espère non seulement protéger les droits des individus mais aussi établir un cadre solide pour l’innovation responsable dans le domaine de l’intelligence artificielle.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...