Huit pratiques d’IA nuisibles interdites par l’UE pour garantir la sécurité

A broken chain link

Réglementation de l’IA dans l’UE : Huit pratiques nuisibles à interdire

Les régulateurs de l’Union européenne (UE) ont récemment détaillé les types d’outils d’intelligence artificielle (IA) considérés comme trop dangereux et qui seront prohibés dans le cadre de l’Acte sur l’IA. Ces nouvelles règles visent à protéger les citoyens tout en évitant de freiner l’innovation dans le domaine technologique.

Une législation pionnière

Adoptées l’année dernière, les règles de l’UE cherchent à prévenir les abus liés à cette technologie émergente, alors même que l’Europe fait face à des défis importants face aux avancées rapides des États-Unis et de la Chine dans le domaine de l’IA.

Le cadre législatif, considéré comme le plus complet au monde en matière de réglementation de l’IA, adopte une approche basée sur les risques. Cela signifie que si un système est jugé à haut risque, une entreprise devra respecter un ensemble d’obligations plus strictes avant d’être autorisée à opérer au sein de l’UE.

Les pratiques interdites

Les régulateurs ont identifié huit pratiques justifiant une interdiction :

  1. Identification des personnes en temps réel par caméras dans des espaces publics
    L’utilisation de systèmes d’IA équipés de caméras pour l’identification biométrique en temps réel à des fins d’application de la loi est interdite, afin de prévenir des arrestations sans vérification d’informations réelles.
  2. Notation sociale basée sur des données personnelles non liées au risque
    L’IA ne peut pas être utilisée pour évaluer la probabilité qu’une personne fasse défaut sur un prêt, par exemple, en se basant sur des données personnelles sans rapport avec le contexte.
  3. Évaluation du risque criminel uniquement sur des données biométriques
    Les forces de l’ordre ne peuvent pas utiliser l’IA pour prédire un comportement criminel sur la base de caractéristiques personnelles sans tenir compte de faits objectifs vérifiables.
  4. Extraction d’images en ligne pour créer des bases de données de reconnaissance faciale
    Les outils qui parcourent Internet et les images de vidéosurveillance pour extraire des images faciales à grande échelle sont prohibés.
  5. Détection des émotions sur les lieux de travail et dans les établissements éducatifs
    Les organisations ne peuvent pas utiliser de webcams ou de systèmes de reconnaissance vocale pour détecter les émotions des personnes.
  6. Manipulation comportementale par l’IA
    L’intégration de systèmes IA trompeurs ou subliminaux pour inciter les utilisateurs à réaliser un achat est interdite.
  7. Exploitation des vulnérabilités liées à l’âge ou au handicap
    Les jouets ou systèmes d’IA destinés aux enfants, aux personnes âgées ou vulnérables, qui encouragent des comportements potentiellement nocifs, sont prohibés.
  8. Inférence d’opinions politiques ou d’orientations sexuelles sur la base de données biométriques
    Les systèmes qui prétendent déduire les opinions politiques ou l’orientation sexuelle d’une personne à partir de l’analyse de son visage ne seront pas autorisés au sein de l’UE.

Conséquences des violations

Les entreprises qui ne respectent pas ces règles s’exposent à des amendes pouvant atteindre sept pour cent de leur chiffre d’affaires mondial annuel, ou des amendes allant jusqu’à 35 millions d’euros — selon le montant le plus élevé.

Avec ces nouvelles réglementations, l’UE espère non seulement protéger les droits des individus mais aussi établir un cadre solide pour l’innovation responsable dans le domaine de l’intelligence artificielle.

Articles

Surveillance biométrique en Hongrie : une atteinte aux droits fondamentaux

Les nouvelles lois sur la surveillance biométrique en Hongrie violent l'AI Act, en élargissant l'utilisation de la technologie de reconnaissance faciale pour inclure des infractions mineures et des...

Pression américaine sur l’Europe : fin des règles sur l’IA ?

L'administration de Donald Trump fait pression sur l'Europe pour abandonner un code de conduite qui obligerait les développeurs d'intelligence artificielle avancée à respecter des normes plus...

Évitez les cauchemars liés à la conformité en IA

Les violations de conformité liées à l'IA peuvent causer de graves problèmes sur le lieu de travail. Cet article explore comment les éviter et assurer un environnement de travail sûr et conforme...

Gouvernance de l’IA : Enjeux et Stratégies pour les Marques

L'intelligence artificielle est désormais intégrée dans les décisions quotidiennes des marques et des agences, transformant la manière dont les marketeurs atteignent leur public. Cependant, avec ce...

Agents d’IA : Avantages et Risques Accrus

Les agents d'IA sont des systèmes de génération d'IA autonomes qui effectuent des tâches sans intervention humaine constante. Bien qu'ils offrent de nouvelles capacités, ils présentent également des...

Gouvernance de l’IA : Une avancée institutionnelle aux Émirats

Des experts affirment que les Émirats Arabes Unis sont en train de connaître une gouvernance de l'intelligence artificielle institutionnalisée. Cette évolution marque une étape importante dans la...

L’impact de l’AI Act de l’UE sur l’innovation américaine

Les États-Unis souhaitent annuler le code de pratique de l'IA de l'UE, laissant les entreprises développer leurs propres normes de risque. Les critiques affirment que ce code étouffe l'innovation et...

Les attentes des géants de la tech face au plan d’action sur l’IA aux États-Unis

Les grandes entreprises technologiques et les startups en intelligence artificielle ont exprimé leurs souhaits concernant le plan d'action de l'IA du gouvernement américain. Elles demandent notamment...

Czechia et l’Acte sur l’Intelligence Artificielle : Vers une réglementation éclairée

Avec l'essor de l'IA, l'Union européenne a introduit des réglementations pour standardiser certaines règles de son utilisation. La loi sur l'intelligence artificielle interdit notamment l'utilisation...