Huit pratiques d’IA nuisibles interdites par l’UE pour garantir la sécurité

A broken chain link

Réglementation de l’IA dans l’UE : Huit pratiques nuisibles à interdire

Les régulateurs de l’Union européenne (UE) ont récemment détaillé les types d’outils d’intelligence artificielle (IA) considérés comme trop dangereux et qui seront prohibés dans le cadre de l’Acte sur l’IA. Ces nouvelles règles visent à protéger les citoyens tout en évitant de freiner l’innovation dans le domaine technologique.

Une législation pionnière

Adoptées l’année dernière, les règles de l’UE cherchent à prévenir les abus liés à cette technologie émergente, alors même que l’Europe fait face à des défis importants face aux avancées rapides des États-Unis et de la Chine dans le domaine de l’IA.

Le cadre législatif, considéré comme le plus complet au monde en matière de réglementation de l’IA, adopte une approche basée sur les risques. Cela signifie que si un système est jugé à haut risque, une entreprise devra respecter un ensemble d’obligations plus strictes avant d’être autorisée à opérer au sein de l’UE.

Les pratiques interdites

Les régulateurs ont identifié huit pratiques justifiant une interdiction :

  1. Identification des personnes en temps réel par caméras dans des espaces publics
    L’utilisation de systèmes d’IA équipés de caméras pour l’identification biométrique en temps réel à des fins d’application de la loi est interdite, afin de prévenir des arrestations sans vérification d’informations réelles.
  2. Notation sociale basée sur des données personnelles non liées au risque
    L’IA ne peut pas être utilisée pour évaluer la probabilité qu’une personne fasse défaut sur un prêt, par exemple, en se basant sur des données personnelles sans rapport avec le contexte.
  3. Évaluation du risque criminel uniquement sur des données biométriques
    Les forces de l’ordre ne peuvent pas utiliser l’IA pour prédire un comportement criminel sur la base de caractéristiques personnelles sans tenir compte de faits objectifs vérifiables.
  4. Extraction d’images en ligne pour créer des bases de données de reconnaissance faciale
    Les outils qui parcourent Internet et les images de vidéosurveillance pour extraire des images faciales à grande échelle sont prohibés.
  5. Détection des émotions sur les lieux de travail et dans les établissements éducatifs
    Les organisations ne peuvent pas utiliser de webcams ou de systèmes de reconnaissance vocale pour détecter les émotions des personnes.
  6. Manipulation comportementale par l’IA
    L’intégration de systèmes IA trompeurs ou subliminaux pour inciter les utilisateurs à réaliser un achat est interdite.
  7. Exploitation des vulnérabilités liées à l’âge ou au handicap
    Les jouets ou systèmes d’IA destinés aux enfants, aux personnes âgées ou vulnérables, qui encouragent des comportements potentiellement nocifs, sont prohibés.
  8. Inférence d’opinions politiques ou d’orientations sexuelles sur la base de données biométriques
    Les systèmes qui prétendent déduire les opinions politiques ou l’orientation sexuelle d’une personne à partir de l’analyse de son visage ne seront pas autorisés au sein de l’UE.

Conséquences des violations

Les entreprises qui ne respectent pas ces règles s’exposent à des amendes pouvant atteindre sept pour cent de leur chiffre d’affaires mondial annuel, ou des amendes allant jusqu’à 35 millions d’euros — selon le montant le plus élevé.

Avec ces nouvelles réglementations, l’UE espère non seulement protéger les droits des individus mais aussi établir un cadre solide pour l’innovation responsable dans le domaine de l’intelligence artificielle.

Articles

Intelligence artificielle et recherche UX : vers des workflows éthiques et efficaces

La recherche UX n'est aussi solide que les humains qui la dirigent, et les décisions humaines peuvent souvent introduire des erreurs. L'arrivée de l'IA dans la recherche UX est fascinante, promettant...

L’avenir de l’IA agentique dans le secteur bancaire

L'intelligence artificielle agentique transforme le secteur bancaire en automatisant des processus complexes et en améliorant l'expérience client. Cependant, elle pose des défis en matière de...

La conformité native à l’IA : clé d’une infrastructure crypto évolutive

L'industrie de la cryptographie connaît une croissance explosive, mais fait face à de nombreux défis réglementaires, en particulier dans les opérations transfrontalières. Les plateformes intégrant des...

Gouvernance de l’IA en ASEAN : un chemin semé d’embûches mais prometteur

L'Association des nations de l'Asie du Sud-Est (ASEAN) adopte une approche favorable à l'innovation pour l'intelligence artificielle (IA), visant à faire avancer la région vers une économie numérique...

L’UE face aux défis de l’IA : réglementation stricte contre innovation américaine

Dans un récent épisode du podcast "Regulating AI", le Dr Cari Miller a discuté des implications mondiales du Plan d'action sur l'IA des États-Unis, soulignant l'équilibre délicat entre innovation et...

Les risques méconnus de l’IA dans les entreprises

L'IA devient de plus en plus présente dans les lieux de travail, mais de nombreuses entreprises ignorent les risques associés. Il est essentiel d'établir des principes de conformité et de gouvernance...

Investir dans la sécurité de l’IA pour un avenir responsable

La révolution de l'intelligence artificielle est désormais une réalité, transformant les industries et la vie quotidienne. Pour les investisseurs, cela représente une opportunité en or d'exploiter un...

L’impact croissant de l’IA sur la sécurité publique

Les agences de maintien de l'ordre (LEAs) utilisent de plus en plus l'intelligence artificielle (IA) pour améliorer leur fonctionnement, en particulier grâce à des capacités accrues pour la police...

Kenya à l’avant-garde de la gouvernance mondiale de l’IA

Le Kenya a remporté une victoire diplomatique majeure après que les 193 États membres des Nations Unies ont convenu à l'unanimité de créer deux institutions marquantes pour gouverner l'intelligence...