Huit pratiques d’IA nuisibles interdites par l’UE pour garantir la sécurité

A broken chain link

Réglementation de l’IA dans l’UE : Huit pratiques nuisibles à interdire

Les régulateurs de l’Union européenne (UE) ont récemment détaillé les types d’outils d’intelligence artificielle (IA) considérés comme trop dangereux et qui seront prohibés dans le cadre de l’Acte sur l’IA. Ces nouvelles règles visent à protéger les citoyens tout en évitant de freiner l’innovation dans le domaine technologique.

Une législation pionnière

Adoptées l’année dernière, les règles de l’UE cherchent à prévenir les abus liés à cette technologie émergente, alors même que l’Europe fait face à des défis importants face aux avancées rapides des États-Unis et de la Chine dans le domaine de l’IA.

Le cadre législatif, considéré comme le plus complet au monde en matière de réglementation de l’IA, adopte une approche basée sur les risques. Cela signifie que si un système est jugé à haut risque, une entreprise devra respecter un ensemble d’obligations plus strictes avant d’être autorisée à opérer au sein de l’UE.

Les pratiques interdites

Les régulateurs ont identifié huit pratiques justifiant une interdiction :

  1. Identification des personnes en temps réel par caméras dans des espaces publics
    L’utilisation de systèmes d’IA équipés de caméras pour l’identification biométrique en temps réel à des fins d’application de la loi est interdite, afin de prévenir des arrestations sans vérification d’informations réelles.
  2. Notation sociale basée sur des données personnelles non liées au risque
    L’IA ne peut pas être utilisée pour évaluer la probabilité qu’une personne fasse défaut sur un prêt, par exemple, en se basant sur des données personnelles sans rapport avec le contexte.
  3. Évaluation du risque criminel uniquement sur des données biométriques
    Les forces de l’ordre ne peuvent pas utiliser l’IA pour prédire un comportement criminel sur la base de caractéristiques personnelles sans tenir compte de faits objectifs vérifiables.
  4. Extraction d’images en ligne pour créer des bases de données de reconnaissance faciale
    Les outils qui parcourent Internet et les images de vidéosurveillance pour extraire des images faciales à grande échelle sont prohibés.
  5. Détection des émotions sur les lieux de travail et dans les établissements éducatifs
    Les organisations ne peuvent pas utiliser de webcams ou de systèmes de reconnaissance vocale pour détecter les émotions des personnes.
  6. Manipulation comportementale par l’IA
    L’intégration de systèmes IA trompeurs ou subliminaux pour inciter les utilisateurs à réaliser un achat est interdite.
  7. Exploitation des vulnérabilités liées à l’âge ou au handicap
    Les jouets ou systèmes d’IA destinés aux enfants, aux personnes âgées ou vulnérables, qui encouragent des comportements potentiellement nocifs, sont prohibés.
  8. Inférence d’opinions politiques ou d’orientations sexuelles sur la base de données biométriques
    Les systèmes qui prétendent déduire les opinions politiques ou l’orientation sexuelle d’une personne à partir de l’analyse de son visage ne seront pas autorisés au sein de l’UE.

Conséquences des violations

Les entreprises qui ne respectent pas ces règles s’exposent à des amendes pouvant atteindre sept pour cent de leur chiffre d’affaires mondial annuel, ou des amendes allant jusqu’à 35 millions d’euros — selon le montant le plus élevé.

Avec ces nouvelles réglementations, l’UE espère non seulement protéger les droits des individus mais aussi établir un cadre solide pour l’innovation responsable dans le domaine de l’intelligence artificielle.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...