L’Europe interdit l’intelligence artificielle qui suit les émotions

A broken chain link

Interdiction de l’intelligence artificielle de suivi des émotions en Europe

Un nouveau règlement de l’UE sur l’intelligence artificielle (IA) interdit l’utilisation de technologies capables de suivre les émotions des employés via des webcams et des systèmes de reconnaissance vocale. Cette mesure s’inscrit dans le cadre de l’Acte sur l’intelligence artificielle, le premier ensemble complet de règles visant à protéger les individus contre la discrimination, le harcèlement et la manipulation fondés sur l’IA.

Prohibitions et implications

À partir du 2 août, les sites web des pays de l’UE seront également interdits d’utiliser des technologies d’IA conçues pour manipuler les utilisateurs afin de les inciter à dépenser de l’argent. Parmi les pratiques prohibées figurent les modèles sombres intégrés dans les services, qui visent à manipuler les utilisateurs en les poussant à prendre des engagements financiers importants.

Les applications d’IA qui exploitent les utilisateurs en fonction de leur âge, de leur handicap ou de leur situation socio-économique sont également interdites. De plus, l’IA de notation sociale utilisant des données personnelles non liées, telles que l’origine ou la race, par des agences de services sociaux et d’autres organismes publics et privés est bannie.

Surveillance et sanctions

Les employeurs ne peuvent pas utiliser de systèmes de surveillance pour suivre les émotions des employés, et les caméras de vidéosurveillance mobiles équipées de technologies de reconnaissance faciale pour des usages de maintien de l’ordre sont prohibées, sauf exceptions limitées et avec des garanties strictes.

Les pays de l’UE ont jusqu’au 2 août pour désigner des autorités de surveillance du marché afin d’appliquer ces règles d’IA. Les violations des règles peuvent entraîner des amendes pouvant aller de 1,5 % à 7 % du chiffre d’affaires global total des entreprises.

Comparaison internationale

L’Acte sur l’intelligence artificielle de l’UE est plus complet que l’approche américaine, qui repose sur une conformité volontaire légère, tandis que l’approche de la Chine vise à maintenir la stabilité sociale et le contrôle étatique.

Cependant, certains experts mettent en garde contre le fait que le rythme de développement de l’industrie de l’IA, couplé à des changements politiques majeurs récents, pourrait rendre ces directives obsolètes avant même leur mise en œuvre. Une guerre commerciale imminente, aggravée par les droits de douane imposés par le président américain, complique encore la situation.

“La réglementation ne peut naviguer à travers le nouveau paysage politique,” déclare un expert. “Cependant, les institutions responsables de l’UE devront désormais maintenir leur position pro-réglementation, quoi qu’il arrive. Il est clair que l’UE a tracé sa ligne et ne semble pas vouloir reculer.”

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...