Censure renforcée de l’UE : l’IA au service du contrôle des discours

A megaphone

La Censure Renforcée des Conservateurs par l’UE avec la Réglementation sur l’IA

Le nouvel ensemble de normes de sécurité et de sûreté de l’UE exigera des entreprises technologiques qu’elles censurent et modèrent le contenu sur les modèles d’intelligence artificielle (IA) à usage général afin de prévenir la haine et la discrimination.

Code de Pratique de l’IA à Usage Général

La Commission européenne a introduit le Code de Pratique sur l’IA à Usage Général, qui impose aux développeurs d’IA et aux entreprises technologiques de garantir que les modèles d’IA à usage général soient sûrs, notamment en censurant les contenus jugés haineux, radicalisants ou faux.

Impact Potentiel sur la Censure et le Contrôle Social

Cette nouvelle réglementation pourrait renforcer la censure et le contrôle social sur toutes les grandes plateformes technologiques. En conjonction avec la Loi sur les Services Numériques de l’UE, elle risque de conduire à l’instauration de nouveaux outils de censure automatisés par les entreprises technologiques.

Définition de la Manipulation Nocive

Une section des nouvelles normes met en avant la manipulation nocive comme un risque majeur, qui semble être définie en référence aux récits politiques populistes contre les politiques de genre et les programmes d’immigration de l’UE.

La manipulation nocive est définie dans la réglementation comme la distorsion stratégique du comportement humain ou des croyances en ciblant de grandes populations ou des décideurs clés par le biais de la persuasion, de la tromperie ou du ciblage personnalisé. Cela pourrait compromettre les processus démocratiques et les droits fondamentaux.

Identification des Risques Systémiques

Les entreprises technologiques doivent d’abord identifier un large éventail de risques systémiques sous les catégories de la santé publique, de la sécurité, des droits fondamentaux et de la société dans son ensemble. D’autres dangers spécifiques identifiés incluent le non-alignement avec les valeurs humaines et le biais discriminatoire.

Une fois ces risques identifiés, les développeurs d’IA et les entreprises doivent analyser et atténuer ces risques en surveillant et filtrant les entrées et/ou les sorties du modèle.

Outil Volontaire et Conformité aux Normes

Les normes sont un outil volontaire conçu pour démontrer que les entreprises technologiques se conforment à la législation de l’UE sur l’intelligence artificielle, connue sous le nom de Loi sur l’IA. Bien qu’elles soient volontaires, les entreprises qui adoptent ces normes seront considérées comme conformes à la Loi sur l’IA, réduisant ainsi leur charge administrative et leur offrant plus de certitude juridique.

Perspectives Futuristes

Ces normes sont principalement prospectives. Elles ne visent pas tant à résoudre les problèmes existants des modèles d’IA qu’à garantir que les futurs modèles soient conformes aux normes dès leur conception.

Exigences Supplémentaires de la Loi sur les Services Numériques

Cette réglementation s’ajoute aux mesures de censure déjà épuisantes que les entreprises technologiques sont tenues d’adopter sous la Loi sur les Services Numériques de l’UE. La Commission européenne exige déjà des grandes entreprises technologiques qu’elles censurent à travers le Code de Conduite sur la Désinformation.

Initialement adopté en 2018 comme une réglementation volontaire, ce code est désormais contraignant en vertu de la Loi sur les Services Numériques de l’UE adoptée plus tôt cette année.

Réactions et Critiques

Le vice-président américain J.D. Vance a critiqué les règles de censure de la Loi sur les Services Numériques de l’UE lors d’un sommet sur l’IA à Paris en février dernier, en déclarant : « Nous croyons fermement que l’IA doit rester libre de biais idéologique » et que « l’IA américaine ne sera pas cooptée en un outil de censure autoritaire ».

Il a également mis en garde contre la Loi sur l’IA de l’UE et son impact potentiel sur l’innovation.

Articles

Guide pratique pour une IA responsable pour les développeurs .NET

L'ère de l'intelligence artificielle (IA) est en cours, mais elle soulève des questions éthiques sur la confiance que l'on peut accorder aux systèmes d'IA. Cet article explore les six principes...

Directives du projet de loi sur l’IA de l’UE : évolutions en matière de droits d’auteur

Le projet de directive sur le Code de pratique de l'UE concernant les obligations des fournisseurs de modèles d'IA à usage général (GPAI) a été amélioré, offrant une voie de conformité structurée. Les...

Confiance client et conformité à l’ère de l’IA

L'intelligence artificielle promet une valeur considérable pour les marketeurs, mais cela ne sera possible que si elle est alimentée par des données de qualité collectées de manière responsable. Les...

L’IA au service de la gestion des risques dans le secteur bancaire

Dans le paysage bancaire complexe d'aujourd'hui, l'IA devient un moteur central de la gestion des risques, essentiel pour identifier les menaces et gérer la conformité. En Inde, où les attentes...

Loi californienne sur la transparence de l’IA : un tournant majeur pour l’innovation responsable

Les législateurs californiens ont fait les gros titres en adoptant une loi historique sur la transparence de l'IA, axée spécifiquement sur les "modèles de pointe". Cette législation vise à garantir la...

Bureau national de l’IA : autorité centrale pour la mise en œuvre de la législation européenne

Le gouvernement a désigné 15 autorités compétentes dans le cadre de la nouvelle loi sur l'IA de l'UE et a annoncé la création d'un Bureau national de l'IA d'ici le 2 août 2026. Ce bureau agira comme...

Défis de l’IA : Éviter les pièges juridiques et discriminatoires dans le recrutement

L'utilisation d'outils d'IA dans le processus de recrutement permet aux entreprises d'optimiser leurs processus, mais les employeurs doivent veiller à ce que les systèmes utilisés soient transparents...

Quatre piliers pour encadrer l’IA responsable dans les entreprises

Alors que l'IA générative transforme le fonctionnement des entreprises, il est crucial d'implémenter des garde-fous pour éviter des déploiements coûteux. Les quatre piliers de ces garde-fous incluent...

Concevoir une IA inclusive pour les marchés émergents

L'intelligence artificielle transforme notre monde à une vitesse fulgurante, mais ses bénéfices ne sont pas accessibles à tous. Il est crucial de concevoir des systèmes d'IA inclusifs qui tiennent...