La Censure Renforcée des Conservateurs par l’UE avec la Réglementation sur l’IA
Le nouvel ensemble de normes de sécurité et de sûreté de l’UE exigera des entreprises technologiques qu’elles censurent et modèrent le contenu sur les modèles d’intelligence artificielle (IA) à usage général afin de prévenir la haine et la discrimination.
Code de Pratique de l’IA à Usage Général
La Commission européenne a introduit le Code de Pratique sur l’IA à Usage Général, qui impose aux développeurs d’IA et aux entreprises technologiques de garantir que les modèles d’IA à usage général soient sûrs, notamment en censurant les contenus jugés haineux, radicalisants ou faux.
Impact Potentiel sur la Censure et le Contrôle Social
Cette nouvelle réglementation pourrait renforcer la censure et le contrôle social sur toutes les grandes plateformes technologiques. En conjonction avec la Loi sur les Services Numériques de l’UE, elle risque de conduire à l’instauration de nouveaux outils de censure automatisés par les entreprises technologiques.
Définition de la Manipulation Nocive
Une section des nouvelles normes met en avant la manipulation nocive comme un risque majeur, qui semble être définie en référence aux récits politiques populistes contre les politiques de genre et les programmes d’immigration de l’UE.
La manipulation nocive est définie dans la réglementation comme la distorsion stratégique du comportement humain ou des croyances en ciblant de grandes populations ou des décideurs clés par le biais de la persuasion, de la tromperie ou du ciblage personnalisé. Cela pourrait compromettre les processus démocratiques et les droits fondamentaux.
Identification des Risques Systémiques
Les entreprises technologiques doivent d’abord identifier un large éventail de risques systémiques sous les catégories de la santé publique, de la sécurité, des droits fondamentaux et de la société dans son ensemble. D’autres dangers spécifiques identifiés incluent le non-alignement avec les valeurs humaines et le biais discriminatoire.
Une fois ces risques identifiés, les développeurs d’IA et les entreprises doivent analyser et atténuer ces risques en surveillant et filtrant les entrées et/ou les sorties du modèle.
Outil Volontaire et Conformité aux Normes
Les normes sont un outil volontaire conçu pour démontrer que les entreprises technologiques se conforment à la législation de l’UE sur l’intelligence artificielle, connue sous le nom de Loi sur l’IA. Bien qu’elles soient volontaires, les entreprises qui adoptent ces normes seront considérées comme conformes à la Loi sur l’IA, réduisant ainsi leur charge administrative et leur offrant plus de certitude juridique.
Perspectives Futuristes
Ces normes sont principalement prospectives. Elles ne visent pas tant à résoudre les problèmes existants des modèles d’IA qu’à garantir que les futurs modèles soient conformes aux normes dès leur conception.
Exigences Supplémentaires de la Loi sur les Services Numériques
Cette réglementation s’ajoute aux mesures de censure déjà épuisantes que les entreprises technologiques sont tenues d’adopter sous la Loi sur les Services Numériques de l’UE. La Commission européenne exige déjà des grandes entreprises technologiques qu’elles censurent à travers le Code de Conduite sur la Désinformation.
Initialement adopté en 2018 comme une réglementation volontaire, ce code est désormais contraignant en vertu de la Loi sur les Services Numériques de l’UE adoptée plus tôt cette année.
Réactions et Critiques
Le vice-président américain J.D. Vance a critiqué les règles de censure de la Loi sur les Services Numériques de l’UE lors d’un sommet sur l’IA à Paris en février dernier, en déclarant : « Nous croyons fermement que l’IA doit rester libre de biais idéologique » et que « l’IA américaine ne sera pas cooptée en un outil de censure autoritaire ».
Il a également mis en garde contre la Loi sur l’IA de l’UE et son impact potentiel sur l’innovation.