Censure renforcée de l’UE : l’IA au service du contrôle des discours

A megaphone

La Censure Renforcée des Conservateurs par l’UE avec la Réglementation sur l’IA

Le nouvel ensemble de normes de sécurité et de sûreté de l’UE exigera des entreprises technologiques qu’elles censurent et modèrent le contenu sur les modèles d’intelligence artificielle (IA) à usage général afin de prévenir la haine et la discrimination.

Code de Pratique de l’IA à Usage Général

La Commission européenne a introduit le Code de Pratique sur l’IA à Usage Général, qui impose aux développeurs d’IA et aux entreprises technologiques de garantir que les modèles d’IA à usage général soient sûrs, notamment en censurant les contenus jugés haineux, radicalisants ou faux.

Impact Potentiel sur la Censure et le Contrôle Social

Cette nouvelle réglementation pourrait renforcer la censure et le contrôle social sur toutes les grandes plateformes technologiques. En conjonction avec la Loi sur les Services Numériques de l’UE, elle risque de conduire à l’instauration de nouveaux outils de censure automatisés par les entreprises technologiques.

Définition de la Manipulation Nocive

Une section des nouvelles normes met en avant la manipulation nocive comme un risque majeur, qui semble être définie en référence aux récits politiques populistes contre les politiques de genre et les programmes d’immigration de l’UE.

La manipulation nocive est définie dans la réglementation comme la distorsion stratégique du comportement humain ou des croyances en ciblant de grandes populations ou des décideurs clés par le biais de la persuasion, de la tromperie ou du ciblage personnalisé. Cela pourrait compromettre les processus démocratiques et les droits fondamentaux.

Identification des Risques Systémiques

Les entreprises technologiques doivent d’abord identifier un large éventail de risques systémiques sous les catégories de la santé publique, de la sécurité, des droits fondamentaux et de la société dans son ensemble. D’autres dangers spécifiques identifiés incluent le non-alignement avec les valeurs humaines et le biais discriminatoire.

Une fois ces risques identifiés, les développeurs d’IA et les entreprises doivent analyser et atténuer ces risques en surveillant et filtrant les entrées et/ou les sorties du modèle.

Outil Volontaire et Conformité aux Normes

Les normes sont un outil volontaire conçu pour démontrer que les entreprises technologiques se conforment à la législation de l’UE sur l’intelligence artificielle, connue sous le nom de Loi sur l’IA. Bien qu’elles soient volontaires, les entreprises qui adoptent ces normes seront considérées comme conformes à la Loi sur l’IA, réduisant ainsi leur charge administrative et leur offrant plus de certitude juridique.

Perspectives Futuristes

Ces normes sont principalement prospectives. Elles ne visent pas tant à résoudre les problèmes existants des modèles d’IA qu’à garantir que les futurs modèles soient conformes aux normes dès leur conception.

Exigences Supplémentaires de la Loi sur les Services Numériques

Cette réglementation s’ajoute aux mesures de censure déjà épuisantes que les entreprises technologiques sont tenues d’adopter sous la Loi sur les Services Numériques de l’UE. La Commission européenne exige déjà des grandes entreprises technologiques qu’elles censurent à travers le Code de Conduite sur la Désinformation.

Initialement adopté en 2018 comme une réglementation volontaire, ce code est désormais contraignant en vertu de la Loi sur les Services Numériques de l’UE adoptée plus tôt cette année.

Réactions et Critiques

Le vice-président américain J.D. Vance a critiqué les règles de censure de la Loi sur les Services Numériques de l’UE lors d’un sommet sur l’IA à Paris en février dernier, en déclarant : « Nous croyons fermement que l’IA doit rester libre de biais idéologique » et que « l’IA américaine ne sera pas cooptée en un outil de censure autoritaire ».

Il a également mis en garde contre la Loi sur l’IA de l’UE et son impact potentiel sur l’innovation.

Articles

Écosystème collaboratif pour combler le fossé numérique

Un responsable de l'intelligence artificielle (IA) en Chine a appelé à la création d'un écosystème collaboratif et de gouvernance multiple pour promouvoir l'IA en tant que bien public et réduire...

Gestion des risques dans l’Acte AI de l’UE : enjeux et perspectives

L'Acte sur l'intelligence artificielle (IA) de l'Union européenne établit un cadre de règles pour les systèmes d'IA à haut risque afin de protéger la santé, la sécurité et les droits fondamentaux...

Réglementation de l’IA en Suisse : État des lieux et perspectives

La stratégie nationale suisse en matière d'IA établit des lignes directrices pour l'utilisation de l'IA et vise à finaliser une proposition réglementaire sur l'IA en 2025. Actuellement, l'IA en Suisse...

Anticiper l’impact de la législation sur l’IA en Europe

À mesure que les systèmes d'IA deviennent intégrés aux produits et services, les équipes juridiques et de conformité doivent relever le défi de classifier ces systèmes de manière cohérente et précise...

Anticiper l’impact de la législation sur l’IA en Europe

À mesure que les systèmes d'IA deviennent intégrés aux produits et services, les équipes juridiques et de conformité doivent relever le défi de classifier ces systèmes de manière cohérente et précise...

Les risques invisibles des agents IA dans les entreprises

Les entreprises doivent comprendre quels agents d'IA opèrent dans leur environnement et cataloguer ces systèmes correctement. Une gouvernance spécifique à l'IA est nécessaire pour garantir un...

Conformité au RGPD : Préparez-vous à l’Acte sur l’IA de l’UE

La Commission européenne a confirmé que le calendrier de mise en œuvre de la loi sur l'intelligence artificielle (LIA) de l'UE reste inchangé, sans périodes de transition ni reports. Des sanctions...

Gouvernance de l’IA : un impératif éthique pour les dirigeants

Nous sommes fermement ancrés dans l'ère des machines intelligentes, où l'intelligence artificielle (IA) est devenue un perturbateur stratégique. Les conseils d'administration et les dirigeants doivent...

Gouvernance de l’IA : un impératif éthique pour les dirigeants

Nous sommes fermement ancrés dans l'ère des machines intelligentes, où l'intelligence artificielle (IA) est devenue un perturbateur stratégique. Les conseils d'administration et les dirigeants doivent...