Censure renforcée de l’UE : l’IA au service du contrôle des discours

A megaphone

La Censure Renforcée des Conservateurs par l’UE avec la Réglementation sur l’IA

Le nouvel ensemble de normes de sécurité et de sûreté de l’UE exigera des entreprises technologiques qu’elles censurent et modèrent le contenu sur les modèles d’intelligence artificielle (IA) à usage général afin de prévenir la haine et la discrimination.

Code de Pratique de l’IA à Usage Général

La Commission européenne a introduit le Code de Pratique sur l’IA à Usage Général, qui impose aux développeurs d’IA et aux entreprises technologiques de garantir que les modèles d’IA à usage général soient sûrs, notamment en censurant les contenus jugés haineux, radicalisants ou faux.

Impact Potentiel sur la Censure et le Contrôle Social

Cette nouvelle réglementation pourrait renforcer la censure et le contrôle social sur toutes les grandes plateformes technologiques. En conjonction avec la Loi sur les Services Numériques de l’UE, elle risque de conduire à l’instauration de nouveaux outils de censure automatisés par les entreprises technologiques.

Définition de la Manipulation Nocive

Une section des nouvelles normes met en avant la manipulation nocive comme un risque majeur, qui semble être définie en référence aux récits politiques populistes contre les politiques de genre et les programmes d’immigration de l’UE.

La manipulation nocive est définie dans la réglementation comme la distorsion stratégique du comportement humain ou des croyances en ciblant de grandes populations ou des décideurs clés par le biais de la persuasion, de la tromperie ou du ciblage personnalisé. Cela pourrait compromettre les processus démocratiques et les droits fondamentaux.

Identification des Risques Systémiques

Les entreprises technologiques doivent d’abord identifier un large éventail de risques systémiques sous les catégories de la santé publique, de la sécurité, des droits fondamentaux et de la société dans son ensemble. D’autres dangers spécifiques identifiés incluent le non-alignement avec les valeurs humaines et le biais discriminatoire.

Une fois ces risques identifiés, les développeurs d’IA et les entreprises doivent analyser et atténuer ces risques en surveillant et filtrant les entrées et/ou les sorties du modèle.

Outil Volontaire et Conformité aux Normes

Les normes sont un outil volontaire conçu pour démontrer que les entreprises technologiques se conforment à la législation de l’UE sur l’intelligence artificielle, connue sous le nom de Loi sur l’IA. Bien qu’elles soient volontaires, les entreprises qui adoptent ces normes seront considérées comme conformes à la Loi sur l’IA, réduisant ainsi leur charge administrative et leur offrant plus de certitude juridique.

Perspectives Futuristes

Ces normes sont principalement prospectives. Elles ne visent pas tant à résoudre les problèmes existants des modèles d’IA qu’à garantir que les futurs modèles soient conformes aux normes dès leur conception.

Exigences Supplémentaires de la Loi sur les Services Numériques

Cette réglementation s’ajoute aux mesures de censure déjà épuisantes que les entreprises technologiques sont tenues d’adopter sous la Loi sur les Services Numériques de l’UE. La Commission européenne exige déjà des grandes entreprises technologiques qu’elles censurent à travers le Code de Conduite sur la Désinformation.

Initialement adopté en 2018 comme une réglementation volontaire, ce code est désormais contraignant en vertu de la Loi sur les Services Numériques de l’UE adoptée plus tôt cette année.

Réactions et Critiques

Le vice-président américain J.D. Vance a critiqué les règles de censure de la Loi sur les Services Numériques de l’UE lors d’un sommet sur l’IA à Paris en février dernier, en déclarant : « Nous croyons fermement que l’IA doit rester libre de biais idéologique » et que « l’IA américaine ne sera pas cooptée en un outil de censure autoritaire ».

Il a également mis en garde contre la Loi sur l’IA de l’UE et son impact potentiel sur l’innovation.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...