Réglementation de l’IA : L’Espagne impose l’étiquetage des contenus générés par l’IA

A label maker

Le gouvernement approuve un projet de loi sur l’étiquetage obligatoire des contenus générés par l’IA en Espagne

Le gouvernement espagnol a récemment approuvé un projet de loi visant à réglementer l’utilisation éthique, inclusive et bénéfique de l’ (IA). Cette initiative a été annoncée à l’issue du conseil des ministres du 12 mars et s’adapte à la réglementation de l’, qui met déjà l’accent sur une utilisation appropriée de l’IA.

Objectifs de la réglementation

Selon le ministre de la transformation numérique et de l’administration publique, cette réglementation complète le grand bouclier européen des droits numériques, protégeant les citoyens dans le contexte actuel. López a affirmé que cette réglementation est pionnière au niveau national et international et vise à harmoniser la législation nationale sur les nouveaux outils numériques.

Procédure d’urgence

Après cette annonce, le projet de loi continuera d’être traité selon une procédure d’urgence, bien que de nombreuses réglementations soient déjà en vigueur. Depuis août dernier, l’ réglemente l’utilisation de l’intelligence artificielle, interdisant notamment le marketing ou l’utilisation de systèmes exploitant des techniques trompeuses.

Restrictions sur l’utilisation de l’IA

La loi européenne interdit l’utilisation de systèmes d’IA pour :

  • Prévoir le risque qu’une personne commette un crime basé uniquement sur son profil ou ses caractéristiques.
  • Élargir les bases de données de reconnaissance faciale en extrayant non sélectivement des images faciales sur Internet ou à partir de vidéos de surveillance.
  • Se concentrer sur la catégorisation individuelle des personnes basées sur des données biométriques.
  • Inférer des émotions dans des contextes professionnels ou éducatifs.
  • Faciliter des systèmes d’identification biométrique à distance en temps réel dans des espaces publics à des fins d’application de la loi, sous réserve d’exceptions.

Règlementation sur les deepfakes

Le projet de loi identifie également les risques et les pratiques interdites, telles que les techniques subliminales ou la reconnaissance biométrique dans les espaces publics, tout en veillant à l’. Les autorités espagnoles responsables de la supervision de la conformité seront :

  • l’agence espagnole de protection des données pour les cas liés à la biométrie;
  • le conseil général de la magistrature pour les cas liés à la justice;
  • la commission électorale centrale pour les applications de l’IA dans les processus électoraux.

L’agence de supervision de l’IA espagnole (AESIA) sera chargée de tous les autres aspects d’application.

Pénalités pour les infractions

Le projet de loi prévoit des sanctions sévères, allant de 7,5 à 35 millions d’euros, ou entre 2 % et 7 % du chiffre d’affaires mondial de l’entreprise concernée. Le montant des amendes peut être réduit pour les PME (petites et moyennes entreprises).

Les infractions graves incluront le non-respect de l’obligation de correctement étiqueter toute image, audio ou vidéo générée ou manipulée par l’IA et montrant des personnes réelles ou inexistantes disant ou faisant des choses qu’elles n’ont jamais faites.

Contexte et controverses

Ce projet de loi coïncide avec la controverse entourant une vidéo deepfake diffusée par le Parti populaire espagnol, intitulée La isla de las corrupciones. Le contenu, qui a été supprimé suite à des protestations en République dominicaine, montre des images du pays des Caraïbes et des membres du parti socialiste au pouvoir, insinuant des pratiques de corruption.

Articles

L’Amérique refuse la gouvernance mondiale de l’IA lors de l’Assemblée générale de l’ONU

Les responsables américains ont rejeté une proposition visant à établir un cadre de gouvernance mondial de l'IA lors de l'Assemblée générale des Nations Unies, malgré le soutien de nombreux pays, y...

Risques et enjeux de la prolifération de l’IA agentique pour les entreprises

Dans un monde en évolution rapide de l'intelligence artificielle, les entreprises adoptent de plus en plus des systèmes d'IA agentique, mais cela entraîne un nouveau défi : l'expansion incontrôlée de...

Biais cachés dans les intelligences artificielles : un danger pour la démocratie

Le rôle croissant des modèles de langage (LLM) comme gardiens d'opinion suscite des inquiétudes quant aux biais cachés qui pourraient fausser le discours public et compromettre les processus...

L’ère de la responsabilité : la régulation de l’IA en pleine ascension

Le monde en pleine expansion de l'intelligence artificielle (IA) est à un tournant critique, alors qu'une vague d'actions réglementaires souligne un virage mondial vers la responsabilité et le...

Choisir les outils de gouvernance AI adaptés aux entreprises

Alors que l'adoption de l'IA générative s'accélère, les risques associés deviennent de plus en plus préoccupants. Cet article explore comment les outils de gouvernance de l'IA peuvent aider à gérer...

L’ONU s’engage pour une intelligence artificielle sécurisée et digne de confiance

Les Nations Unies cherchent à influencer directement la politique mondiale sur l'intelligence artificielle, en promouvant des normes politiques et techniques autour d'une IA « sûre, sécurisée et digne...

L’essor de la gouvernance de l’IA : quand les données façonnent les politiques

Récemment, lors d'une audience captivée à Singapour, deux hommes ont discuté d'un sujet pouvant redéfinir la réglementation de l'IA. Leur conversation a mis en lumière le projet MindForge, une...

Préparez-vous aux nouvelles régulations de l’IA pour les PME

Les PME doivent se préparer aux nouvelles réglementations de l'UE sur l'IA, qui entrent en vigueur en 2026, en intégrant des systèmes d'IA de manière conforme dès le départ. En adoptant des...

Nouvelles obligations de déclaration pour les systèmes d’IA à haut risque en Europe

La Commission européenne a publié des lignes directrices provisoires sur les exigences de déclaration des incidents graves pour les systèmes d'IA à haut risque dans le cadre de la loi sur l'IA de...