Réglementation de l’IA : L’Espagne impose l’étiquetage des contenus générés par l’IA

A label maker

Le gouvernement approuve un projet de loi sur l’étiquetage obligatoire des contenus générés par l’IA en Espagne

Le gouvernement espagnol a récemment approuvé un projet de loi visant à réglementer l’utilisation éthique, inclusive et bénéfique de l’ (IA). Cette initiative a été annoncée à l’issue du conseil des ministres du 12 mars et s’adapte à la réglementation de l’, qui met déjà l’accent sur une utilisation appropriée de l’IA.

Objectifs de la réglementation

Selon le ministre de la transformation numérique et de l’administration publique, cette réglementation complète le grand bouclier européen des droits numériques, protégeant les citoyens dans le contexte actuel. López a affirmé que cette réglementation est pionnière au niveau national et international et vise à harmoniser la législation nationale sur les nouveaux outils numériques.

Procédure d’urgence

Après cette annonce, le projet de loi continuera d’être traité selon une procédure d’urgence, bien que de nombreuses réglementations soient déjà en vigueur. Depuis août dernier, l’ réglemente l’utilisation de l’intelligence artificielle, interdisant notamment le marketing ou l’utilisation de systèmes exploitant des techniques trompeuses.

Restrictions sur l’utilisation de l’IA

La loi européenne interdit l’utilisation de systèmes d’IA pour :

  • Prévoir le risque qu’une personne commette un crime basé uniquement sur son profil ou ses caractéristiques.
  • Élargir les bases de données de reconnaissance faciale en extrayant non sélectivement des images faciales sur Internet ou à partir de vidéos de surveillance.
  • Se concentrer sur la catégorisation individuelle des personnes basées sur des données biométriques.
  • Inférer des émotions dans des contextes professionnels ou éducatifs.
  • Faciliter des systèmes d’identification biométrique à distance en temps réel dans des espaces publics à des fins d’application de la loi, sous réserve d’exceptions.

Règlementation sur les deepfakes

Le projet de loi identifie également les risques et les pratiques interdites, telles que les techniques subliminales ou la reconnaissance biométrique dans les espaces publics, tout en veillant à l’. Les autorités espagnoles responsables de la supervision de la conformité seront :

  • l’agence espagnole de protection des données pour les cas liés à la biométrie;
  • le conseil général de la magistrature pour les cas liés à la justice;
  • la commission électorale centrale pour les applications de l’IA dans les processus électoraux.

L’agence de supervision de l’IA espagnole (AESIA) sera chargée de tous les autres aspects d’application.

Pénalités pour les infractions

Le projet de loi prévoit des sanctions sévères, allant de 7,5 à 35 millions d’euros, ou entre 2 % et 7 % du chiffre d’affaires mondial de l’entreprise concernée. Le montant des amendes peut être réduit pour les PME (petites et moyennes entreprises).

Les infractions graves incluront le non-respect de l’obligation de correctement étiqueter toute image, audio ou vidéo générée ou manipulée par l’IA et montrant des personnes réelles ou inexistantes disant ou faisant des choses qu’elles n’ont jamais faites.

Contexte et controverses

Ce projet de loi coïncide avec la controverse entourant une vidéo deepfake diffusée par le Parti populaire espagnol, intitulée La isla de las corrupciones. Le contenu, qui a été supprimé suite à des protestations en République dominicaine, montre des images du pays des Caraïbes et des membres du parti socialiste au pouvoir, insinuant des pratiques de corruption.

Articles

Renforcer la sécurité des LLM : l’alignement responsable de l’IA

Ce document traite de l'alignement responsable de l'IA dans le développement de phi-3, mettant l'accent sur les principes de sécurité adoptés par Microsoft. Des méthodes de test et des ensembles de...

Contrôle des données dans l’ère des clouds IA souverains

Les nuages d'IA souverains offrent à la fois contrôle et conformité, répondant aux préoccupations croissantes concernant la résidence des données et le risque réglementaire. Dans un environnement où...

L’Alliance Écossaise de l’IA : Vers une Intelligence Artificielle Éthique

L'Alliance écossaise de l'IA a publié son rapport d'impact 2024/2025, révélant une année de progrès significatifs dans la promotion d'une intelligence artificielle éthique et inclusive en Écosse. Le...

UE AI Act : Préparez-vous au changement inévitable

L'annonce de la Commission européenne vendredi dernier selon laquelle il n'y aura pas de retard concernant la loi sur l'IA de l'UE a suscité des réactions passionnées des deux côtés. Il est temps de...

Fiabilité des modèles linguistiques : un défi à relever avec la loi sur l’IA de l’UE

Les modèles de langage de grande taille (LLM) ont considérablement amélioré la capacité des machines à comprendre et à traiter des séquences de texte complexes. Cependant, leur déploiement croissant...

Pause ou avancée : l’avenir de la réglementation de l’IA en Europe

Le Conseil européen a maintenu le calendrier de l'Acte sur l'IA malgré les pressions, affirmant qu'il n'y aura pas de pause dans sa mise en œuvre. Le Premier ministre suédois a appelé à un...

Nouvelles restrictions sur l’IA : impacts et opportunités

L'administration Trump prépare de nouvelles restrictions sur les exportations de puces AI vers la Malaisie et la Thaïlande pour empêcher que des processeurs avancés n'atteignent la Chine via des pays...

Gouvernance de l’IA : Garantir l’éthique et la transparence dans les entreprises modernes

La gouvernance de l'IA et la gouvernance des données sont essentielles pour garantir le développement de solutions d'IA éthiques et fiables. Ces cadres de gouvernance sont interconnectés et vitaux...

LLMOps : Optimisez l’IA Responsable à Grande Échelle avec Python

Dans un paysage hyper-compétitif, déployer des modèles de langage de grande taille (LLM) n'est pas suffisant ; il faut un cadre LLMOps robuste pour garantir la fiabilité et la conformité. Python, avec...