Réglementation de l’IA : L’Espagne impose l’étiquetage des contenus générés par l’IA

A label maker

Le gouvernement approuve un projet de loi sur l’étiquetage obligatoire des contenus générés par l’IA en Espagne

Le gouvernement espagnol a récemment approuvé un projet de loi visant à réglementer l’utilisation éthique, inclusive et bénéfique de l’ (IA). Cette initiative a été annoncée à l’issue du conseil des ministres du 12 mars et s’adapte à la réglementation de l’, qui met déjà l’accent sur une utilisation appropriée de l’IA.

Objectifs de la réglementation

Selon le ministre de la transformation numérique et de l’administration publique, cette réglementation complète le grand bouclier européen des droits numériques, protégeant les citoyens dans le contexte actuel. López a affirmé que cette réglementation est pionnière au niveau national et international et vise à harmoniser la législation nationale sur les nouveaux outils numériques.

Procédure d’urgence

Après cette annonce, le projet de loi continuera d’être traité selon une procédure d’urgence, bien que de nombreuses réglementations soient déjà en vigueur. Depuis août dernier, l’ réglemente l’utilisation de l’intelligence artificielle, interdisant notamment le marketing ou l’utilisation de systèmes exploitant des techniques trompeuses.

Restrictions sur l’utilisation de l’IA

La loi européenne interdit l’utilisation de systèmes d’IA pour :

  • Prévoir le risque qu’une personne commette un crime basé uniquement sur son profil ou ses caractéristiques.
  • Élargir les bases de données de reconnaissance faciale en extrayant non sélectivement des images faciales sur Internet ou à partir de vidéos de surveillance.
  • Se concentrer sur la catégorisation individuelle des personnes basées sur des données biométriques.
  • Inférer des émotions dans des contextes professionnels ou éducatifs.
  • Faciliter des systèmes d’identification biométrique à distance en temps réel dans des espaces publics à des fins d’application de la loi, sous réserve d’exceptions.

Règlementation sur les deepfakes

Le projet de loi identifie également les risques et les pratiques interdites, telles que les techniques subliminales ou la reconnaissance biométrique dans les espaces publics, tout en veillant à l’. Les autorités espagnoles responsables de la supervision de la conformité seront :

  • l’agence espagnole de protection des données pour les cas liés à la biométrie;
  • le conseil général de la magistrature pour les cas liés à la justice;
  • la commission électorale centrale pour les applications de l’IA dans les processus électoraux.

L’agence de supervision de l’IA espagnole (AESIA) sera chargée de tous les autres aspects d’application.

Pénalités pour les infractions

Le projet de loi prévoit des sanctions sévères, allant de 7,5 à 35 millions d’euros, ou entre 2 % et 7 % du chiffre d’affaires mondial de l’entreprise concernée. Le montant des amendes peut être réduit pour les PME (petites et moyennes entreprises).

Les infractions graves incluront le non-respect de l’obligation de correctement étiqueter toute image, audio ou vidéo générée ou manipulée par l’IA et montrant des personnes réelles ou inexistantes disant ou faisant des choses qu’elles n’ont jamais faites.

Contexte et controverses

Ce projet de loi coïncide avec la controverse entourant une vidéo deepfake diffusée par le Parti populaire espagnol, intitulée La isla de las corrupciones. Le contenu, qui a été supprimé suite à des protestations en République dominicaine, montre des images du pays des Caraïbes et des membres du parti socialiste au pouvoir, insinuant des pratiques de corruption.

Articles

Gouvernance de l’IA : enjeux et opportunités pour les professionnels de la sécurité

L'intelligence artificielle (IA) a un large impact sur les lignes de business, y compris la cybersécurité, avec de nombreuses organisations adoptant des outils d'IA générative pour des fins de...

Technologie de reconnaissance faciale : enjeux et controverses

Le gouvernement britannique a été critiqué pour le déploiement de la technologie de reconnaissance faciale sans avoir d'abord établi un cadre juridique complet. L'Institut Ada Lovelace a averti que...

L’essor des start-ups de gouvernance pour une IA responsable

Avec l'essor de l'IA, la demande de solutions de gouvernance augmente considérablement. L'industrie mondiale de la gouvernance de l'IA, qui valait 890 millions de dollars l'année dernière, devrait...

Moratoire de 10 ans sur les lois étatiques sur l’IA : enjeux et implications

Hier, la Chambre des représentants des États-Unis a approuvé un paquet budgétaire qui inclut un moratoire de dix ans sur l'application des lois étatiques sur l'IA. Tech Policy Press recherche des...

L’IA devant le juge : 500 cas qui redéfinissent la jurisprudence

À travers le monde, la réglementation de l'intelligence artificielle (IA) est inégale. Les tribunaux jouent déjà un rôle dans la régulation de l'IA en résolvant des litiges où les systèmes d'IA sont...

AI Responsable : Entre Ambitions et Réalités

L'intelligence artificielle responsable se transforme d'un mot à la mode impressionnant en une nécessité commerciale critique, surtout alors que les entreprises de la région Asie-Pacifique s'efforcent...

Gouvernance de l’IA : Pourquoi le droit doit prendre les rênes

Dans cette interview, Brooke Johnson, avocate en chef d'Ivanti, explore les responsabilités légales en matière de gouvernance de l'IA. Elle souligne l'importance de la collaboration interfonctionnelle...

Les nouvelles frontières de l’intelligence artificielle

La Chambre des représentants a récemment adopté une loi qui pourrait empêcher les États de réglementer l'intelligence artificielle (IA) pendant dix ans. Cela suscite des inquiétudes parmi certains...

Régulation et Innovation : Le Dilemme de la Finance

Les entreprises de services financiers se trouvent prises entre des réglementations sur l'IA en évolution rapide, qui varient considérablement selon les juridictions, créant des cauchemars de...