Espagne : Amende de 38,2 millions de dollars pour les entreprises ne signalant pas les images générées par l’IA
Le gouvernement espagnol a approuvé un projet de loi qui impose des amendes pouvant atteindre 38,2 millions de dollars pour les entreprises qui ne signalent pas correctement le contenu généré par l’IA, notamment les images et vidéos deepfake.
Un projet de loi pour lutter contre les deepfakes
Selon un rapport, cette législation vise à réduire l’utilisation des deepfakes — des vidéos et images générées par IA qui sont faussement présentées comme réelles. Ne pas étiqueter correctement le contenu généré par l’IA sera considéré comme une infraction sérieuse, entraînant des amendes pouvant aller jusqu’à 35 millions d’euros ou 7 % du chiffre d’affaires mondial des entreprises.
Exigences de transparence
Le ministère espagnol de la Transformation numérique précise que tout contenu généré ou manipulé par IA, qui représente des personnes réelles ou inexistantes, doit être clairement étiqueté comme tel. Cette étiquette doit être fournie de manière claire et distincte dès le premier contact ou exposition, en conformité avec les exigences du Règlement européen sur l’IA.
Importance de la réglementation
Le ministre de la Transformation numérique, Oscar Lopez, souligne l’importance de la régulation de ce type de contenu. Selon lui, l’IA est un outil puissant qui peut améliorer nos vies ou, au contraire, miner la démocratie. Son utilisation doit donc être encadrée par des lois appropriées.
Une première dans l’Union Européenne
Ce projet de loi espagnol, qui doit passer par un processus de révision accéléré avant d’être soumis au Conseil des ministres, s’inscrit dans l’alignement avec le Règlement de l’UE sur l’IA, qui impose des règles strictes concernant la transparence des systèmes d’IA à haut risque. L’Espagne se positionne ainsi parmi les premiers pays de l’UE à mettre en œuvre des mesures aussi rigoureuses.
Contexte international
Cette initiative intervient alors que la Chine a également annoncé de nouvelles lois interdisant les images générées par l’IA non étiquetées. Les autorités chinoises exigent désormais que les images, vidéos et contenus audio incluent des métadonnées indiquant qu’ils sont le produit de l’IA.
Ces mesures témoignent d’une prise de conscience croissante à l’échelle mondiale de la nécessité de réguler le contenu généré par l’IA, afin de protéger le public et de maintenir la confiance dans les médias numériques.