Les lois européennes face à la montée des deepfakes

A surveillance camera

Les lois européennes contre les deepfakes

Alors que la technologie des deepfakes se développe rapidement, plusieurs pays européens prennent des initiatives législatives pour encadrer son utilisation. Ce phénomène, qui consiste à utiliser l’intelligence artificielle pour créer des vidéos ou des contenus altérés, soulève des préoccupations éthiques et juridiques majeures.

Danemark : Protection par le droit d’auteur

Le Danemark a récemment adopté une loi qui accorde aux individus des droits d’auteur sur leur propre image. Cette mesure vise à lutter contre la diffusion de deepfakes et d’autres imitations numériques de leurs caractéristiques. Le ministre de la culture, Jakob Engel-Schmidt, a déclaré : « Nous envoyons un signal clair à tous les citoyens que vous avez le droit sur votre propre corps, votre voix et vos traits faciaux. »

La loi rendra illégale la diffusion de deepfakes sans consentement, renforçant ainsi la protection des individus contre la désinformation et les abus.

Union Européenne : La loi sur l’IA

À l’échelle de l’Union Européenne, l’Acte sur l’IA classe les contenus générés par l’IA en quatre catégories : risque minimal, risque limité, risque élevé et risque inacceptable. Les deepfakes sont considérés comme un « risque limité » et sont donc soumis à des règles de transparence.

Bien qu’il n’y ait pas d’interdiction totale sur les deepfakes, les entreprises doivent étiqueter le contenu généré par l’IA sur leurs plateformes et divulguer les ensembles de données utilisés pour former leurs modèles. En cas de non-respect de ces règles, une amende pouvant aller jusqu’à 15 millions d’euros ou 3 % de leur chiffre d’affaires mondial peut être imposée.

France : Une loi sur les espaces numériques

En France, une mise à jour du code pénal interdit depuis 2024 le partage de contenu visuel ou audio créé par IA, comme les deepfakes, sans le consentement des personnes concernées. Toute diffusion de ce type de contenu doit être clairement identifiée comme étant générée par IA.

Les distributeurs de tels contenus risquent jusqu’à un an de prison et une amende de 15 000 euros, les peines pouvant aller jusqu’à deux ans de prison et 45 000 euros si le deepfake est partagé via un service en ligne. De plus, la loi interdit spécifiquement les deepfakes à caractère pornographique, même s’ils sont clairement marqués comme tels.

Royaume-Uni : Pénalités pour la pornographie deepfake

Au Royaume-Uni, plusieurs lois encadrent la création de deepfakes pornographiques, notamment les récentes modifications apportées à la loi sur les données. Cette législation cible les « abuseurs odieux » qui créent de fausses images à des fins sexuelles. Les contrevenants s’exposent à des amendes illimitées.

Une autre législation récente prévoit une peine de prison de deux ans pour ceux qui créent des deepfakes sexuels. La loi sur la sécurité en ligne interdit également le partage ou la menace de partage d’images sexuelles non consensuelles sur les réseaux sociaux. Les plateformes doivent prendre des mesures proactives pour supprimer ce type de contenu, sous peine d’amendes pouvant atteindre 10 % de leur chiffre d’affaires mondial.

Cependant, des experts, comme Julia Hörnle, professeur à l’école de droit de Queen Mary, soulignent que la loi sur la sécurité en ligne ne rend pas illégale la création d’images deepfake, ce qui laisse les victimes vulnérables, même si le contenu n’est jamais partagé publiquement.

Conclusion

Les lois en cours d’élaboration à travers l’Europe montrent une prise de conscience croissante des dangers liés aux deepfakes et à l’usage abusif de l’intelligence artificielle. Alors que les gouvernements s’efforcent d’équilibrer innovation technologique et protection des droits individuels, il reste à voir comment ces réglementations seront appliquées et adaptées aux évolutions futures de la technologie.

Articles

Nouvelles règles européennes sur l’IA : un code de pratique attendu d’ici fin 2025

Un code de pratique conçu pour aider des milliers d'entreprises à se conformer aux règles sur l'intelligence artificielle de l'Union européenne pourrait ne s'appliquer qu'à la fin de 2025. La...

Crise de responsabilité de l’IA : Les entreprises face à l’échec

L'intelligence artificielle a atteint un point d'inflexion, où de nombreuses initiatives ne parviennent jamais à être mises en production, exposant les organisations à des risques cachés. Sans une...

Grace période pour la conformité au Code de l’IA

La Commission envisage d'offrir aux entreprises un délai de grâce pour se conformer au code de l'IA. Cette initiative vise à faciliter l'adoption des nouvelles régulations par les sociétés concernées...

Texas innove avec une législation sur l’intelligence artificielle

Le 22 juin 2025, le Texas a adopté la loi sur la gouvernance de l'intelligence artificielle responsable, faisant de l'État le deuxième à mettre en œuvre une législation complète sur l'IA. Cette loi...

Texas innove avec une législation sur l’intelligence artificielle

Le 22 juin 2025, le Texas a adopté la loi sur la gouvernance de l'intelligence artificielle responsable, faisant de l'État le deuxième à mettre en œuvre une législation complète sur l'IA. Cette loi...

Les lois européennes face à la montée des deepfakes

Le Danemark a adopté une loi qui accorde aux citoyens le droit d'auteur sur leur propre image afin de lutter contre les vidéos "deepfake". D'autres pays européens, comme la France et le Royaume-Uni...

Stratégies pour une IA éthique et durable au Canada

Le gouvernement fédéral souhaite dynamiser la productivité en lançant l'intelligence artificielle (IA) "à grande échelle". Cela inclut la modernisation du service public avec des outils d'IA, mais il...

Réglementation de l’IA : un nouveau défi pour les assureurs

Le 1er juillet 2025, le Sénat des États-Unis a voté massivement pour rejeter un moratoire proposé de dix ans sur la réglementation de l'intelligence artificielle au niveau des États. Cette décision...

Réglementation de l’IA : un nouveau défi pour les assureurs

Le 1er juillet 2025, le Sénat des États-Unis a voté massivement pour rejeter un moratoire proposé de dix ans sur la réglementation de l'intelligence artificielle au niveau des États. Cette décision...