Les législateurs européens et les leaders de l’industrie technologique prennent des mesures pour faciliter la conformité à la loi sur l’IA de l’UE
Les deepfakes peuvent être créés et utilisés à diverses fins. Si leur nature est révélée et que leur création ne viole pas d’autres lois applicables, l’existence d’un deepfake ne soulève généralement pas de préoccupations majeures pour les législateurs. Selon certaines sources, le principe directeur est de déterminer si l’existence du deepfake viole la vie privée ou les droits de propriété intellectuelle de quelqu’un, ou si le deepfake induit en erreur des consommateurs, le grand public ou des personnalités notables qui n’ont pas été correctement averties.
Cependant, cette technologie présente des risques significatifs pour la sécurité et la vie privée, en raison de sa capacité à partager de la désinformation et à influencer le comportement par la tromperie. Sa capacité à imiter des individus peut nuire à la réputation des entreprises et des particuliers, et servir de véhicule pour les escroqueries, entraînant de lourdes pertes financières. Les fichiers deepfake ont augmenté de manière spectaculaire, passant de 500 000 en 2023 à 8 millions en 2025. De plus, une augmentation alarmante de 3 000 % des tentatives de fraude a été observée en 2023.
En 2024, les incidents de deepfake se produisaient à un rythme d’un toutes les cinq minutes, et les pertes financières aux États-Unis, facilitées par l’IA générative, devraient passer de 12,3 milliards en 2023 à 40 milliards d’ici 2027, soit un taux de croissance annuel composé de 32 %.
L’usage croissant des deepfakes et les risques pour les droits des consommateurs, la vie privée et la propriété intellectuelle ont suscité des inquiétudes au sein des communautés internationales. En réponse, les législateurs du monde entier ont institué diverses lois visant à protéger les droits les plus vulnérables face aux deepfakes. Les lois en cours d’élaboration se concentrent sur :
- transparence (étiquetage du contenu généré par IA),
- consentement (autorisation de la personne dont l’image a été publiée, répliquée ou manipulée),
- exigences de retrait (imposées aux entreprises et plateformes publiant le contenu des deepfakes).
L’Acte sur l’IA de l’UE
L’Acte sur l’IA de l’UE, le premier ensemble de lois à fournir un cadre légal pour traiter les risques associés à l’IA, est entré en vigueur en août 2024 et prévoit une approche progressive pour sa mise en œuvre. Depuis son adoption, l’Acte a attiré l’attention et suscité des débats allant de son potentiel à établir un précédent pour de futures lois sur l’IA à des critiques concernant une sur-réglementation et la menace qu’elle pose à l’innovation dans le secteur technologique.
Face aux préoccupations soulevées par l’industrie technologique concernant les responsabilités lourdes et les directives vagues pour la conformité, la Commission européenne a proposé un « Paquet de Simplification Numérique » visant à rationaliser les règles de l’Acte. La partie « Digital Omnibus » de ce paquet modifie l’Acte pour permettre une application plus prévisible et efficace de ses exigences.
De plus, la Commission a planifié des réunions avec des groupes de l’industrie technologique pour discuter des exigences d’étiquetage en vertu de la loi de l’UE, qui entreront en vigueur en août 2026. Pour s’assurer que les plateformes responsables de la conformité comprennent comment se conformer, les régulateurs collaborent avec des acteurs de l’industrie pour établir un ensemble de protocoles, connu sous le nom de « code de pratique », qui fournira des directives aux entreprises sur la manière de se conformer à la loi.
Implications
Les entreprises opérant à l’international doivent se conformer aux exigences de toutes les juridictions où elles sont présentes. Pour celles qui exercent dans l’un des pays de l’UE, il est crucial de prêter attention aux exigences de l’Acte sur l’IA de l’UE. Même si les entreprises ne sont pas directement présentes dans ces régions, l’Acte est souvent cité et pourrait servir de modèle pour d’autres législations, à l’image de l’influence considérable du RGPD.
Soulignant l’importance accordée à la facilitation d’un chemin fluide vers la conformité, des entreprises concurrentes telles qu’OpenAI, Microsoft, Google et Meta se sont regroupées pour former la Coalition pour la Provenance et l’Authenticité du Contenu, développant une méthode pour encoder des informations sur l’origine du contenu et son statut de génération par IA dans les métadonnées. Avec l’évolution de la technologie IA, il est probable que davantage d’innovateurs utilisent des solutions innovantes pour simplifier la conformité réglementaire.