Nous avons URGEMMENT besoin d’une loi fédérale interdisant l’imitation des humains par l’IA
La nuit précédant mon témoignage au Sénat des États-Unis en mai 2023, un philosophe renommé m’a envoyé un manuscrit intitulé « personnes contrefaites ». Ce texte a été publié peu après dans un magazine de renom.
Il avait raison à l’époque, et trois ans plus tard, ce besoin est encore plus pressant. La nécessité d’une loi interdisant la « création et la diffusion de personnes contrefaites » est désormais urgente.
Évolution des technologies de contrefaçon
Deux éléments récents m’ont clairement montré à quel point la situation est devenue préoccupante. Le premier démontre à quel point les vidéos deepfake ont évolué : l’apparence de n’importe qui peut désormais être falsifiée, à tout moment et à moindre coût, si l’on dispose de suffisamment de données.
Parallèlement, il est important de se rappeler les risques de sécurité que j’ai signalés concernant certaines technologies. Aujourd’hui, il est possible d’utiliser des outils pour appeler des gens et prétendre être humain.
Risques liés aux escroqueries
Les escrocs seront parmi les premiers à adopter ces outils, et ils l’ont déjà fait. Un ami qui a filmé un documentaire m’a récemment parlé d’un cas où un Canadien a été escroqué de centaines de milliers de dollars par une vidéo deepfake d’une personnalité publique. Étant donné que les outils de contrefaçon sont devenus si performants, l’année 2026 risque de connaître plus d’escroqueries par deepfake que toutes celles de l’histoire réunies.
Appel à l’action
Il est essentiel de faire entendre notre voix auprès de nos représentants dès aujourd’hui, pour exiger l’adoption de lois fédérales interdisant que les productions des machines soient présentées comme humaines. Il ne devrait plus y avoir d’utilisation de la première personne par les chatbots, et aucune deepfake de voix et d’images de personnes vivantes sans leur consentement explicite, à l’exception des cas évidents de parodie.
Toute cette situation a évolué trop rapidement, et il est impératif que les lobbyistes corporatifs ne parviennent pas à entraver les efforts pour y remédier. Bien que les systèmes d’IA générative aient encore des difficultés à raisonner, leur capacité à imiter a atteint un point critique qui nécessite une intervention immédiate.
Conclusion
Bien que certaines lois au niveau des États tentent d’aborder ces questions, le gouvernement fédéral cherche à affaiblir la capacité des États à adopter et appliquer des réglementations sur l’IA.