Nouvelles règles de MeitY : un renforcement de la surveillance de l’IA face aux deepfakes obscènes
Quelques jours après que le ministère de l’Électronique et des Technologies de l’information a notifié des modifications majeures des règles relatives à l’Internet, les experts de l’industrie affirment que la réglementation seule ne suffira pas à neutraliser le flux croissant de contenu obscène généré par l’IA en ligne.
Un cadre législatif renforcé
Les nouvelles règles obligent les intermédiaires à étiqueter clairement le contenu généré par l’IA, à intégrer des métadonnées traçables et à retirer tout contenu illégal dans un délai de trois heures après signalement par les autorités. Cela représente un resserrement significatif par rapport à la fenêtre précédente de 36 heures. Les modifications ciblent explicitement les deepfakes et les images sexuelles non consensuelles, imposant de strictes obligations de diligence aux plateformes et aux fournisseurs de services d’IA.
Défis de l’application
Cependant, l’application de ces règles reste un défi majeur. Des notifications ont été émises concernant l’utilisation présumée d’un chatbot permettant de générer et de partager des images sexuelles explicites d’individus, y compris des mineurs. Cette situation met en lumière une préoccupation plus profonde : même si les normes et règles sont renforcées, les outils d’IA facilitent la création de contenu explicite et exploitant plus rapidement et à moindre coût.
Zones grises et responsabilités
Les experts notent que le terrain le plus difficile se situe dans la zone grise du contenu sexualisé ou provocateur qui peut ne pas être illégal mais qui pose des questions éthiques. Les influenceurs, depuis longtemps, utilisent la sexualité et l’attrait visuel comme outils marketing. Les modèles d’IA représentent désormais une version moins coûteuse et plus évolutive de cette économie de l’attention.
Les marques doivent naviguer entre le contenu illégal, qui attire l’attention réglementaire, et le contenu « limite » qui, bien que légal, pourrait entraîner un retour de bâton en termes de réputation.
Implications pour les annonceurs
Pour les annonceurs, la menace est double : être associés à du contenu synthétique explicite et risquer l’utilisation non autorisée de l’image des ambassadeurs de marque par le biais de deepfakes. Une étude a révélé qu’une proportion significative des outils de deepfake produit du contenu inapproprié, de nombreux influenceurs signalant que leur image a été manipulée sans consentement.
Les plateformes doivent être tenues responsables des contenus qu’elles promeuvent, même si elles sont des entreprises. Si leurs systèmes amplifient intentionnellement du contenu inapproprié, cela les rend complices du problème.
Conclusion
Les nouvelles règles de MeitY tentent de combler les lacunes en exigeant des métadonnées intégrées dans le contenu généré par l’IA et en imposant des déclarations utilisateur lors de l’utilisation d’outils synthétiques. Cependant, la technologie de détection est souvent en retard par rapport aux outils de génération, rendant la modération en temps réel complexe.
À mesure que l’IA brouille la ligne entre l’imagerie authentique et fabriquée, les enjeux de réputation pour les marques n’ont jamais été aussi élevés. Dans un écosystème numérique axé sur la viralité et l’attention monétisée, les règles mises en place définiront les limites, mais la coopération soutenue entre régulateurs, plateformes et industrie déterminera si ces limites seront respectées.