AI, Anonymat et Responsabilité : Ce que les Nouvelles Règles IT Changent
Les règles modifiées de la technologie de l’information en Inde, notifiées le 10 février 2026, introduisent des changements significatifs pour les plateformes de médias sociaux et autres intermédiaires hébergeant du contenu audio-visuel et généré par l’IA.
Définitions et Changements
Les modifications définissent formellement les médias synthétiques, raccourcissent les délais de retrait et élargissent les exigences de conformité pour les plateformes de médias sociaux.
Pour la première fois, les règles définissent ce qu’elles appellent « informations générées synthétiquement » (SGI). Cela inclut le contenu audio-visuel qui est « créé, généré, modifié ou altéré de manière artificielle ou algorithmique » de façon à sembler réel ou authentique.
Cette définition couvre les deepfakes, les vidéos générées par IA, les voix clonées et les images manipulées hyper-réalistes. En même temps, les règles clarifient que l’édition routinière, comme la correction des couleurs ou la réduction du bruit, ne sera pas considérée comme du contenu synthétique tant qu’elle ne « modifie pas matériellement » le matériel original.
Obligations de Retrait
Un des changements les plus notables est la réduction du délai de retrait. Auparavant, les intermédiaires devaient retirer le contenu illégal dans les 36 heures suivant la réception d’un ordre judiciaire. Selon les nouvelles règles, ils doivent maintenant retirer ou désactiver l’accès dans les trois heures suivant la prise de « connaissance réelle », qu’elle provienne d’un ordre judiciaire ou d’une communication écrite d’un agent gouvernemental autorisé.
Ce délai de trois heures s’applique à toutes les catégories de contenu illégal, et non seulement au matériel généré par IA.
Implications et Risques
Ce changement est perçu comme une extension du champ d’application bien au-delà des seuls médias synthétiques. Les plateformes pourraient être amenées à s’appuyer davantage sur des systèmes automatisés pour respecter ce délai compressé.
Les règles conservent également un délai séparé de deux heures pour certaines catégories de plaintes d’utilisateurs. Dans les cas impliquant du contenu à caractère sexuel ou des images altérées, les intermédiaires doivent agir dans les deux heures suivant la réception d’une plainte.
Les règles prévoient également que, si un utilisateur enfreint les règles, les plateformes peuvent être tenues d’identifier cet utilisateur. Cela signifie que, sous réserve de garanties légales, l’anonymat pourrait ne pas protéger les individus qui abusent des outils d’IA.
Conclusion
Les modifications apportées aux règles IT représentent un tournant significatif dans la manière dont le contenu généré par l’IA est traité. Bien qu’elles visent à limiter la propagation rapide de matériel nuisible en ligne, elles soulèvent des préoccupations concernant la responsabilité des intermédiaires et la protection des droits numériques.