La Russie prévoit des pouvoirs étendus pour interdire ou restreindre les outils d’IA étrangers
Régulations proposées et leurs implications
Des outils d’IA étrangers comme Claude, ChatGPT et Gemini pourraient être interdits ou restreints en Russie s’ils ne respectent pas les nouvelles règles qui donneraient à Moscou des pouvoirs étendus pour réguler le secteur, selon des propositions gouvernementales publiées en ligne.
Propositions gouvernementales et objectifs
Les propositions, publiées par le ministère russe du Développement numérique, visent à étendre à l’essor du secteur de l’IA la volonté de la Russie d’établir un internet souverain, protégé de l’influence étrangère et respectant ce que le pays appelle « les valeurs spirituelles et morales traditionnelles russes ».
Le ministère a déclaré que les nouvelles règles étaient conçues pour « aider à protéger les citoyens contre la manipulation cachée et les algorithmes discriminatoires ».
Restriction des technologies d’IA transfrontalières
L’initiative, qui devrait bénéficier aux outils d’IA développés par des entreprises nationales, intervient à un moment où l’État russe renforce son contrôle sur Internet. Les régulations devraient entrer en vigueur l’année prochaine après un examen et une approbation gouvernementale.
Portée des restrictions proposées
« L’exploitation des technologies d’intelligence artificielle transfrontalières peut être interdite ou restreinte dans les cas spécifiés par la législation de la Fédération de Russie », stipulent les règles. Les outils d’IA étrangers seraient concernés car ils transfèrent inévitablement les données des citoyens russes à l’étranger.
Les technologies d’IA transfrontalières font référence à tous les modèles d’IA étrangers, y compris ChatGPT, Claude et Gemini, où l’utilisation de tels modèles entraîne la transmission des données utilisateur, des requêtes et des dialogues aux développeurs de ces modèles en dehors de la Russie.
Exceptions potentielles et exigences de conformité
D’autres outils d’IA étrangers mais ouverts, tels que ceux développés en Chine, pourraient cependant être adaptés et déployés en toute sécurité dans un environnement fermé sur l’infrastructure propriétaire des organisations et entreprises gouvernementales russes, car toutes les données traitées resteraient dans cette infrastructure.
Les modèles d’IA utilisés par plus de 500 000 personnes par jour devront stocker les informations des utilisateurs russes sur le territoire russe pendant trois ans pour être conformes au nouveau régime réglementaire. Les entreprises technologiques occidentales ont par le passé refusé de se conformer à de telles demandes.