Russie : Nouvelles Régulations pour Contrôler les Outils d’IA Étrangers

A cybernetic puppet with strings controlled by a Russian matryoshka doll

La Russie prévoit des pouvoirs étendus pour interdire ou restreindre les outils d’IA étrangers

Régulations proposées et leurs implications

Des outils d’IA étrangers comme Claude, ChatGPT et Gemini pourraient être interdits ou restreints en Russie s’ils ne respectent pas les nouvelles règles qui donneraient à Moscou des pouvoirs étendus pour réguler le secteur, selon des propositions gouvernementales publiées en ligne.

Propositions gouvernementales et objectifs

Les propositions, publiées par le ministère russe du Développement numérique, visent à étendre à l’essor du secteur de l’IA la volonté de la Russie d’établir un internet souverain, protégé de l’influence étrangère et respectant ce que le pays appelle « les valeurs spirituelles et morales traditionnelles russes ».

Le ministère a déclaré que les nouvelles règles étaient conçues pour « aider à protéger les citoyens contre la manipulation cachée et les algorithmes discriminatoires ».

Restriction des technologies d’IA transfrontalières

L’initiative, qui devrait bénéficier aux outils d’IA développés par des entreprises nationales, intervient à un moment où l’État russe renforce son contrôle sur Internet. Les régulations devraient entrer en vigueur l’année prochaine après un examen et une approbation gouvernementale.

Portée des restrictions proposées

« L’exploitation des technologies d’intelligence artificielle transfrontalières peut être interdite ou restreinte dans les cas spécifiés par la législation de la Fédération de Russie », stipulent les règles. Les outils d’IA étrangers seraient concernés car ils transfèrent inévitablement les données des citoyens russes à l’étranger.

Les technologies d’IA transfrontalières font référence à tous les modèles d’IA étrangers, y compris ChatGPT, Claude et Gemini, où l’utilisation de tels modèles entraîne la transmission des données utilisateur, des requêtes et des dialogues aux développeurs de ces modèles en dehors de la Russie.

Exceptions potentielles et exigences de conformité

D’autres outils d’IA étrangers mais ouverts, tels que ceux développés en Chine, pourraient cependant être adaptés et déployés en toute sécurité dans un environnement fermé sur l’infrastructure propriétaire des organisations et entreprises gouvernementales russes, car toutes les données traitées resteraient dans cette infrastructure.

Les modèles d’IA utilisés par plus de 500 000 personnes par jour devront stocker les informations des utilisateurs russes sur le territoire russe pendant trois ans pour être conformes au nouveau régime réglementaire. Les entreprises technologiques occidentales ont par le passé refusé de se conformer à de telles demandes.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...