Révision des règles de l’UE sur les modèles d’IA à usage général face à DeepSeek

A lock and key

Règles de l’Acte sur l’IA de l’UE concernant les modèles GPAI sous l’examen de DeepSeek

La montée en puissance de l’application d’IA chinoise DeepSeek pousse les décideurs politiques de l’UE à envisager des modifications à l’Acte sur l’IA de l’UE. Cette évolution pourrait inclure une mise à jour d’une mesure de seuil relative à la puissance de calcul spécifiée dans la réglementation, avec des implications potentielles pour la régulation d’autres modèles d’IA à usage général (GPAI).

Modèles GPAI et détermination du « risque systémique »

Les modèles GPAI sont des modèles d’IA capables d’effectuer une large gamme de tâches et constituent souvent la base d’autres systèmes d’IA. Les grands modèles de langage (LLM) en sont un exemple.

Les règles spécifiques aux fournisseurs de modèles GPAI sont énoncées dans le Chapitre V de l’Acte sur l’IA, qui entrera en vigueur le 2 août 2025.

Les règles les plus strictes s’appliquent aux fournisseurs de modèles GPAI « avec risque systémique ». Comprendre si un modèle GPAI sera classé comme un modèle « avec risque systémique » est une étape essentielle pour les développeurs d’IA, mais ce n’est pas un processus simple.

Le concept de « risque systémique » est défini dans l’Acte. Il signifie « un risque spécifique aux capacités à fort impact des modèles d’IA à usage général, ayant un impact significatif sur le marché de l’UE en raison de leur portée, ou en raison d’effets négatifs réels ou raisonnablement prévisibles sur la santé publique, la sécurité, les droits fondamentaux ou la société dans son ensemble, pouvant être propagés à grande échelle à travers la chaîne de valeur ».

La pertinence des « FLOPS » et comment DeepSeek change la donne

Les opérations en virgule flottante, ou FLOPS, mesurent la puissance de calcul. L’Article 51(2) stipule qu’un modèle GPAI sera présumé avoir des « capacités à fort impact » lorsque plus de 10^25 FLOPS sont utilisés pour entraîner le modèle.

Les considérations dans l’Acte sur l’IA précisent que les fournisseurs de modèles GPAI doivent savoir quand ils ont dépassé le seuil de FLOPS avant que le développement de ces modèles ne soit achevé. Cela est dû au fait que, comme l’indique le texte, « l’entraînement des modèles d’IA à usage général nécessite une planification considérable, y compris l’allocation préalable des ressources informatiques ».

Les fournisseurs doivent notifier le Bureau de l’IA de l’UE dans les deux semaines suivant le dépassement du seuil ou la prise de conscience de ce dépassement. Les fournisseurs qui atteignent le seuil de FLOPS peuvent argumenter que leurs modèles ne devraient pas être classés comme des modèles GPAI « avec risque systémique ».

Que peuvent attendre les fournisseurs de modèles GPAI ?

Bien qu’il reste à voir comment la Commission répondra aux développements mentionnés, les commentaires doivent être considérés dans un contexte géopolitique plus large. L’année dernière, les « exigences réglementaires supplémentaires sur les modèles d’IA à usage général » ont été citées comme un exemple de réglementation de précaution qui freine l’innovation.

La Commission européenne a promis de « réduire la paperasse » en relation avec l’IA, avec des propositions de « simplification » du règlement numérique de l’UE à venir. Dans ce contexte, une augmentation du seuil de FLOPS pourrait être cohérente avec un mouvement vers la réduction des charges réglementaires autour de l’IA au sein de l’UE.

En revanche, une réduction du seuil de FLOPS représenterait une reconnaissance par la Commission de l’impact de DeepSeek et de l’effet probable qu’il aura sur d’autres développeurs.

Réglementation à deux niveaux et code de pratique GPAI

Les fournisseurs de tous les modèles GPAI doivent respecter des obligations relatives à la tenue de dossiers, à la transparence et aux droits d’auteur, sous réserve d’exceptions pour certains modèles GPAI publiés sous une licence libre et open source.

Les modèles classés comme modèles GPAI avec risque systémique doivent faire face à des obligations supplémentaires, notamment :

  • Évaluer le modèle, y compris par des tests adversariaux, pour identifier et atténuer les risques systémiques ;
  • Documenter et signaler sans délai tout incident grave et les mesures correctives prises ;
  • Assurer un niveau de protection de la cybersécurité adéquat pour le modèle et son infrastructure physique.

Le code de pratique GPAI, actuellement en phase finale de développement, sera un outil important pour aider les fournisseurs à se conformer au régime des modèles GPAI de l’Acte sur l’IA.

Les fournisseurs doivent être conscients que les modèles GPAI peuvent être classés comme des systèmes d’IA « à haut risque » en vertu de l’Acte sur l’IA de l’UE, ce qui étend considérablement leurs obligations réglementaires.

Articles

Renforcer la sécurité des LLM : l’alignement responsable de l’IA

Ce document traite de l'alignement responsable de l'IA dans le développement de phi-3, mettant l'accent sur les principes de sécurité adoptés par Microsoft. Des méthodes de test et des ensembles de...

Contrôle des données dans l’ère des clouds IA souverains

Les nuages d'IA souverains offrent à la fois contrôle et conformité, répondant aux préoccupations croissantes concernant la résidence des données et le risque réglementaire. Dans un environnement où...

L’Alliance Écossaise de l’IA : Vers une Intelligence Artificielle Éthique

L'Alliance écossaise de l'IA a publié son rapport d'impact 2024/2025, révélant une année de progrès significatifs dans la promotion d'une intelligence artificielle éthique et inclusive en Écosse. Le...

UE AI Act : Préparez-vous au changement inévitable

L'annonce de la Commission européenne vendredi dernier selon laquelle il n'y aura pas de retard concernant la loi sur l'IA de l'UE a suscité des réactions passionnées des deux côtés. Il est temps de...

Fiabilité des modèles linguistiques : un défi à relever avec la loi sur l’IA de l’UE

Les modèles de langage de grande taille (LLM) ont considérablement amélioré la capacité des machines à comprendre et à traiter des séquences de texte complexes. Cependant, leur déploiement croissant...

Pause ou avancée : l’avenir de la réglementation de l’IA en Europe

Le Conseil européen a maintenu le calendrier de l'Acte sur l'IA malgré les pressions, affirmant qu'il n'y aura pas de pause dans sa mise en œuvre. Le Premier ministre suédois a appelé à un...

Nouvelles restrictions sur l’IA : impacts et opportunités

L'administration Trump prépare de nouvelles restrictions sur les exportations de puces AI vers la Malaisie et la Thaïlande pour empêcher que des processeurs avancés n'atteignent la Chine via des pays...

Gouvernance de l’IA : Garantir l’éthique et la transparence dans les entreprises modernes

La gouvernance de l'IA et la gouvernance des données sont essentielles pour garantir le développement de solutions d'IA éthiques et fiables. Ces cadres de gouvernance sont interconnectés et vitaux...

LLMOps : Optimisez l’IA Responsable à Grande Échelle avec Python

Dans un paysage hyper-compétitif, déployer des modèles de langage de grande taille (LLM) n'est pas suffisant ; il faut un cadre LLMOps robuste pour garantir la fiabilité et la conformité. Python, avec...