DeepSeek : Menace ou opportunité pour l’Europe ?

A bridge

DeepSeek : Un Problème ou une Opportunité pour l’Europe ?

Selon des sources du Parlement européen et du Conseil européen, lors de la rédaction de la AI Act, l’intention était que le fine-tuning d’un modèle ne déclenche pas immédiatement des obligations réglementaires. En effet, les règles pour les modèles GPAI sont conçues pour s’appliquer uniquement au modèle en amont, c’est-à-dire le modèle de base à partir duquel toutes les différentes applications de la chaîne de valeur de l’IA prennent naissance.

Pour le fine-tuning, il ne s’agit que de simples « provisions de la chaîne de valeur ». Cela signifie que le fine-tuner doit simplement compléter les informations déjà fournies par le fournisseur du modèle en amont avec les modifications apportées. Par exemple, si un cabinet d’avocats ajuste GPT-4 en l’entraînant avec des milliers de cas juridiques et de mémoires pour créer sa propre application « adaptée aux avocats », il n’aurait pas besoin de rédiger un ensemble complet de documentation technique détaillée, ni de sa propre politique de droits d’auteur, ni d’un résumé des données protégées par le droit d’auteur. Au lieu de cela, le cabinet d’avocats n’aurait qu’à indiquer dans la documentation existante le processus utilisé pour ajuster GPT-4 et les ensembles de données utilisés.

Étape 1 : Le R1 constitue-t-il un Fine-Tuning ?

Si le Bureau de l’IA confirme que la distillation est une forme de fine-tuning, alors DeepSeek n’aurait qu’à compléter les informations à transmettre dans la chaîne de valeur, tout comme le cabinet d’avocats. Les informations et les articles de recherche que DeepSeek a publiés semblent déjà respecter cette mesure, bien que les données soient incomplètes si les affirmations d’OpenAI sont vraies.

Inversement, si les directives indiquent que la combinaison de la distillation et des autres techniques de raffinage utilisées pour le R1 sont si sophistiquées qu’elles ont créé un nouveau modèle à part entière, alors les dispositions de la AI Act pour les modèles GPAI s’appliqueront à partir du 2 août 2025. Plus précisément, la AI Act stipule que les modèles GPAI déjà mis sur le marché avant cette date doivent « prendre les mesures nécessaires pour se conformer aux obligations d’ici le 2 août 2027 », soit dans deux ans.

Étape 2 : Si R1 est un Nouveau Modèle, Peut-il Être Désigné comme un Modèle GPAI avec Risque Systémique ?

À ce stade, les régulateurs de l’UE devront décider quelles provisions R1 doit respecter. Étant donné que la taille de R1 est bien inférieure au seuil de la AI Act de 10^25 FLOPs, ils pourraient conclure que DeepSeek n’a besoin de se conformer qu’aux provisions de base pour tous les modèles GPAI, c’est-à-dire à la documentation technique et aux dispositions de droit d’auteur. Si les modèles de DeepSeek sont considérés comme open source, les régulateurs pourraient conclure qu’ils seraient largement exemptés de la plupart de ces mesures, sauf pour celles relatives aux droits d’auteur.

Cependant, il existe toujours une possibilité que le Bureau de l’IA désigne R1 comme un modèle GPAI avec un risque systémique, même s’il se situe bien en dessous du seuil de 10^25 FLOPs qui déclencherait normalement cette désignation. La AI Act prévoit en effet la possibilité qu’un modèle GPAI en dessous de ce seuil de calcul soit désigné comme un modèle à risque systémique, en présence d’une combinaison d’autres critères (par exemple, nombre de paramètres, taille de l’ensemble de données et nombre d’utilisateurs professionnels enregistrés).

Si cette désignation se produit, DeepSeek devra mettre en place des mesures adéquates d’évaluation du modèle, d’évaluation des risques et d’atténuation, ainsi que des mesures de cybersécurité. Il ne pourrait pas échapper à ces exigences par l’exemption open source, car cela ne s’applique pas aux modèles à risque systémique. Le non-respect de ces obligations entraînerait probablement des amendes pouvant atteindre 3 % du chiffre d’affaires annuel de DeepSeek ou une restriction d’accès au marché unique de l’UE.

DeepSeek : Nouvelle Préoccupation ou Opportunité pour l’Europe ? Les Différents Scénarios

Le Bureau de l’IA devra agir avec prudence concernant les directives sur le fine-tuning et la possible désignation de DeepSeek R1 comme un modèle GPAI à risque systémique. D’une part, DeepSeek et ses répliques ou modèles miniatures similaires ont montré aux entreprises européennes qu’il est tout à fait possible de rivaliser avec, et peut-être de surpasser, les modèles à grande échelle les plus avancés en utilisant beaucoup moins de puissance de calcul et à une fraction du coût. Cela pourrait ouvrir une toute nouvelle gamme d’opportunités attrayantes.

D’autre part, si R1 est considéré comme un simple fine-tuning, les entreprises européennes reproduisant des modèles similaires pourraient échapper à presque toutes les dispositions de la AI Act. Cela pourrait potentiellement ouvrir la voie à des centaines de startups devenant rapidement compétitives avec des géants américains tels qu’OpenAI, Meta et Anthropic, qui devront quant à eux se conformer à la plus haute catégorie d’obligations GPAI.

Scénario 1 : R1 est Considéré Comme un Simple Fine-Tuning

Si R1 est considéré comme un fine-tuning, les entreprises européennes reproduisant des modèles similaires échapperont pratiquement à toutes les obligations de la AI Act. Ce scénario pourrait convenir à un changement clair de priorité vers la compétitivité sous le nouveau mandat législatif de l’UE, qui s’étend de 2024 à 2029.

Scénario 2 : R1 est Considéré Comme un Modèle GPAI

Si R1 est considéré comme un modèle GPAI en son propre droit, il devra respecter les exigences les plus strictes de la AI Act pour les modèles GPAI. Bien que des modèles similaires puissent encore prospérer en Europe, ils devront également suivre les règles de la AI Act, en matière de transparence et de droits d’auteur.

Conclusion

La nouveauté introduite par R1 crée à la fois de nouvelles préoccupations et des opportunités incroyables pour l’Europe dans le domaine de l’IA. Bien qu’il soit encore incertain dans quelle mesure la AI Act s’appliquera, elle soulève de nombreuses questions de vie privée, de safety et de sécurités.

Pour atténuer ces problèmes, la meilleure option de l’Europe serait de désigner R1 comme un modèle GPAI à part entière. Cela garantirait que des modèles similaires qui emploient différentes techniques de raffinage pourraient également être soumis aux règles de la AI Act, au moins en matière de transparence et de droits d’auteur.

Articles

L’Amérique refuse la gouvernance mondiale de l’IA lors de l’Assemblée générale de l’ONU

Les responsables américains ont rejeté une proposition visant à établir un cadre de gouvernance mondial de l'IA lors de l'Assemblée générale des Nations Unies, malgré le soutien de nombreux pays, y...

Risques et enjeux de la prolifération de l’IA agentique pour les entreprises

Dans un monde en évolution rapide de l'intelligence artificielle, les entreprises adoptent de plus en plus des systèmes d'IA agentique, mais cela entraîne un nouveau défi : l'expansion incontrôlée de...

Biais cachés dans les intelligences artificielles : un danger pour la démocratie

Le rôle croissant des modèles de langage (LLM) comme gardiens d'opinion suscite des inquiétudes quant aux biais cachés qui pourraient fausser le discours public et compromettre les processus...

L’ère de la responsabilité : la régulation de l’IA en pleine ascension

Le monde en pleine expansion de l'intelligence artificielle (IA) est à un tournant critique, alors qu'une vague d'actions réglementaires souligne un virage mondial vers la responsabilité et le...

Choisir les outils de gouvernance AI adaptés aux entreprises

Alors que l'adoption de l'IA générative s'accélère, les risques associés deviennent de plus en plus préoccupants. Cet article explore comment les outils de gouvernance de l'IA peuvent aider à gérer...

L’ONU s’engage pour une intelligence artificielle sécurisée et digne de confiance

Les Nations Unies cherchent à influencer directement la politique mondiale sur l'intelligence artificielle, en promouvant des normes politiques et techniques autour d'une IA « sûre, sécurisée et digne...

L’essor de la gouvernance de l’IA : quand les données façonnent les politiques

Récemment, lors d'une audience captivée à Singapour, deux hommes ont discuté d'un sujet pouvant redéfinir la réglementation de l'IA. Leur conversation a mis en lumière le projet MindForge, une...

Préparez-vous aux nouvelles régulations de l’IA pour les PME

Les PME doivent se préparer aux nouvelles réglementations de l'UE sur l'IA, qui entrent en vigueur en 2026, en intégrant des systèmes d'IA de manière conforme dès le départ. En adoptant des...

Nouvelles obligations de déclaration pour les systèmes d’IA à haut risque en Europe

La Commission européenne a publié des lignes directrices provisoires sur les exigences de déclaration des incidents graves pour les systèmes d'IA à haut risque dans le cadre de la loi sur l'IA de...