DeepSeek : Un Problème ou une Opportunité pour l’Europe ?
Selon des sources du Parlement européen et du Conseil européen, lors de la rédaction de la AI Act, l’intention était que le fine-tuning d’un modèle ne déclenche pas immédiatement des obligations réglementaires. En effet, les règles pour les modèles GPAI sont conçues pour s’appliquer uniquement au modèle en amont, c’est-à-dire le modèle de base à partir duquel toutes les différentes applications de la chaîne de valeur de l’IA prennent naissance.
Pour le fine-tuning, il ne s’agit que de simples « provisions de la chaîne de valeur ». Cela signifie que le fine-tuner doit simplement compléter les informations déjà fournies par le fournisseur du modèle en amont avec les modifications apportées. Par exemple, si un cabinet d’avocats ajuste GPT-4 en l’entraînant avec des milliers de cas juridiques et de mémoires pour créer sa propre application « adaptée aux avocats », il n’aurait pas besoin de rédiger un ensemble complet de documentation technique détaillée, ni de sa propre politique de droits d’auteur, ni d’un résumé des données protégées par le droit d’auteur. Au lieu de cela, le cabinet d’avocats n’aurait qu’à indiquer dans la documentation existante le processus utilisé pour ajuster GPT-4 et les ensembles de données utilisés.
Étape 1 : Le R1 constitue-t-il un Fine-Tuning ?
Si le Bureau de l’IA confirme que la distillation est une forme de fine-tuning, alors DeepSeek n’aurait qu’à compléter les informations à transmettre dans la chaîne de valeur, tout comme le cabinet d’avocats. Les informations et les articles de recherche que DeepSeek a publiés semblent déjà respecter cette mesure, bien que les données soient incomplètes si les affirmations d’OpenAI sont vraies.
Inversement, si les directives indiquent que la combinaison de la distillation et des autres techniques de raffinage utilisées pour le R1 sont si sophistiquées qu’elles ont créé un nouveau modèle à part entière, alors les dispositions de la AI Act pour les modèles GPAI s’appliqueront à partir du 2 août 2025. Plus précisément, la AI Act stipule que les modèles GPAI déjà mis sur le marché avant cette date doivent « prendre les mesures nécessaires pour se conformer aux obligations d’ici le 2 août 2027 », soit dans deux ans.
Étape 2 : Si R1 est un Nouveau Modèle, Peut-il Être Désigné comme un Modèle GPAI avec Risque Systémique ?
À ce stade, les régulateurs de l’UE devront décider quelles provisions R1 doit respecter. Étant donné que la taille de R1 est bien inférieure au seuil de la AI Act de 10^25 FLOPs, ils pourraient conclure que DeepSeek n’a besoin de se conformer qu’aux provisions de base pour tous les modèles GPAI, c’est-à-dire à la documentation technique et aux dispositions de droit d’auteur. Si les modèles de DeepSeek sont considérés comme open source, les régulateurs pourraient conclure qu’ils seraient largement exemptés de la plupart de ces mesures, sauf pour celles relatives aux droits d’auteur.
Cependant, il existe toujours une possibilité que le Bureau de l’IA désigne R1 comme un modèle GPAI avec un risque systémique, même s’il se situe bien en dessous du seuil de 10^25 FLOPs qui déclencherait normalement cette désignation. La AI Act prévoit en effet la possibilité qu’un modèle GPAI en dessous de ce seuil de calcul soit désigné comme un modèle à risque systémique, en présence d’une combinaison d’autres critères (par exemple, nombre de paramètres, taille de l’ensemble de données et nombre d’utilisateurs professionnels enregistrés).
Si cette désignation se produit, DeepSeek devra mettre en place des mesures adéquates d’évaluation du modèle, d’évaluation des risques et d’atténuation, ainsi que des mesures de cybersécurité. Il ne pourrait pas échapper à ces exigences par l’exemption open source, car cela ne s’applique pas aux modèles à risque systémique. Le non-respect de ces obligations entraînerait probablement des amendes pouvant atteindre 3 % du chiffre d’affaires annuel de DeepSeek ou une restriction d’accès au marché unique de l’UE.
DeepSeek : Nouvelle Préoccupation ou Opportunité pour l’Europe ? Les Différents Scénarios
Le Bureau de l’IA devra agir avec prudence concernant les directives sur le fine-tuning et la possible désignation de DeepSeek R1 comme un modèle GPAI à risque systémique. D’une part, DeepSeek et ses répliques ou modèles miniatures similaires ont montré aux entreprises européennes qu’il est tout à fait possible de rivaliser avec, et peut-être de surpasser, les modèles à grande échelle les plus avancés en utilisant beaucoup moins de puissance de calcul et à une fraction du coût. Cela pourrait ouvrir une toute nouvelle gamme d’opportunités attrayantes.
D’autre part, si R1 est considéré comme un simple fine-tuning, les entreprises européennes reproduisant des modèles similaires pourraient échapper à presque toutes les dispositions de la AI Act. Cela pourrait potentiellement ouvrir la voie à des centaines de startups devenant rapidement compétitives avec des géants américains tels qu’OpenAI, Meta et Anthropic, qui devront quant à eux se conformer à la plus haute catégorie d’obligations GPAI.
Scénario 1 : R1 est Considéré Comme un Simple Fine-Tuning
Si R1 est considéré comme un fine-tuning, les entreprises européennes reproduisant des modèles similaires échapperont pratiquement à toutes les obligations de la AI Act. Ce scénario pourrait convenir à un changement clair de priorité vers la compétitivité sous le nouveau mandat législatif de l’UE, qui s’étend de 2024 à 2029.
Scénario 2 : R1 est Considéré Comme un Modèle GPAI
Si R1 est considéré comme un modèle GPAI en son propre droit, il devra respecter les exigences les plus strictes de la AI Act pour les modèles GPAI. Bien que des modèles similaires puissent encore prospérer en Europe, ils devront également suivre les règles de la AI Act, en matière de transparence et de droits d’auteur.
Conclusion
La nouveauté introduite par R1 crée à la fois de nouvelles préoccupations et des opportunités incroyables pour l’Europe dans le domaine de l’IA. Bien qu’il soit encore incertain dans quelle mesure la AI Act s’appliquera, elle soulève de nombreuses questions de vie privée, de safety et de sécurités.
Pour atténuer ces problèmes, la meilleure option de l’Europe serait de désigner R1 comme un modèle GPAI à part entière. Cela garantirait que des modèles similaires qui emploient différentes techniques de raffinage pourraient également être soumis aux règles de la AI Act, au moins en matière de transparence et de droits d’auteur.