DeepSeek : Menace ou opportunité pour l’Europe ?

A bridge

DeepSeek : Un Problème ou une Opportunité pour l’Europe ?

Selon des sources du Parlement européen et du Conseil européen, lors de la rédaction de la AI Act, l’intention était que le fine-tuning d’un modèle ne déclenche pas immédiatement des obligations réglementaires. En effet, les règles pour les modèles GPAI sont conçues pour s’appliquer uniquement au modèle en amont, c’est-à-dire le modèle de base à partir duquel toutes les différentes applications de la chaîne de valeur de l’IA prennent naissance.

Pour le fine-tuning, il ne s’agit que de simples « provisions de la chaîne de valeur ». Cela signifie que le fine-tuner doit simplement compléter les informations déjà fournies par le fournisseur du modèle en amont avec les modifications apportées. Par exemple, si un cabinet d’avocats ajuste GPT-4 en l’entraînant avec des milliers de cas juridiques et de mémoires pour créer sa propre application « adaptée aux avocats », il n’aurait pas besoin de rédiger un ensemble complet de documentation technique détaillée, ni de sa propre politique de droits d’auteur, ni d’un résumé des données protégées par le droit d’auteur. Au lieu de cela, le cabinet d’avocats n’aurait qu’à indiquer dans la documentation existante le processus utilisé pour ajuster GPT-4 et les ensembles de données utilisés.

Étape 1 : Le R1 constitue-t-il un Fine-Tuning ?

Si le Bureau de l’IA confirme que la distillation est une forme de fine-tuning, alors DeepSeek n’aurait qu’à compléter les informations à transmettre dans la chaîne de valeur, tout comme le cabinet d’avocats. Les informations et les articles de recherche que DeepSeek a publiés semblent déjà respecter cette mesure, bien que les données soient incomplètes si les affirmations d’OpenAI sont vraies.

Inversement, si les directives indiquent que la combinaison de la distillation et des autres techniques de raffinage utilisées pour le R1 sont si sophistiquées qu’elles ont créé un nouveau modèle à part entière, alors les dispositions de la AI Act pour les modèles GPAI s’appliqueront à partir du 2 août 2025. Plus précisément, la AI Act stipule que les modèles GPAI déjà mis sur le marché avant cette date doivent « prendre les mesures nécessaires pour se conformer aux obligations d’ici le 2 août 2027 », soit dans deux ans.

Étape 2 : Si R1 est un Nouveau Modèle, Peut-il Être Désigné comme un Modèle GPAI avec Risque Systémique ?

À ce stade, les régulateurs de l’UE devront décider quelles provisions R1 doit respecter. Étant donné que la taille de R1 est bien inférieure au seuil de la AI Act de 10^25 FLOPs, ils pourraient conclure que DeepSeek n’a besoin de se conformer qu’aux provisions de base pour tous les modèles GPAI, c’est-à-dire à la documentation technique et aux dispositions de droit d’auteur. Si les modèles de DeepSeek sont considérés comme open source, les régulateurs pourraient conclure qu’ils seraient largement exemptés de la plupart de ces mesures, sauf pour celles relatives aux droits d’auteur.

Cependant, il existe toujours une possibilité que le Bureau de l’IA désigne R1 comme un modèle GPAI avec un risque systémique, même s’il se situe bien en dessous du seuil de 10^25 FLOPs qui déclencherait normalement cette désignation. La AI Act prévoit en effet la possibilité qu’un modèle GPAI en dessous de ce seuil de calcul soit désigné comme un modèle à risque systémique, en présence d’une combinaison d’autres critères (par exemple, nombre de paramètres, taille de l’ensemble de données et nombre d’utilisateurs professionnels enregistrés).

Si cette désignation se produit, DeepSeek devra mettre en place des mesures adéquates d’évaluation du modèle, d’évaluation des risques et d’atténuation, ainsi que des mesures de cybersécurité. Il ne pourrait pas échapper à ces exigences par l’exemption open source, car cela ne s’applique pas aux modèles à risque systémique. Le non-respect de ces obligations entraînerait probablement des amendes pouvant atteindre 3 % du chiffre d’affaires annuel de DeepSeek ou une restriction d’accès au marché unique de l’UE.

DeepSeek : Nouvelle Préoccupation ou Opportunité pour l’Europe ? Les Différents Scénarios

Le Bureau de l’IA devra agir avec prudence concernant les directives sur le fine-tuning et la possible désignation de DeepSeek R1 comme un modèle GPAI à risque systémique. D’une part, DeepSeek et ses répliques ou modèles miniatures similaires ont montré aux entreprises européennes qu’il est tout à fait possible de rivaliser avec, et peut-être de surpasser, les modèles à grande échelle les plus avancés en utilisant beaucoup moins de puissance de calcul et à une fraction du coût. Cela pourrait ouvrir une toute nouvelle gamme d’opportunités attrayantes.

D’autre part, si R1 est considéré comme un simple fine-tuning, les entreprises européennes reproduisant des modèles similaires pourraient échapper à presque toutes les dispositions de la AI Act. Cela pourrait potentiellement ouvrir la voie à des centaines de startups devenant rapidement compétitives avec des géants américains tels qu’OpenAI, Meta et Anthropic, qui devront quant à eux se conformer à la plus haute catégorie d’obligations GPAI.

Scénario 1 : R1 est Considéré Comme un Simple Fine-Tuning

Si R1 est considéré comme un fine-tuning, les entreprises européennes reproduisant des modèles similaires échapperont pratiquement à toutes les obligations de la AI Act. Ce scénario pourrait convenir à un changement clair de priorité vers la compétitivité sous le nouveau mandat législatif de l’UE, qui s’étend de 2024 à 2029.

Scénario 2 : R1 est Considéré Comme un Modèle GPAI

Si R1 est considéré comme un modèle GPAI en son propre droit, il devra respecter les exigences les plus strictes de la AI Act pour les modèles GPAI. Bien que des modèles similaires puissent encore prospérer en Europe, ils devront également suivre les règles de la AI Act, en matière de transparence et de droits d’auteur.

Conclusion

La nouveauté introduite par R1 crée à la fois de nouvelles préoccupations et des opportunités incroyables pour l’Europe dans le domaine de l’IA. Bien qu’il soit encore incertain dans quelle mesure la AI Act s’appliquera, elle soulève de nombreuses questions de vie privée, de safety et de sécurités.

Pour atténuer ces problèmes, la meilleure option de l’Europe serait de désigner R1 comme un modèle GPAI à part entière. Cela garantirait que des modèles similaires qui emploient différentes techniques de raffinage pourraient également être soumis aux règles de la AI Act, au moins en matière de transparence et de droits d’auteur.

Articles

Fiabilité des modèles linguistiques : un défi à relever avec la loi sur l’IA de l’UE

Les modèles de langage de grande taille (LLM) ont considérablement amélioré la capacité des machines à comprendre et à traiter des séquences de texte complexes. Cependant, leur déploiement croissant...

Pause ou avancée : l’avenir de la réglementation de l’IA en Europe

Le Conseil européen a maintenu le calendrier de l'Acte sur l'IA malgré les pressions, affirmant qu'il n'y aura pas de pause dans sa mise en œuvre. Le Premier ministre suédois a appelé à un...

Nouvelles restrictions sur l’IA : impacts et opportunités

L'administration Trump prépare de nouvelles restrictions sur les exportations de puces AI vers la Malaisie et la Thaïlande pour empêcher que des processeurs avancés n'atteignent la Chine via des pays...

Gouvernance de l’IA : Garantir l’éthique et la transparence dans les entreprises modernes

La gouvernance de l'IA et la gouvernance des données sont essentielles pour garantir le développement de solutions d'IA éthiques et fiables. Ces cadres de gouvernance sont interconnectés et vitaux...

LLMOps : Optimisez l’IA Responsable à Grande Échelle avec Python

Dans un paysage hyper-compétitif, déployer des modèles de langage de grande taille (LLM) n'est pas suffisant ; il faut un cadre LLMOps robuste pour garantir la fiabilité et la conformité. Python, avec...

Sécuriser l’IA : La transformation de la protection des données à Singapour

Singapour répond de manière proactive aux défis en constante évolution posés par l'utilisation des données à l'ère de l'intelligence artificielle (IA), a déclaré la ministre des Communications et de...

Surveillance AI en Asie-Pacifique : un vide de gouvernance inquiétant

L'Acte sur l'intelligence artificielle (IA) de l'UE introduit un cadre de régulation basé sur les risques pour les systèmes d'IA, imposant des limites sur la surveillance biométrique. Pendant ce...

L’IA au service de solutions fiscales intelligentes

L'intelligence artificielle (IA) transforme le paysage de la conformité fiscale en offrant des solutions innovantes qui rationalisent les processus et améliorent l'exactitude. En automatisant la...

Opportunités cachées dans la conformité proactive aux réglementations de l’IA en Europe

L'Acte sur l'Intelligence Artificielle de l'Union Européenne, qui doit transformer la gouvernance mondiale de l'IA, fait face à des délais critiques alors que les délais de conformité approchent. Cet...