Confiance illusoire dans l’Acte sur l’IA de l’UE : lacunes épistémiques et pièges bureaucratiques

A broken clock to illustrate the urgency and potential delays in adapting to AI governance.

A False Confidence in the EU AI Act: Écarts épistémiques et pièges bureaucratiques

Le 10 juillet 2025, la Commission européenne a publié le projet final du Code de pratique pour l’intelligence artificielle à usage général (GPAI), un « code conçu pour aider l’industrie à se conformer aux règles de l’AI Act ». Ce code est en développement depuis octobre 2024, suite à un processus de rédaction itératif qui a commencé après une plénière de lancement en septembre 2024. La Commission avait prévu de publier le projet final d’ici le 2 mai 2025, mais le retard a suscité de nombreuses spéculations, allant des préoccupations concernant le lobbying industriel à des tensions idéologiques plus profondes entre les partisans de l’innovation et de la réglementation.

Cependant, au-delà de ces récits, un problème plus fondamental émerge : un déconnecté épistémique et conceptuel au cœur de l’EU Artificial Intelligence Act, en particulier dans son approche de l’« intelligence artificielle à usage général » (GPAI). La version actuelle, qui comprend trois chapitres couvrant la « Transparence », le « Droit d’auteur » et la « Sécurité et sûreté », n’aborde pas ces problèmes fondamentaux.

La création légale de l’intelligence artificielle à usage général

Selon l’Art. 3(63) de l’EU AI Act, un « modèle d’IA à usage général » est :

« un modèle d’IA, y compris lorsque ce modèle d’IA est entraîné avec une grande quantité de données utilisant l’auto-supervision à grande échelle, qui affiche une généralité significative et est capable de réaliser de manière compétente une large gamme de tâches distinctes, peu importe la manière dont le modèle est mis sur le marché et qui peut être intégré dans une variété de systèmes ou d’applications en aval, sauf les modèles d’IA utilisés pour des activités de recherche, de développement ou de prototypage avant d’être mis sur le marché. »

Ce que l’Acte désigne ici s’aligne sur ce que la communauté de recherche en IA désigne comme un modèle de fondation – un terme largement utilisé pour décrire des modèles à grande échelle entraînés sur des ensembles de données larges pour soutenir plusieurs tâches. Des exemples de tels modèles de fondation incluent les séries ChatGPT d’OpenAI, Magma de Microsoft, Gemini de Google et BERT. Ces modèles servent de bases qui peuvent être ajustées ou adaptées pour des cas d’utilisation particuliers.

Il est crucial de noter que le terme « IA à usage général » (GPAI) n’est pas issu de la communauté de recherche en IA. Il s’agit d’une construction légale introduite par l’EU AI Act pour définir rétroactivement certains types de systèmes d’IA. Avant cela, le terme « GPAI » avait peu ou pas de présence dans le discours académique. En ce sens, l’Acte ne se contente pas d’attribuer une signification réglementaire au terme, mais crée également une nouvelle catégorie qui risque de déformer la manière dont ces systèmes sont réellement compris et développés dans la pratique.

Les limites d’un cadre basé sur le risque

L’EU AI Act adopte une approche réglementaire basée sur le risque. L’Article 3(2) définit le risque comme « la combinaison de la probabilité d’un dommage et de la gravité de ce dommage ». Cette définition s’inspire des traditions juridiques et actuarielles classiques, où il est supposé que les dommages sont prévisibles, que les probabilités peuvent être raisonnablement attribuées et que les risques peuvent être évalués en conséquence. Cependant, l’IA – en particulier les modèles de fondation – complique ce cadre.

Les modèles de fondation se caractérisent par des propriétés difficiles à quantifier, y compris leur nature probabiliste et augmentative et leur interaction avec des environnements sociotechniques complexes, où les dommages ne peuvent pas être clairement prévus. En conséquence, les approches traditionnelles d’évaluation des risques ne peuvent pas rendre compte adéquatement de leur comportement ou de leur impact et peuvent produire un faux sentiment de confiance pour les régulateurs.

Le piège bureaucratique de la certitude légale

L’analyse de la bureaucratie par Max Weber aide à expliquer pourquoi cet écart entre les hypothèses intégrées dans les instruments juridiques et les réalités des technologies était prévisible. Weber a décrit la bureaucratie comme une « cage de fer » de rationalisation, dépendante de règles formelles, de hiérarchies et de clarté catégorique. Les bureaucraties nécessitent une catégorisation claire, sinon elles ne peuvent pas fonctionner efficacement.

Les définitions précises de l’EU AI Act, telles que celles pour « fournisseur », « déployeur » et surtout « modèle d’IA à usage général », reflètent cette logique bureaucratique. Cependant, comme Weber l’a averti, cette forme de rationalité peut conduire à des schémas de pensée trop rigides et formalisés. En traitant les catégories d’IA comme scientifiquement établies, l’Acte illustre le formalisme juridique qui pourrait entraver la gouvernance adaptative.

Les leçons tirées de cet article soulignent que l’Acte risque de légiférer sur le paradigme d’hier dans le monde de demain. Au lieu de fonder la réglementation sur des catégories fixes, les décideurs doivent établir des mécanismes de gouvernance qui anticipent le changement conceptuel et permettent une révision itérative.

Articles

Guide complet sur l’utilisation de l’IA dans le secteur public en Finlande

Le gouvernement finlandais doit se conformer à la loi européenne sur l'IA, qui entre en vigueur le 2 août 2025, tandis que Traficom coordonne environ dix autorités de surveillance du marché. Cette...

Stratégies de gouvernance de l’IA : Équilibre entre risque et innovation en Asie de l’Est

Alors que l'IA devient une force déterminante dans l'innovation mondiale, les gouvernements de Corée du Sud, du Japon et de Taïwan établissent des cadres réglementaires pour superviser son...

Défis éthiques de l’IA pour les assureurs

Les compagnies d'assurance intègrent de plus en plus l'IA dans leurs processus d'underwriting, de tarification et de gestion des sinistres. Cependant, cela soulève des préoccupations réglementaires...

Confiance illusoire dans l’Acte sur l’IA de l’UE : lacunes épistémiques et pièges bureaucratiques

Le 10 juillet 2025, la Commission européenne a publié l'ébauche finale du Code de pratique sur l'intelligence artificielle à usage général (GPAI), conçu pour aider l'industrie à se conformer aux...

Comprendre les risques de l’IA : le cadre du règlement européen sur l’IA

Le règlement sur l'IA de l'UE transforme la gestion des risques liés à l'IA super en renforçant la surveillance humaine et la cybersécurité pour prévenir les menaces existentielles. Ce cadre basé sur...

Nouveau tournant pour l’IA en Europe : ce que signifie l’Acte sur l’IA de l’UE

L'Acte sur l'IA de l'UE a marqué un tournant important le 2 août 2025, rendant les modèles d'IA à usage général soumis à des exigences réglementaires spécifiques. Cela crée des opportunités pour les...

L’Union européenne face aux défis du copyright à l’ère de l’IA

L'Union européenne se trouve toujours dans un dilemme concernant les droits d'auteur liés à l'IA, alors que des ajustements aux exigences de droit d'auteur dans le Code de pratique de la loi sur l'IA...

Conformité et opportunités avec la nouvelle législation sur l’IA en Europe

La Loi sur l'IA de l'UE est désormais en vigueur, et le compte à rebours pour la conformité a commencé. Les entreprises de Medtech opérant dans l'UE doivent agir rapidement pour se préparer aux...

Nouvelles règles d’étiquetage de l’IA en Chine : ce que les entreprises doivent savoir

La Chine renforce ses règles sur le marquage de contenu généré par l'IA, exigeant que chaque contenu soit clairement identifié sur les plateformes chinoises. Les entreprises doivent se conformer à ces...