Confiance illusoire dans l’Acte sur l’IA de l’UE : lacunes épistémiques et pièges bureaucratiques

A broken clock to illustrate the urgency and potential delays in adapting to AI governance.

A False Confidence in the EU AI Act: Écarts épistémiques et pièges bureaucratiques

Le 10 juillet 2025, la Commission européenne a publié le projet final du Code de pratique pour l’intelligence artificielle à usage général (GPAI), un « code conçu pour aider l’industrie à se conformer aux règles de l’AI Act ». Ce code est en développement depuis octobre 2024, suite à un processus de rédaction itératif qui a commencé après une plénière de lancement en septembre 2024. La Commission avait prévu de publier le projet final d’ici le 2 mai 2025, mais le retard a suscité de nombreuses spéculations, allant des préoccupations concernant le lobbying industriel à des tensions idéologiques plus profondes entre les partisans de l’innovation et de la réglementation.

Cependant, au-delà de ces récits, un problème plus fondamental émerge : un déconnecté épistémique et conceptuel au cœur de l’EU Artificial Intelligence Act, en particulier dans son approche de l’« intelligence artificielle à usage général » (GPAI). La version actuelle, qui comprend trois chapitres couvrant la « Transparence », le « Droit d’auteur » et la « Sécurité et sûreté », n’aborde pas ces problèmes fondamentaux.

La création légale de l’intelligence artificielle à usage général

Selon l’Art. 3(63) de l’EU AI Act, un « modèle d’IA à usage général » est :

« un modèle d’IA, y compris lorsque ce modèle d’IA est entraîné avec une grande quantité de données utilisant l’auto-supervision à grande échelle, qui affiche une généralité significative et est capable de réaliser de manière compétente une large gamme de tâches distinctes, peu importe la manière dont le modèle est mis sur le marché et qui peut être intégré dans une variété de systèmes ou d’applications en aval, sauf les modèles d’IA utilisés pour des activités de recherche, de développement ou de prototypage avant d’être mis sur le marché. »

Ce que l’Acte désigne ici s’aligne sur ce que la communauté de recherche en IA désigne comme un modèle de fondation – un terme largement utilisé pour décrire des modèles à grande échelle entraînés sur des ensembles de données larges pour soutenir plusieurs tâches. Des exemples de tels modèles de fondation incluent les séries ChatGPT d’OpenAI, Magma de Microsoft, Gemini de Google et BERT. Ces modèles servent de bases qui peuvent être ajustées ou adaptées pour des cas d’utilisation particuliers.

Il est crucial de noter que le terme « IA à usage général » (GPAI) n’est pas issu de la communauté de recherche en IA. Il s’agit d’une construction légale introduite par l’EU AI Act pour définir rétroactivement certains types de systèmes d’IA. Avant cela, le terme « GPAI » avait peu ou pas de présence dans le discours académique. En ce sens, l’Acte ne se contente pas d’attribuer une signification réglementaire au terme, mais crée également une nouvelle catégorie qui risque de déformer la manière dont ces systèmes sont réellement compris et développés dans la pratique.

Les limites d’un cadre basé sur le risque

L’EU AI Act adopte une approche réglementaire basée sur le risque. L’Article 3(2) définit le risque comme « la combinaison de la probabilité d’un dommage et de la gravité de ce dommage ». Cette définition s’inspire des traditions juridiques et actuarielles classiques, où il est supposé que les dommages sont prévisibles, que les probabilités peuvent être raisonnablement attribuées et que les risques peuvent être évalués en conséquence. Cependant, l’IA – en particulier les modèles de fondation – complique ce cadre.

Les modèles de fondation se caractérisent par des propriétés difficiles à quantifier, y compris leur nature probabiliste et augmentative et leur interaction avec des environnements sociotechniques complexes, où les dommages ne peuvent pas être clairement prévus. En conséquence, les approches traditionnelles d’évaluation des risques ne peuvent pas rendre compte adéquatement de leur comportement ou de leur impact et peuvent produire un faux sentiment de confiance pour les régulateurs.

Le piège bureaucratique de la certitude légale

L’analyse de la bureaucratie par Max Weber aide à expliquer pourquoi cet écart entre les hypothèses intégrées dans les instruments juridiques et les réalités des technologies était prévisible. Weber a décrit la bureaucratie comme une « cage de fer » de rationalisation, dépendante de règles formelles, de hiérarchies et de clarté catégorique. Les bureaucraties nécessitent une catégorisation claire, sinon elles ne peuvent pas fonctionner efficacement.

Les définitions précises de l’EU AI Act, telles que celles pour « fournisseur », « déployeur » et surtout « modèle d’IA à usage général », reflètent cette logique bureaucratique. Cependant, comme Weber l’a averti, cette forme de rationalité peut conduire à des schémas de pensée trop rigides et formalisés. En traitant les catégories d’IA comme scientifiquement établies, l’Acte illustre le formalisme juridique qui pourrait entraver la gouvernance adaptative.

Les leçons tirées de cet article soulignent que l’Acte risque de légiférer sur le paradigme d’hier dans le monde de demain. Au lieu de fonder la réglementation sur des catégories fixes, les décideurs doivent établir des mécanismes de gouvernance qui anticipent le changement conceptuel et permettent une révision itérative.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...