Réguler l’utilisation de l’IA pour un avenir responsable

A pair of AI-controlled robotic hands, one holding a blank canvas and the other a paintbrush, with a finished masterpiece nearby

Ne régulez pas les modèles d’IA. Régulez l’utilisation de l’IA

Parfois, il peut sembler que les efforts pour réguler et maîtriser l’IA sont omniprésents. La Chine a émis les premières réglementations spécifiques à l’IA en 2021, se concentrant sur les fournisseurs et la gouvernance du contenu, appliquées par le biais du contrôle des plateformes et des exigences de tenue de dossiers.

En Europe, la loi sur l’IA de l’UE date de 2024, mais la Commission européenne propose déjà des mises à jour et des simplifications. L’Inde a chargé ses conseillers techniques seniors de créer un système de gouvernance de l’IA, publié en novembre 2025. Aux États-Unis, les États légifèrent et appliquent leurs propres règles sur l’IA, même si le gouvernement fédéral, en 2025, s’est efforcé d’empêcher les actions des États et de desserrer les restrictions.

Cela soulève une question cruciale pour les ingénieurs et les décideurs américains : que peut réellement appliquer les États-Unis de manière à réduire les dommages dans le monde réel ? La réponse proposée est de réguler l’utilisation de l’IA, et non les modèles sous-jacents.

Pourquoi la régulation centrée sur le modèle échoue

Les propositions de licence des « formations de pointe », de restrictions sur les poids ouverts, ou d’exigences de permission avant la publication des modèles, comme la loi de Californie sur la transparence en matière d’IA, promettent un contrôle mais ne font que créer un théâtre. Les poids et le code des modèles sont des artefacts numériques ; une fois publiés, par un laboratoire, une fuite ou un concurrent étranger, ils se répliquent à coût quasi nul. On ne peut pas « dépublier » des poids ou empêcher la recherche de s’échapper.

Essayer de contenir ces artefacts produit deux résultats indésirables : les entreprises conformes se noient dans la paperasse tandis que les acteurs imprudents contournent les règles à l’étranger, sous terre, ou les deux. Aux États-Unis, la licence de publication de modèles risque également de heurter la loi sur la liberté d’expression, car les tribunaux fédéraux ont considéré le code source comme une expression protégée.

« Ne rien faire » n’est pas une option non plus. Sans garde-fous, nous continuerons à voir des arnaques deepfake, des fraudes automatisées et des campagnes de persuasion de masse jusqu’à ce qu’un événement catastrophe déclenche une réponse brutale optimisée pour l’optique, et non pour les résultats.

Une alternative pratique : réguler l’utilisation, proportionnelle au risque

Un régime basé sur l’utilisation classifie les déploiements par risque et ajuste les obligations en conséquence. Voici un modèle opérationnel axé sur le maintien de l’application là où les systèmes touchent réellement les utilisateurs :

  • Baseline : Interactions avec les consommateurs à usage général (chat ouvert, écriture créative, assistance à l’apprentissage, productivité occasionnelle).
    Conformité réglementaire : divulgation claire de l’IA au point d’interaction, politiques d’utilisation acceptable publiées, garde-fous techniques empêchant l’escalade vers des niveaux de risque plus élevés, et un mécanisme pour que les utilisateurs signalent des résultats problématiques.
  • Assistance à faible risque (rédaction, résumé, productivité de base).
    Conformité réglementaire : divulgation simple, hygiène des données de base.
  • Support à risque modéré affectant les individus (tri de candidatures, screening des avantages, préqualification de prêts).
    Conformité réglementaire : évaluation des risques documentée, supervision humaine significative, et un « cahier des charges de l’IA » comprenant au moins la lignée du modèle, les évaluations clés et les atténuations.
  • Utilisations à fort impact dans des contextes critiques pour la sécurité (support à la décision clinique, opérations d’infrastructure critique).
    Conformité réglementaire : tests rigoureux avant le déploiement liés à l’utilisation spécifique, surveillance continue, rapports d’incidents et, si nécessaire, autorisation liée à la performance validée.
  • Fonctions à double usage dangereuses (par exemple, outils pour fabriquer des empreintes vocales biométriques pour contourner l’authentification).
    Conformité réglementaire : confinement aux installations licenciées et aux opérateurs vérifiés ; interdiction des capacités dont le but principal est illégal.

Les systèmes habilités par l’IA deviennent réels lorsqu’ils sont connectés aux utilisateurs, à l’argent, aux infrastructures et aux institutions, et c’est là que les régulateurs doivent concentrer l’application : aux points de distribution (boutiques d’applications et places de marché d’entreprise), accès aux capacités (cloud et plateformes d’IA), monétisation (systèmes de paiement et réseaux publicitaires), et transfert de risque (assureurs et contreparties contractuelles).

Pour les utilisations à haut risque, il est nécessaire d’exiger un lien d’identité pour les opérateurs, un contrôle des capacités aligné sur le niveau de risque, et un enregistrement à preuve de falsification pour les audits et les examens post-incident, accompagné de protections de la vie privée. Nous devons exiger des preuves pour les revendications des déployeurs, maintenir des plans de réponse aux incidents, signaler les défauts matériels et fournir un recours humain. Lorsque l’utilisation de l’IA entraîne des dommages, les entreprises doivent démontrer leur travail et faire face à des responsabilités pour les préjudices.

Cette approche crée des dynamiques de marché qui accélèrent la conformité. Si des opérations commerciales cruciales telles que l’approvisionnement, l’accès aux services cloud et l’assurance dépendent de la preuve que vous suivez les règles, les développeurs de modèles d’IA construiront selon des spécifications que les acheteurs peuvent vérifier. Cela élève le niveau de sécurité pour tous les acteurs de l’industrie, y compris les startups, sans donner un avantage à quelques grandes entreprises licenciées.

Conclusion

Cette structure s’aligne avec la loi sur l’IA de l’UE de deux manières importantes. Tout d’abord, elle centre le risque au point d’impact : les catégories « à haut risque » de la loi incluent l’emploi, l’éducation, l’accès aux services essentiels et l’infrastructure critique, avec des obligations de cycle de vie et des droits de plainte. Elle reconnaît également un traitement spécial pour les systèmes largement capables sans prétendre que le contrôle de publication est une stratégie de sécurité.

La proposition américaine diffère en trois points clés. Premièrement, il est nécessaire de concevoir pour la durabilité constitutionnelle. Les tribunaux ont traité le code source comme une expression protégée, et un régime qui exige une autorisation pour publier des poids ou former une classe de modèles commence à ressembler à une retenue préalable. Un régime basé sur l’utilisation régissant ce que les opérateurs d’IA peuvent faire dans des contextes sensibles, et sous quelles conditions, s’adapte plus naturellement à la doctrine du premier amendement des États-Unis que des régimes de licence basés sur les locuteurs.

Deuxièmement, l’UE peut compter sur les plateformes s’adaptant aux règles de précaution qu’elle rédige pour son marché unique. Les États-Unis doivent accepter que des modèles existeront à l’échelle mondiale, ouverts et fermés, et se concentrer sur l’endroit où l’IA devient actionnable : boutiques d’applications, plateformes d’entreprise, fournisseurs de cloud, couches d’identité d’entreprise, canaux de paiement, assureurs et gardiens de secteurs réglementés.

Troisièmement, les États-Unis devraient ajouter un niveau explicite de « danger à double usage ». La loi sur l’IA de l’UE est principalement un régime de droits fondamentaux et de sécurité des produits. Les États-Unis ont également une réalité de sécurité nationale : certaines capacités sont dangereuses parce qu’elles amplifient les dommages.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...