Ordonnance présidentielle sur l’intelligence artificielle : enjeux et implications

A futuristic chessboard with AI-driven pieces that adapt and learn from each move, symbolizing the dynamic and evolving nature of AI policy.

Un bref aperçu de l’Ordonnance Exécutive du Président : « Assurer un Cadre Politique National pour l’Intelligence Artificielle »

Le 11 décembre 2025, le Président des États-Unis a signé une Ordonnance Exécutive visant à limiter les pouvoirs des gouvernements des États à réglementer l’intelligence artificielle.

La réduction de la réglementation ne signifie pas une réduction des risques

Avec une seconde Ordonnance Exécutive, le Président a renforcé son approche de dérégulation de l’IA, favorisant une approche « laissez-faire » qui privilégie la rapidité et l’innovation au détriment des garde-fous. L’Ordonnance « Assurer un Cadre Politique National pour l’Intelligence Artificielle » vise à limiter et à préempter la réglementation au niveau des États. Elle établit les bases pour que le gouvernement fédéral conteste les lois étatiques sur l’IA, poursuive de nouvelles réglementations préemptives et influence les actions des États en suspendant les fonds fédéraux aux États qui adoptent des lois sur l’IA contraires à la politique de l’Ordonnance.

Le but déclaré de cette Ordonnance est de créer un cadre politique national. Elle soutient que :

  • Un « patchwork de 50 États avec différents régimes réglementaires » crée des défis de conformité et étouffe l’innovation.
  • Les dispositions anti-discrimination de certaines lois étatiques « intégreront un biais idéologique dans les modèles ».
  • Les lois étatiques sur l’IA violent la Clause de Commerce lorsqu’elles « régulent de manière inacceptable au-delà des frontières des États ».

Actions directrices

L’Ordonnance demande les actions suivantes de la part des agences exécutives :

  • Le Procureur Général doit créer une Task Force de Litiges sur l’IA dans les 30 jours, chargée de contester les lois étatiques contraires à la politique de l’Ordonnance.
  • Le Secrétaire au Commerce doit publier une évaluation des lois étatiques existantes sur l’IA qui sont en conflit avec l’Ordonnance dans les 90 jours.
  • Le Secrétaire au Commerce doit émettre un Avis Politique dans les 90 jours, rendant les États avec des lois « lourdes » sur l’IA inéligibles aux subventions fédérales restantes. L’Ordonnance lie la politique de l’IA à l’éligibilité au programme de financement fédéral majeur pour le large bande.
  • Tous les autres départements et agences exécutives doivent examiner leurs programmes de subventions discrétionnaires pour déterminer s’ils peuvent conditionner leurs subventions à une loi étatique qui est en conflit avec la politique de l’Ordonnance.
  • La Commission Fédérale des Communications (FCC) doit commencer une procédure dans les 90 jours pour déterminer si elle doit adopter une norme fédérale de déclaration et de divulgation pour les modèles d’IA qui préemptent les lois étatiques.
  • La Commission Fédérale du Commerce (FTC) doit créer une déclaration de politique dans les 90 jours pour expliquer quand les lois étatiques sont préemptées parce qu’elles « exigent des modifications des sorties véridiques des modèles d’IA ».
  • Les conseillers présidentiels doivent préparer des recommandations législatives pour établir un cadre politique fédéral uniforme pour l’IA.

Exemples et implications

L’Ordonnance cite la loi sur la « discrimination algorithmique » du Colorado comme un exemple spécifique d’une loi étatique en contradiction avec la politique de l’Ordonnance. Elle soutient que cette loi pourrait exercer une pression sur les modèles pour produire des « résultats faux » afin d’éviter un traitement différentiel.

Il est important de noter que les Ordonnances Exécutives émises par le Président des États-Unis ne préemptent pas les lois étatiques existantes régissant l’IA. Toutes les lois étatiques et locales restent applicables. Les États sont susceptibles de contester les actions des agences exécutives pertinentes avec des arguments soulevant le 10ème Amendement, la coercition de la Clause de Dépenses, et des défis aux pouvoirs administratifs de la FCC ou de la FTC. De plus, les législateurs fédéraux et les gouverneurs des États ne s’accordent pas sur cette préemption fédérale globale des lois sur l’IA.

Navigation dans l’incertitude

Les organisations doivent comprendre que la dérégulation ne doit pas être confondue avec une réduction des risques. Les risques ou préjudices liés à l’IA ne se manifesteront pas sous la forme d’un « problème d’IA » mais à travers des voies juridiques familières, telles que la responsabilité des produits, l’atteinte à la propriété intellectuelle, la responsabilité professionnelle, les questions de protection des consommateurs ou les plaintes en matière de confidentialité.

Bien que ces exemples soient illustratifs, l’incertitude persistante autour de la réglementation de l’IA n’élimine pas le risque juridique ; les autorités réglementaires existantes et les plaignants privés peuvent toujours engager des actions en justice, et l’absence de règles spécifiques à l’IA ne protège pas les entreprises de la responsabilité.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...