Réglementation de l’IA aux États-Unis : cadre fédéral et lois étatiques
L’encadrement juridique de l’intelligence artificielle aux États-Unis ne repose pas sur une loi fédérale unique comparable à un « code de l’IA ». Il s’organise plutôt autour d’un pilotage fédéral par Executive Orders et d’un ensemble de lois étatiques (et parfois locales) qui créent des obligations directement applicables.
Résultat : un paysage fragmenté, où la conformité dépend fortement de l’État, du cas d’usage (recrutement, services essentiels, contenus génératifs, etc.) et du rôle de l’opérateur (développeur, déployeur, fournisseur).
I. Le cadre américain : deux niveaux, pas de « U.S. AI Act »
La réglementation de l’intelligence artificielle aux États-Unis s’inscrit dans l’architecture institutionnelle propre au pays, fondée sur une répartition des compétences entre le niveau fédéral et les États.
Dans ce contexte, le cadre américain se caractérise par :
- Une gouvernance à deux niveaux, combinant stratégie fédérale et législations adoptées par les États (et parfois les autorités locales).
- L’absence d’une loi fédérale unique et exhaustive comparable à l’AI Act européen.
- Un pilotage fédéral largement structuré par des Executive Orders, qui fixent les priorités nationales et orientent l’action des agences fédérales.
- Des lois étatiques pouvant imposer des obligations juridiquement contraignantes aux entreprises, appliquées par les Attorneys General ou par des autorités locales.
- Domaines prioritaires : lutte contre la discrimination, transparence, protection des consommateurs et encadrement des contenus générés.
II. Le niveau fédéral : stratégie exécutive et « AI Action Plan »
Au niveau fédéral, la politique IA se met en œuvre principalement via :
- Des Executive Orders.
- Des cadres stratégiques (plans d’action, priorités nationales).
- L’exécution par les agences (mise en œuvre, achats publics, infrastructures, positionnement international).
À la suite de l’Executive Order « Removing Barriers to American Leadership in Artificial Intelligence », la Maison Blanche a publié le plan stratégique « Winning the Race: America’s AI Action Plan ». Ce document ne crée pas une loi fédérale unique, mais sert de blueprint pour guider l’action de l’administration.
III. États pionniers ayant adopté des réglementations contraignantes en matière d’IA
En l’absence de loi fédérale unique, plusieurs juridictions ont adopté des textes applicables, avec des obligations concrètes. Parmi ces réglementations, on trouve :
1. Texas – TRAIGA
Ce texte vise à mettre en place un cadre de gouvernance IA au Texas, notamment via l’interdiction de certaines pratiques à haut risque et l’instauration d’un régime de contrôle et de sanctions.
2. Colorado – SB 24-205
Cette loi a pour objectif de prévenir la discrimination algorithmique dans les systèmes d’IA à haut risque utilisés pour des décisions conséquentes.
3. Californie – Transparence IA générative
La Californie a adopté des textes axés sur la transparence en IA générative, visant à renforcer la transparence sur les données d’entraînement et à accroître la responsabilité des entités qui utilisent ces systèmes.
4. New York City – Local Law 144
Cette réglementation municipale cible un cas d’usage précis : l’emploi, avec des exigences d’audit indépendant et de transparence envers les candidats.
IV. Conclusion
La réglementation américaine de l’IA repose sur un équilibre : d’un côté, une stratégie fédérale largement pilotée par l’exécutif, et de l’autre, des législations étatiques et locales qui instaurent des obligations juridiques concrètes. Pour les organisations, la difficulté n’est pas seulement de « connaître la règle », mais de cartographier les usages IA et de mettre en place une gouvernance vérifiable.