L’équilibre précaire de la réglementation de l’IA : recul fédéral et avancée des États

A dual-faced hourglass with one side filled with digital circuits and the other with state capitol building miniatures

Le balancier de l’application de l’IA : recul fédéral et avancée des États

Le 19 décembre, le gouverneur de New York a signé la loi RAISE, faisant de l’État de New York le premier à adopter une législation majeure sur la sécurité de l’IA, en réponse à un ordre exécutif présidentiel appelant à la préemption fédérale des lois étatiques sur l’IA. Trois jours plus tard, la FTC a voté pour annuler son ordonnance de consentement de 2024 contre un outil d’écriture IA, citant explicitement le plan d’action de l’administration actuelle.

Le resserrement de l’application fédérale

La décision concernant l’outil d’écriture illustre un changement significatif dans la manière dont la FTC abordera l’application de la réglementation de l’IA sous sa nouvelle direction. L’ordonnance initiale alléguait que l’outil pouvait produire de faux avis, sans toutefois prouver la publication effective de tels avis. La FTC a désormais rehaussé le seuil de preuve nécessaire pour engager des actions en justice contre des outils d’IA.

Bien que cette approche puisse suggérer une diminution de la réglementation, des lettres d’avertissement ont été envoyées à plusieurs entreprises concernant des avis trompeurs, soulignant que la FTC continuera d’agir contre la tromperie des consommateurs.

Les États prennent les devants

Alors que l’application fédérale se recalibre, les États intensifient leurs initiatives. La loi RAISE de New York exige que les développeurs d’IA publient des protocoles de sécurité et signalent les incidents de sécurité dans un délai de 72 heures. Des pénalités pouvant atteindre un million de dollars sont prévues en cas de violations.

New York s’ajoute à d’autres États ayant adopté des lois similaires, établissant ainsi un cadre réglementaire pour le développement de l’IA qui persistera, indépendamment des conflits autour de la préemption fédérale.

Ce que les entreprises doivent faire maintenant

Pour les entreprises utilisant des systèmes d’IA, plusieurs priorités émergent :

  1. Continuer la diligence raisonnable des fournisseurs. L’application fédérale peut se réduire, mais les obligations étatiques se multiplient. Vérifiez que vos fournisseurs d’IA respectent les exigences des États.
  2. Cartographier votre exposition étatique. Identifiez les lois des États qui s’appliquent à vos opérations et faites l’inventaire de vos obligations avant les prochaines échéances de conformité.
  3. Mettre à jour les procédures de réponse aux incidents. La loi de New York impose une notification rapide des incidents de sécurité. Assurez-vous que vos flux de travail internes peuvent gérer ces situations.
  4. Examiner les contrats des fournisseurs. Assurez-vous qu’ils incluent des clauses sur la conformité aux lois étatiques et des obligations de notification des incidents.

Conclusion

Le paysage réglementaire est devenu plus complexe, avec un resserrement de l’application fédérale associé à une activité étatique accrue. Les entreprises doivent considérer les exigences étatiques comme des obligations durables, quelles que soient les évolutions des batailles autour de la préemption fédérale.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...