La Nouvelle Loi RAISE de New York : Une Réponse Réglementaire aux Défis de l’IA

A futuristic, transparent glass dome containing a swirling digital code that morphs into a map of New York City and the U.S. Capitol, with a pulsating AI neural network overlay.

La Loi RAISE de New York en Contexte du Renforcement de la Sécurité de l’IA

Le 3 février, un sommet technologique et politique a rassemblé des leaders de l’industrie et des responsables gouvernementaux pour discuter des politiques de cybersécurité liées à l’intelligence artificielle (IA). Lors de cet événement, le Directeur National de la Cybersécurité a présenté un cadre de politique de sécurité de l’IA visant à intégrer des protections de cybersécurité dans les technologies d’IA développées aux États-Unis.

Développement du Cadre de Sécurité de l’IA

Ce cadre est élaboré en coordination avec le Bureau de la Science et de la Technologie, bien qu’aucun calendrier de publication n’ait été annoncé. L’objectif est d’assurer que la sécurité ne soit pas un obstacle à l’innovation, mais plutôt intégrée dans le système.

Ce cadre s’inscrit dans le Plan d’Action de l’IA de la Maison Blanche, qui prévoit la création d’un Centre d’Information et d’Analyse axé sur l’IA, facilitant le partage des renseignements sur les menaces liées à l’IA à travers les secteurs critiques.

Adoption de la Loi RAISE à New York

Le 19 décembre, New York est devenu le deuxième État à adopter un cadre réglementaire pour les développeurs d’IA de grande envergure, après la Californie. La Loi RAISE impose de nouvelles obligations de transparence, de sécurité et de notification des incidents aux développeurs de modèles d’IA avancés, avec des pénalités civiles applicables par le procureur général de l’État.

Cette loi sera mise en vigueur le 1er janvier 2027 et vise à renforcer la sécurité des modèles d’IA tout en évitant un patchwork de lois étatiques.

Exigences de Sécurité et de Notification

La loi RAISE inclut des protocoles de sécurité et des exigences de notification des incidents, imposant des amendes pouvant atteindre 30 millions de dollars pour les violations. Les développeurs doivent élaborer, maintenir et divulguer publiquement des protocoles de sécurité concernant les risques catastrophiques, qui incluent des incidents entraînant des pertes humaines significatives ou des dommages matériels considérables.

Les exigences de notification des incidents sont plus strictes que celles de la Californie, avec une obligation de rapport dans les 72 heures suivant la découverte d’un incident.

Conséquences et Perspectives

La mise en œuvre de la loi RAISE s’inscrit dans un effort plus large pour unifier les exigences de cybersécurité, alors que d’autres États, comme le Colorado, adoptent également des lois sur l’IA. La loi vise à créer un consensus au niveau des États sur la réglementation de l’IA, en évitant des réglementations contradictoires.

Cependant, l’absence d’actions publiques de la part du Département de la Justice concernant les lois étatiques soulève des questions sur l’engagement fédéral envers l’application de ces nouvelles règles. La loi RAISE reflète une tendance vers une régulation plus sécurisée et responsable des technologies d’IA.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...