Nouvelles régulations de l’IA : la bataille entre New York et Washington

A caution sign

Les législateurs de New York cherchent à éviter des « dommages critiques » par l’IA

Les législateurs de l’État de New York souhaitent imposer de nouvelles exigences de sécurité pour les modèles d’intelligence artificielle (IA) les plus avancés au monde. Cependant, des législateurs fédéraux menacent de supplanter ces nouvelles règles avant même leur mise en œuvre.

Un projet de loi à l’étude

La législature de l’État a adopté un projet de loi la semaine dernière qui obligera les développeurs des modèles d’IA les plus sophistiqués à élaborer des plans de sécurité complets, décrivant les mesures prises pour réduire le risque de causer des dommages graves.

Cette mesure, connue sous le nom de RAISE Act (Responsible AI Safety and Education), exigera également que les développeurs informent l’État des incidents de sécurité majeurs, tels qu’un modèle agissant de manière autonome sans sollicitation de l’utilisateur. Le projet de loi rendra les développeurs responsables de certaines violations de la loi, ouvrant ainsi la voie à des amendes civiles pouvant atteindre des dizaines de millions de dollars.

Pressions sur le gouverneur

Les entreprises technologiques et leurs organisations commerciales exercent déjà des pressions sur la gouverneure Kathy Hochul pour qu’elle oppose son veto à cette mesure, arguant qu’elle étoufferait l’innovation dans un domaine transformateur. Tout cela se déroule alors que le Congrès envisage d’interdire aux États de réglementer l’IA pendant les dix prochaines années, une mesure qui pourrait effectivement anéantir le projet de loi avant qu’il ait une chance d’entrer en vigueur.

Urgence de la régulation

Cependant, les partisans du projet de loi exhortent Hochul à le signer, affirmant que le gouvernement fédéral n’agit pas assez rapidement pour réglementer une industrie de l’IA en rapide évolution, qui a un potentiel énorme pour apporter des changements dans le monde.

« Je pense que, à bien des égards, la politique de l’IA devrait être au niveau fédéral, mais les fédéraux prennent leur temps et n’ont rien fait à ce sujet », a déclaré un membre de l’assemblée. « La beauté du système fédéral est que nous pouvons permettre aux États d’expérimenter et d’essayer de nouvelles choses. »

Les exigences du RAISE Act

Le RAISE Act s’applique aux développeurs de modèles d’IA dits « de frontière » – la technologie la plus avancée dans le domaine – qui sont développés, déployés ou censés fonctionner à New York. Les développeurs seraient tenus de mettre en place leurs protocoles de sécurité avant le déploiement. Ils seraient soumis à un examen par des tiers et devraient les rendre disponibles au Département de la Sécurité intérieure de l’État ainsi qu’au Bureau du procureur général de l’État.

Le projet de loi stipule que les protocoles de sécurité doivent être conçus pour réduire la probabilité de « dommages critiques » – des incidents causés ou matériellement facilités par le modèle d’IA du développeur, entraînant 100 blessures ou plus, ou des dommages dépassant 1 milliard de dollars. Il exige également que les développeurs tiennent compte de la possibilité que l’IA mène à la création d’armes chimiques, biologiques ou même nucléaires.

Pénalités financières

Le procureur général pourrait demander des amendes allant jusqu’à 10 millions de dollars pour une première violation, et jusqu’à 30 millions de dollars pour chaque violation subséquente.

Des exemples de tentatives de régulation

Les législateurs californiens ont précédemment tenté de réglementer les développeurs d’IA de manière similaire l’année dernière, mais la mesure a fait face à une opposition significative de certains secteurs de la Silicon Valley, et le gouverneur Gavin Newsom a finalement opposé son veto.

Tech:NYC – un groupe commercial incluant Google et Meta, qui ont tous deux des modèles d’IA significatifs – s’oppose au RAISE Act. Julie Samuels, présidente et PDG de Tech:NYC, a déclaré que son organisation n’est pas opposée à la réglementation étatique, bien qu’elle préfère une norme nationale. Cependant, le groupe affirme que la réglementation devrait être basée sur des utilisations spécifiques, telles que les règles pour l’IA utilisée dans les processus décisionnels de santé, plutôt que sur l’approche globale du RAISE Act.

Réaction du gouvernement

Kathy Hochul a été un grand supporter de l’initiative Empire AI, un consortium public-privé basé à l’Université de Buffalo consacré à la recherche et au développement de l’intelligence artificielle. Plus tôt cette année, elle et les législateurs de l’État ont approuvé des mesures réglementant les compagnons IA, les applications et les personnages fournissant un soutien émotionnel aux personnes.

Avi Small, un porte-parole du gouverneur, a déclaré que Hochul examinerait la législation.

Débat au Congrès

Pendant ce temps, le Congrès continue de débattre de la question de savoir s’il doit interdire temporairement aux États de réglementer l’IA dans son ensemble. La Chambre des représentants a adopté un moratoire de 10 ans sur une telle réglementation des États dans le cadre du large projet de loi fiscal du président Donald Trump le mois dernier. Le Sénat n’a pas encore voté sur sa version du projet de loi, mais un comité a inséré un langage qui a adouci la disposition, permettant effectivement aux États de réglementer l’IA s’ils sont prêts à renoncer au financement fédéral de la large bande.

Kathy Hochul, une démocrate, a écrit une lettre la semaine dernière au leader de la majorité sénatoriale John Thune et au leader de la minorité Charles Schumer s’opposant à la version de la mesure adoptée par la Chambre, exhortant les républicains à la rejeter.

« Si cette prohibition fédérale reste dans la réconciliation, l’impact n’est pas simplement un moratoire bureaucratique ; il sape le droit et la responsabilité fondamentaux des États de protéger la sécurité, la santé, la vie privée et la vitalité économique de ses citoyens », a écrit Hochul.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...