Nouvelles régulations de l’IA : la bataille entre New York et Washington

A caution sign

Les législateurs de New York cherchent à éviter des « dommages critiques » par l’IA

Les législateurs de l’État de New York souhaitent imposer de nouvelles exigences de sécurité pour les modèles d’intelligence artificielle (IA) les plus avancés au monde. Cependant, des législateurs fédéraux menacent de supplanter ces nouvelles règles avant même leur mise en œuvre.

Un projet de loi à l’étude

La législature de l’État a adopté un projet de loi la semaine dernière qui obligera les développeurs des modèles d’IA les plus sophistiqués à élaborer des plans de sécurité complets, décrivant les mesures prises pour réduire le risque de causer des dommages graves.

Cette mesure, connue sous le nom de RAISE Act (Responsible AI Safety and Education), exigera également que les développeurs informent l’État des incidents de sécurité majeurs, tels qu’un modèle agissant de manière autonome sans sollicitation de l’utilisateur. Le projet de loi rendra les développeurs responsables de certaines violations de la loi, ouvrant ainsi la voie à des amendes civiles pouvant atteindre des dizaines de millions de dollars.

Pressions sur le gouverneur

Les entreprises technologiques et leurs organisations commerciales exercent déjà des pressions sur la gouverneure Kathy Hochul pour qu’elle oppose son veto à cette mesure, arguant qu’elle étoufferait l’innovation dans un domaine transformateur. Tout cela se déroule alors que le Congrès envisage d’interdire aux États de réglementer l’IA pendant les dix prochaines années, une mesure qui pourrait effectivement anéantir le projet de loi avant qu’il ait une chance d’entrer en vigueur.

Urgence de la régulation

Cependant, les partisans du projet de loi exhortent Hochul à le signer, affirmant que le gouvernement fédéral n’agit pas assez rapidement pour réglementer une industrie de l’IA en rapide évolution, qui a un potentiel énorme pour apporter des changements dans le monde.

« Je pense que, à bien des égards, la politique de l’IA devrait être au niveau fédéral, mais les fédéraux prennent leur temps et n’ont rien fait à ce sujet », a déclaré un membre de l’assemblée. « La beauté du système fédéral est que nous pouvons permettre aux États d’expérimenter et d’essayer de nouvelles choses. »

Les exigences du RAISE Act

Le RAISE Act s’applique aux développeurs de modèles d’IA dits « de frontière » – la technologie la plus avancée dans le domaine – qui sont développés, déployés ou censés fonctionner à New York. Les développeurs seraient tenus de mettre en place leurs protocoles de sécurité avant le déploiement. Ils seraient soumis à un examen par des tiers et devraient les rendre disponibles au Département de la Sécurité intérieure de l’État ainsi qu’au Bureau du procureur général de l’État.

Le projet de loi stipule que les protocoles de sécurité doivent être conçus pour réduire la probabilité de « dommages critiques » – des incidents causés ou matériellement facilités par le modèle d’IA du développeur, entraînant 100 blessures ou plus, ou des dommages dépassant 1 milliard de dollars. Il exige également que les développeurs tiennent compte de la possibilité que l’IA mène à la création d’armes chimiques, biologiques ou même nucléaires.

Pénalités financières

Le procureur général pourrait demander des amendes allant jusqu’à 10 millions de dollars pour une première violation, et jusqu’à 30 millions de dollars pour chaque violation subséquente.

Des exemples de tentatives de régulation

Les législateurs californiens ont précédemment tenté de réglementer les développeurs d’IA de manière similaire l’année dernière, mais la mesure a fait face à une opposition significative de certains secteurs de la Silicon Valley, et le gouverneur Gavin Newsom a finalement opposé son veto.

Tech:NYC – un groupe commercial incluant Google et Meta, qui ont tous deux des modèles d’IA significatifs – s’oppose au RAISE Act. Julie Samuels, présidente et PDG de Tech:NYC, a déclaré que son organisation n’est pas opposée à la réglementation étatique, bien qu’elle préfère une norme nationale. Cependant, le groupe affirme que la réglementation devrait être basée sur des utilisations spécifiques, telles que les règles pour l’IA utilisée dans les processus décisionnels de santé, plutôt que sur l’approche globale du RAISE Act.

Réaction du gouvernement

Kathy Hochul a été un grand supporter de l’initiative Empire AI, un consortium public-privé basé à l’Université de Buffalo consacré à la recherche et au développement de l’intelligence artificielle. Plus tôt cette année, elle et les législateurs de l’État ont approuvé des mesures réglementant les compagnons IA, les applications et les personnages fournissant un soutien émotionnel aux personnes.

Avi Small, un porte-parole du gouverneur, a déclaré que Hochul examinerait la législation.

Débat au Congrès

Pendant ce temps, le Congrès continue de débattre de la question de savoir s’il doit interdire temporairement aux États de réglementer l’IA dans son ensemble. La Chambre des représentants a adopté un moratoire de 10 ans sur une telle réglementation des États dans le cadre du large projet de loi fiscal du président Donald Trump le mois dernier. Le Sénat n’a pas encore voté sur sa version du projet de loi, mais un comité a inséré un langage qui a adouci la disposition, permettant effectivement aux États de réglementer l’IA s’ils sont prêts à renoncer au financement fédéral de la large bande.

Kathy Hochul, une démocrate, a écrit une lettre la semaine dernière au leader de la majorité sénatoriale John Thune et au leader de la minorité Charles Schumer s’opposant à la version de la mesure adoptée par la Chambre, exhortant les républicains à la rejeter.

« Si cette prohibition fédérale reste dans la réconciliation, l’impact n’est pas simplement un moratoire bureaucratique ; il sape le droit et la responsabilité fondamentaux des États de protéger la sécurité, la santé, la vie privée et la vitalité économique de ses citoyens », a écrit Hochul.

Articles

Renforcer la sécurité des LLM : l’alignement responsable de l’IA

Ce document traite de l'alignement responsable de l'IA dans le développement de phi-3, mettant l'accent sur les principes de sécurité adoptés par Microsoft. Des méthodes de test et des ensembles de...

Contrôle des données dans l’ère des clouds IA souverains

Les nuages d'IA souverains offrent à la fois contrôle et conformité, répondant aux préoccupations croissantes concernant la résidence des données et le risque réglementaire. Dans un environnement où...

L’Alliance Écossaise de l’IA : Vers une Intelligence Artificielle Éthique

L'Alliance écossaise de l'IA a publié son rapport d'impact 2024/2025, révélant une année de progrès significatifs dans la promotion d'une intelligence artificielle éthique et inclusive en Écosse. Le...

UE AI Act : Préparez-vous au changement inévitable

L'annonce de la Commission européenne vendredi dernier selon laquelle il n'y aura pas de retard concernant la loi sur l'IA de l'UE a suscité des réactions passionnées des deux côtés. Il est temps de...

Fiabilité des modèles linguistiques : un défi à relever avec la loi sur l’IA de l’UE

Les modèles de langage de grande taille (LLM) ont considérablement amélioré la capacité des machines à comprendre et à traiter des séquences de texte complexes. Cependant, leur déploiement croissant...

Pause ou avancée : l’avenir de la réglementation de l’IA en Europe

Le Conseil européen a maintenu le calendrier de l'Acte sur l'IA malgré les pressions, affirmant qu'il n'y aura pas de pause dans sa mise en œuvre. Le Premier ministre suédois a appelé à un...

Nouvelles restrictions sur l’IA : impacts et opportunités

L'administration Trump prépare de nouvelles restrictions sur les exportations de puces AI vers la Malaisie et la Thaïlande pour empêcher que des processeurs avancés n'atteignent la Chine via des pays...

Gouvernance de l’IA : Garantir l’éthique et la transparence dans les entreprises modernes

La gouvernance de l'IA et la gouvernance des données sont essentielles pour garantir le développement de solutions d'IA éthiques et fiables. Ces cadres de gouvernance sont interconnectés et vitaux...

LLMOps : Optimisez l’IA Responsable à Grande Échelle avec Python

Dans un paysage hyper-compétitif, déployer des modèles de langage de grande taille (LLM) n'est pas suffisant ; il faut un cadre LLMOps robuste pour garantir la fiabilité et la conformité. Python, avec...