Nouvelles régulations de l’IA : la bataille entre New York et Washington

A caution sign

Les législateurs de New York cherchent à éviter des « dommages critiques » par l’IA

Les législateurs de l’État de New York souhaitent imposer de nouvelles exigences de sécurité pour les modèles d’intelligence artificielle (IA) les plus avancés au monde. Cependant, des législateurs fédéraux menacent de supplanter ces nouvelles règles avant même leur mise en œuvre.

Un projet de loi à l’étude

La législature de l’État a adopté un projet de loi la semaine dernière qui obligera les développeurs des modèles d’IA les plus sophistiqués à élaborer des plans de sécurité complets, décrivant les mesures prises pour réduire le risque de causer des dommages graves.

Cette mesure, connue sous le nom de RAISE Act (Responsible AI Safety and Education), exigera également que les développeurs informent l’État des incidents de sécurité majeurs, tels qu’un modèle agissant de manière autonome sans sollicitation de l’utilisateur. Le projet de loi rendra les développeurs responsables de certaines violations de la loi, ouvrant ainsi la voie à des amendes civiles pouvant atteindre des dizaines de millions de dollars.

Pressions sur le gouverneur

Les entreprises technologiques et leurs organisations commerciales exercent déjà des pressions sur la gouverneure Kathy Hochul pour qu’elle oppose son veto à cette mesure, arguant qu’elle étoufferait l’innovation dans un domaine transformateur. Tout cela se déroule alors que le Congrès envisage d’interdire aux États de réglementer l’IA pendant les dix prochaines années, une mesure qui pourrait effectivement anéantir le projet de loi avant qu’il ait une chance d’entrer en vigueur.

Urgence de la régulation

Cependant, les partisans du projet de loi exhortent Hochul à le signer, affirmant que le gouvernement fédéral n’agit pas assez rapidement pour réglementer une industrie de l’IA en rapide évolution, qui a un potentiel énorme pour apporter des changements dans le monde.

« Je pense que, à bien des égards, la politique de l’IA devrait être au niveau fédéral, mais les fédéraux prennent leur temps et n’ont rien fait à ce sujet », a déclaré un membre de l’assemblée. « La beauté du système fédéral est que nous pouvons permettre aux États d’expérimenter et d’essayer de nouvelles choses. »

Les exigences du RAISE Act

Le RAISE Act s’applique aux développeurs de modèles d’IA dits « de frontière » – la technologie la plus avancée dans le domaine – qui sont développés, déployés ou censés fonctionner à New York. Les développeurs seraient tenus de mettre en place leurs protocoles de sécurité avant le déploiement. Ils seraient soumis à un examen par des tiers et devraient les rendre disponibles au Département de la Sécurité intérieure de l’État ainsi qu’au Bureau du procureur général de l’État.

Le projet de loi stipule que les protocoles de sécurité doivent être conçus pour réduire la probabilité de « dommages critiques » – des incidents causés ou matériellement facilités par le modèle d’IA du développeur, entraînant 100 blessures ou plus, ou des dommages dépassant 1 milliard de dollars. Il exige également que les développeurs tiennent compte de la possibilité que l’IA mène à la création d’armes chimiques, biologiques ou même nucléaires.

Pénalités financières

Le procureur général pourrait demander des amendes allant jusqu’à 10 millions de dollars pour une première violation, et jusqu’à 30 millions de dollars pour chaque violation subséquente.

Des exemples de tentatives de régulation

Les législateurs californiens ont précédemment tenté de réglementer les développeurs d’IA de manière similaire l’année dernière, mais la mesure a fait face à une opposition significative de certains secteurs de la Silicon Valley, et le gouverneur Gavin Newsom a finalement opposé son veto.

Tech:NYC – un groupe commercial incluant Google et Meta, qui ont tous deux des modèles d’IA significatifs – s’oppose au RAISE Act. Julie Samuels, présidente et PDG de Tech:NYC, a déclaré que son organisation n’est pas opposée à la réglementation étatique, bien qu’elle préfère une norme nationale. Cependant, le groupe affirme que la réglementation devrait être basée sur des utilisations spécifiques, telles que les règles pour l’IA utilisée dans les processus décisionnels de santé, plutôt que sur l’approche globale du RAISE Act.

Réaction du gouvernement

Kathy Hochul a été un grand supporter de l’initiative Empire AI, un consortium public-privé basé à l’Université de Buffalo consacré à la recherche et au développement de l’intelligence artificielle. Plus tôt cette année, elle et les législateurs de l’État ont approuvé des mesures réglementant les compagnons IA, les applications et les personnages fournissant un soutien émotionnel aux personnes.

Avi Small, un porte-parole du gouverneur, a déclaré que Hochul examinerait la législation.

Débat au Congrès

Pendant ce temps, le Congrès continue de débattre de la question de savoir s’il doit interdire temporairement aux États de réglementer l’IA dans son ensemble. La Chambre des représentants a adopté un moratoire de 10 ans sur une telle réglementation des États dans le cadre du large projet de loi fiscal du président Donald Trump le mois dernier. Le Sénat n’a pas encore voté sur sa version du projet de loi, mais un comité a inséré un langage qui a adouci la disposition, permettant effectivement aux États de réglementer l’IA s’ils sont prêts à renoncer au financement fédéral de la large bande.

Kathy Hochul, une démocrate, a écrit une lettre la semaine dernière au leader de la majorité sénatoriale John Thune et au leader de la minorité Charles Schumer s’opposant à la version de la mesure adoptée par la Chambre, exhortant les républicains à la rejeter.

« Si cette prohibition fédérale reste dans la réconciliation, l’impact n’est pas simplement un moratoire bureaucratique ; il sape le droit et la responsabilité fondamentaux des États de protéger la sécurité, la santé, la vie privée et la vitalité économique de ses citoyens », a écrit Hochul.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...