Nouvelles régulations de l’IA : la bataille entre New York et Washington

A caution sign

Les législateurs de New York cherchent à éviter des « dommages critiques » par l’IA

Les législateurs de l’État de New York souhaitent imposer de nouvelles exigences de sécurité pour les modèles d’intelligence artificielle (IA) les plus avancés au monde. Cependant, des législateurs fédéraux menacent de supplanter ces nouvelles règles avant même leur mise en œuvre.

Un projet de loi à l’étude

La législature de l’État a adopté un projet de loi la semaine dernière qui obligera les développeurs des modèles d’IA les plus sophistiqués à élaborer des plans de sécurité complets, décrivant les mesures prises pour réduire le risque de causer des dommages graves.

Cette mesure, connue sous le nom de RAISE Act (Responsible AI Safety and Education), exigera également que les développeurs informent l’État des incidents de sécurité majeurs, tels qu’un modèle agissant de manière autonome sans sollicitation de l’utilisateur. Le projet de loi rendra les développeurs responsables de certaines violations de la loi, ouvrant ainsi la voie à des amendes civiles pouvant atteindre des dizaines de millions de dollars.

Pressions sur le gouverneur

Les entreprises technologiques et leurs organisations commerciales exercent déjà des pressions sur la gouverneure Kathy Hochul pour qu’elle oppose son veto à cette mesure, arguant qu’elle étoufferait l’innovation dans un domaine transformateur. Tout cela se déroule alors que le Congrès envisage d’interdire aux États de réglementer l’IA pendant les dix prochaines années, une mesure qui pourrait effectivement anéantir le projet de loi avant qu’il ait une chance d’entrer en vigueur.

Urgence de la régulation

Cependant, les partisans du projet de loi exhortent Hochul à le signer, affirmant que le gouvernement fédéral n’agit pas assez rapidement pour réglementer une industrie de l’IA en rapide évolution, qui a un potentiel énorme pour apporter des changements dans le monde.

« Je pense que, à bien des égards, la politique de l’IA devrait être au niveau fédéral, mais les fédéraux prennent leur temps et n’ont rien fait à ce sujet », a déclaré un membre de l’assemblée. « La beauté du système fédéral est que nous pouvons permettre aux États d’expérimenter et d’essayer de nouvelles choses. »

Les exigences du RAISE Act

Le RAISE Act s’applique aux développeurs de modèles d’IA dits « de frontière » – la technologie la plus avancée dans le domaine – qui sont développés, déployés ou censés fonctionner à New York. Les développeurs seraient tenus de mettre en place leurs protocoles de sécurité avant le déploiement. Ils seraient soumis à un examen par des tiers et devraient les rendre disponibles au Département de la Sécurité intérieure de l’État ainsi qu’au Bureau du procureur général de l’État.

Le projet de loi stipule que les protocoles de sécurité doivent être conçus pour réduire la probabilité de « dommages critiques » – des incidents causés ou matériellement facilités par le modèle d’IA du développeur, entraînant 100 blessures ou plus, ou des dommages dépassant 1 milliard de dollars. Il exige également que les développeurs tiennent compte de la possibilité que l’IA mène à la création d’armes chimiques, biologiques ou même nucléaires.

Pénalités financières

Le procureur général pourrait demander des amendes allant jusqu’à 10 millions de dollars pour une première violation, et jusqu’à 30 millions de dollars pour chaque violation subséquente.

Des exemples de tentatives de régulation

Les législateurs californiens ont précédemment tenté de réglementer les développeurs d’IA de manière similaire l’année dernière, mais la mesure a fait face à une opposition significative de certains secteurs de la Silicon Valley, et le gouverneur Gavin Newsom a finalement opposé son veto.

Tech:NYC – un groupe commercial incluant Google et Meta, qui ont tous deux des modèles d’IA significatifs – s’oppose au RAISE Act. Julie Samuels, présidente et PDG de Tech:NYC, a déclaré que son organisation n’est pas opposée à la réglementation étatique, bien qu’elle préfère une norme nationale. Cependant, le groupe affirme que la réglementation devrait être basée sur des utilisations spécifiques, telles que les règles pour l’IA utilisée dans les processus décisionnels de santé, plutôt que sur l’approche globale du RAISE Act.

Réaction du gouvernement

Kathy Hochul a été un grand supporter de l’initiative Empire AI, un consortium public-privé basé à l’Université de Buffalo consacré à la recherche et au développement de l’intelligence artificielle. Plus tôt cette année, elle et les législateurs de l’État ont approuvé des mesures réglementant les compagnons IA, les applications et les personnages fournissant un soutien émotionnel aux personnes.

Avi Small, un porte-parole du gouverneur, a déclaré que Hochul examinerait la législation.

Débat au Congrès

Pendant ce temps, le Congrès continue de débattre de la question de savoir s’il doit interdire temporairement aux États de réglementer l’IA dans son ensemble. La Chambre des représentants a adopté un moratoire de 10 ans sur une telle réglementation des États dans le cadre du large projet de loi fiscal du président Donald Trump le mois dernier. Le Sénat n’a pas encore voté sur sa version du projet de loi, mais un comité a inséré un langage qui a adouci la disposition, permettant effectivement aux États de réglementer l’IA s’ils sont prêts à renoncer au financement fédéral de la large bande.

Kathy Hochul, une démocrate, a écrit une lettre la semaine dernière au leader de la majorité sénatoriale John Thune et au leader de la minorité Charles Schumer s’opposant à la version de la mesure adoptée par la Chambre, exhortant les républicains à la rejeter.

« Si cette prohibition fédérale reste dans la réconciliation, l’impact n’est pas simplement un moratoire bureaucratique ; il sape le droit et la responsabilité fondamentaux des États de protéger la sécurité, la santé, la vie privée et la vitalité économique de ses citoyens », a écrit Hochul.

Articles

Impact de la loi européenne sur l’IA sur la gouvernance des entreprises

Ce projet de recherche examine comment la Loi sur l'intelligence artificielle de l'UE catalyse une transformation systémique dans les cadres de gouvernance et de responsabilité des entreprises. Il met...

Réveil Cybernétique : L’Impact de l’IA sur la Sécurité

Les organisations doivent prendre en compte que l'IA transforme rapidement le paysage des menaces en cybersécurité, tout en offrant des opportunités pour améliorer la détection et la réponse...

Vers une législation éclairée sur l’IA en Thaïlande

M. Sak déclare que la législation à venir vise à protéger les utilisateurs des risques potentiels liés à l'IA et à supprimer les obstacles juridiques que les lois existantes ne peuvent pas traiter. La...

Texas renforce la gouvernance de l’IA avec des lois ciblées pour le secteur de la santé

Le Texas a franchi une étape importante dans la réglementation de l'intelligence artificielle (IA) avec l'adoption de la Loi sur la gouvernance responsable de l'IA (TRAIGA), qui établit un cadre pour...

Révolutionner la gouvernance de l’IA pour un avenir responsable

Riskonnect a annoncé le lancement de sa nouvelle solution de gouvernance de l'IA, permettant aux organisations de gérer les risques et les obligations de conformité des technologies d'IA de manière...

L’Alignement de l’IA : Vers une Gouvernance Éthique

Gillian K. Hadfield a été nommée professeure distinguée Bloomberg en alignement et gouvernance de l'IA à l'Université Johns Hopkins. Elle se concentre sur la manière dont les systèmes d'IA peuvent...

Les dangers cachés du porno par échange de visages

La technologie de remplacement de visage, alimentée par l'IA, permet aux utilisateurs de remplacer le visage d'une personne dans une vidéo de manière très réaliste. Cependant, son utilisation abusive...

L’Illusion Bruxelloise : L’Acte sur l’IA de l’UE et son Impact International

L'Acte sur l'IA de l'UE projette un modèle réglementaire qui, bien qu'influant sur d'autres juridictions, révèle un mirage en raison des valeurs légales et culturelles distinctes qui façonnent la...

L’Illusion Bruxelloise : L’Acte sur l’IA de l’UE et son Impact International

L'Acte sur l'IA de l'UE projette un modèle réglementaire qui, bien qu'influant sur d'autres juridictions, révèle un mirage en raison des valeurs légales et culturelles distinctes qui façonnent la...