Les législateurs de New York cherchent à éviter des « dommages critiques » par l’IA
Les législateurs de l’État de New York souhaitent imposer de nouvelles exigences de sécurité pour les modèles d’intelligence artificielle (IA) les plus avancés au monde. Cependant, des législateurs fédéraux menacent de supplanter ces nouvelles règles avant même leur mise en œuvre.
Un projet de loi à l’étude
La législature de l’État a adopté un projet de loi la semaine dernière qui obligera les développeurs des modèles d’IA les plus sophistiqués à élaborer des plans de sécurité complets, décrivant les mesures prises pour réduire le risque de causer des dommages graves.
Cette mesure, connue sous le nom de RAISE Act (Responsible AI Safety and Education), exigera également que les développeurs informent l’État des incidents de sécurité majeurs, tels qu’un modèle agissant de manière autonome sans sollicitation de l’utilisateur. Le projet de loi rendra les développeurs responsables de certaines violations de la loi, ouvrant ainsi la voie à des amendes civiles pouvant atteindre des dizaines de millions de dollars.
Pressions sur le gouverneur
Les entreprises technologiques et leurs organisations commerciales exercent déjà des pressions sur la gouverneure Kathy Hochul pour qu’elle oppose son veto à cette mesure, arguant qu’elle étoufferait l’innovation dans un domaine transformateur. Tout cela se déroule alors que le Congrès envisage d’interdire aux États de réglementer l’IA pendant les dix prochaines années, une mesure qui pourrait effectivement anéantir le projet de loi avant qu’il ait une chance d’entrer en vigueur.
Urgence de la régulation
Cependant, les partisans du projet de loi exhortent Hochul à le signer, affirmant que le gouvernement fédéral n’agit pas assez rapidement pour réglementer une industrie de l’IA en rapide évolution, qui a un potentiel énorme pour apporter des changements dans le monde.
« Je pense que, à bien des égards, la politique de l’IA devrait être au niveau fédéral, mais les fédéraux prennent leur temps et n’ont rien fait à ce sujet », a déclaré un membre de l’assemblée. « La beauté du système fédéral est que nous pouvons permettre aux États d’expérimenter et d’essayer de nouvelles choses. »
Les exigences du RAISE Act
Le RAISE Act s’applique aux développeurs de modèles d’IA dits « de frontière » – la technologie la plus avancée dans le domaine – qui sont développés, déployés ou censés fonctionner à New York. Les développeurs seraient tenus de mettre en place leurs protocoles de sécurité avant le déploiement. Ils seraient soumis à un examen par des tiers et devraient les rendre disponibles au Département de la Sécurité intérieure de l’État ainsi qu’au Bureau du procureur général de l’État.
Le projet de loi stipule que les protocoles de sécurité doivent être conçus pour réduire la probabilité de « dommages critiques » – des incidents causés ou matériellement facilités par le modèle d’IA du développeur, entraînant 100 blessures ou plus, ou des dommages dépassant 1 milliard de dollars. Il exige également que les développeurs tiennent compte de la possibilité que l’IA mène à la création d’armes chimiques, biologiques ou même nucléaires.
Pénalités financières
Le procureur général pourrait demander des amendes allant jusqu’à 10 millions de dollars pour une première violation, et jusqu’à 30 millions de dollars pour chaque violation subséquente.
Des exemples de tentatives de régulation
Les législateurs californiens ont précédemment tenté de réglementer les développeurs d’IA de manière similaire l’année dernière, mais la mesure a fait face à une opposition significative de certains secteurs de la Silicon Valley, et le gouverneur Gavin Newsom a finalement opposé son veto.
Tech:NYC – un groupe commercial incluant Google et Meta, qui ont tous deux des modèles d’IA significatifs – s’oppose au RAISE Act. Julie Samuels, présidente et PDG de Tech:NYC, a déclaré que son organisation n’est pas opposée à la réglementation étatique, bien qu’elle préfère une norme nationale. Cependant, le groupe affirme que la réglementation devrait être basée sur des utilisations spécifiques, telles que les règles pour l’IA utilisée dans les processus décisionnels de santé, plutôt que sur l’approche globale du RAISE Act.
Réaction du gouvernement
Kathy Hochul a été un grand supporter de l’initiative Empire AI, un consortium public-privé basé à l’Université de Buffalo consacré à la recherche et au développement de l’intelligence artificielle. Plus tôt cette année, elle et les législateurs de l’État ont approuvé des mesures réglementant les compagnons IA, les applications et les personnages fournissant un soutien émotionnel aux personnes.
Avi Small, un porte-parole du gouverneur, a déclaré que Hochul examinerait la législation.
Débat au Congrès
Pendant ce temps, le Congrès continue de débattre de la question de savoir s’il doit interdire temporairement aux États de réglementer l’IA dans son ensemble. La Chambre des représentants a adopté un moratoire de 10 ans sur une telle réglementation des États dans le cadre du large projet de loi fiscal du président Donald Trump le mois dernier. Le Sénat n’a pas encore voté sur sa version du projet de loi, mais un comité a inséré un langage qui a adouci la disposition, permettant effectivement aux États de réglementer l’IA s’ils sont prêts à renoncer au financement fédéral de la large bande.
Kathy Hochul, une démocrate, a écrit une lettre la semaine dernière au leader de la majorité sénatoriale John Thune et au leader de la minorité Charles Schumer s’opposant à la version de la mesure adoptée par la Chambre, exhortant les républicains à la rejeter.
« Si cette prohibition fédérale reste dans la réconciliation, l’impact n’est pas simplement un moratoire bureaucratique ; il sape le droit et la responsabilité fondamentaux des États de protéger la sécurité, la santé, la vie privée et la vitalité économique de ses citoyens », a écrit Hochul.