Nouvelles lois de New York sur la sécurité de l’IA : la loi RAISE et les modèles accompagnateurs IA
L’État de New York a été l’un des précurseurs de la réglementation de l’intelligence artificielle (IA) en 2025. Parmi ses initiatives notables, la législature a adopté une loi budgétaire globale mettant en œuvre des mesures de protection pour les accompagnateurs IA, entrée en vigueur le 5 novembre 2025. Le Gouverneur a également signé une version amendée de la loi sur la sécurité et l’éducation de l’intelligence artificielle responsable (RAISE) le 19 décembre 2025. New York rejoint ainsi des États comme le Colorado, la Californie et l’Utah dans la réglementation de l’IA au niveau des États, dans un paysage législatif de plus en plus varié.
Alors que les États poursuivent leurs efforts de réglementation, des questions subsistent concernant la préemption fédérale et l’avenir de la législation sur l’IA. Par exemple, un décret exécutif a été émis en décembre, ordonnant la création d’un groupe de travail sur les litiges liés à l’IA au sein du ministère de la Justice pour contester les lois des États sur des bases de commerce interétatique et de premier amendement, menaçant de retirer les financements fédéraux aux États jugés contraignants. Ce décret a suscité un débat sur l’étendue de l’autorité fédérale en matière de réglementation de l’IA au niveau étatique.
Modèles accompagnateurs IA
La loi sur les modèles accompagnateurs IA exige des opérateurs et fournisseurs qu’ils mettent en œuvre des mesures de sécurité et des protocoles pour détecter et traiter les expressions d’idéation suicidaire ou d’automutilation des utilisateurs. De plus, ils doivent informer régulièrement les utilisateurs qu’ils ne communiquent pas avec un être humain.
Cette loi s’applique à tous les opérateurs d’accompagnateurs IA ayant des utilisateurs situés dans l’État. Les « accompagnateurs IA » sont définis comme des systèmes utilisant l’IA conçus pour simuler une relation humaine soutenue avec un utilisateur. Ils doivent retenir des informations sur les interactions passées et les préférences des utilisateurs pour personnaliser l’engagement. De plus, ils doivent poser des questions émotionnelles non sollicitées et entretenir un dialogue continu sur des sujets personnels.
Exigences clés :
Les opérateurs doivent fournir une notification claire et évidente, verbalement ou par écrit, indiquant que l’utilisateur ne communique pas avec un être humain. Cette notification doit être fournie au moins toutes les trois heures lors d’interactions continues. Ils doivent également établir des protocoles pour détecter et traiter les expressions d’idéation suicidaire ou d’automutilation.
Loi RAISE
La loi RAISE aborde des problématiques de sécurité plus larges en exigeant des développeurs de modèles avancés qu’ils mettent en œuvre des exigences de transparence et de divulgation. Cela inclut la publication d’informations sur les protocoles de sécurité et la mise à disposition de ces mesures aux autorités compétentes.
Les exigences clés comprennent la réalisation d’examens de sécurité annuels et d’audits tiers, ainsi que le rapport d’incidents de sécurité dans les 72 heures. La loi interdit le déploiement de modèles présentant un « risque déraisonnable de dommages critiques ».
La mise en œuvre de la loi RAISE est prévue pour janvier 2027, avec la création d’un bureau chargé de superviser le développement de l’IA dans l’État.
Conclusion
New York a adopté plusieurs autres lois sur l’IA en 2025, renforçant son rôle dans la réglementation de l’IA au niveau des États. Ces mesures visent à garantir la sécurité des utilisateurs tout en favorisant l’innovation dans le secteur de l’intelligence artificielle.