Proposition de Loi du Sénat : Changements Profonds sur la Responsabilité de l’IA et Régulations des États
Un projet de loi en discussion propose une réglementation étendue concernant la responsabilité des développeurs et déployeurs d’IA, en introduisant des protections pour l’utilisation de l’IA. Le projet de loi impose une responsabilité et un devoir de prudence sur ces acteurs pour prévenir les dommages prévisibles, orientant ainsi la réglementation de l’IA vers un cadre de responsabilité produit.
Principales Provisions
Le projet de loi inclut des dispositions qui préemptent certaines régulations étatiques sur l’IA, tout en permettant explicitement aux États d’adopter des lois offrant des protections plus importantes. Malgré l’objectif déclaré d’établir un cadre fédéral unique, la clause d’économie générale du projet de loi pourrait laisser une place substantielle aux lois étatiques sur la protection des consommateurs, l’audit des biais, la transparence et la responsabilité algorithmique.
Le projet de loi prévoit l’abrogation de la Section 230 deux ans après son adoption, redéfinissant ainsi l’exposition aux litiges pour les plateformes et l’IA.
Liabilités Établies
Le projet de loi introduit de nouveaux cadres de responsabilité pour les développeurs et déployeurs d’IA. Les développeurs feraient face à des réclamations pour négligence, responsabilité stricte et garanties pour les systèmes d’IA causant des dommages, y compris aux biens, aux personnes, aux finances et à la réputation. Les déployeurs qui modifient substantiellement un produit ou l’utilisent de manière abusive seraient traités comme des développeurs à des fins de responsabilité.
En outre, une obligation de prudence serait imposée aux chatbots, avec des violations considérées comme des actes déloyaux ou trompeurs. Les développeurs d’IA avancée ne participant pas à des évaluations fédérales obligatoires pourraient encourir des amendes élevées. La responsabilité civile s’étendrait également à l’utilisation non autorisée de répliques numériques.
Préemption Potentielle
Le projet de loi adopte une approche par titres, mais la clause d’économie globale indique que rien dans le projet de loi ne préempterait les lois généralement applicables. Certaines dispositions prévaudraient sur les lois étatiques en cas de conflit avec les dispositions fédérales. Certaines lois, comme le No Fakes Act, préemptent les causes d’action étatiques relatives aux répliques numériques tout en préservant les lois étatiques existantes.
Protections pour les Enfants et Droits des Créateurs
Des protections seraient mises en place pour prévenir les dommages prévisibles envers les mineurs, incluant des troubles alimentaires et l’exploitation sexuelle. Le projet de loi exige également des limites de communication, des protections de données et des paramètres d’opt-out.
Des droits fédéraux seraient établis pour la voix et l’image des individus, survivant après leur décès. Le projet de loi exclurait l’entraînement de l’IA sur des œuvres protégées par le droit d’auteur de l’utilisation équitable.
Initiatives d’Innovation et Exigences d’Audit
Le projet de loi dirigerait l’établissement d’un Centre pour les Normes et l’Innovation de l’IA, et exigerait des audits annuels indépendants pour les systèmes d’IA à haut risque. Les opérateurs de centres de données devraient également financer les mises à jour d’infrastructure.
Conclusion
Bien que le projet de loi soit encore en discussion, il indique une approche fédérale qui allie politique d’innovation à des provisions agressives sur la responsabilité, la sécurité des enfants et la transparence. Les entreprises impliquées dans l’IA doivent évaluer leur exposition non seulement à de nouvelles obligations d’audit et de transparence, mais aussi aux modifications possibles de la Section 230 et aux droits liés aux répliques numériques.