Le moratoire sur la loi sur l’IA fait face à des obstacles au Sénat
Le moratoire proposé de 10 ans sur les réglementations étatiques concernant l’IA, qui a été adopté par la Chambre des représentants, est maintenant en route vers le Sénat, où son avenir reste incertain. Plusieurs sénateurs républicains se sont opposés à ce moratoire, arguant qu’il représente un « don à Big Tech » et que les États devraient être autorisés à réglementer l’IA jusqu’à ce que des réglementations fédérales soient mises en place.
Des inquiétudes ont également été soulevées concernant la capacité du moratoire à survivre à la Règle Byrd, une règle sénatoriale qui limite les paquets de réconciliation aux questions budgétaires uniquement. Le 21 mai, un juge fédéral a statué pour la première fois que la sortie d’un modèle d’IA ne constitue pas un discours protégé par le Premier Amendement, rejetant la motion d’une entreprise d’IA visant à faire rejeter une plainte concernant les dommages allégués causés par son chatbot d’IA.
Le moratoire proposé sur les lois étatiques sur l’IA se dirige vers le Sénat
Après avoir été intégré dans le paquet de réconciliation, le moratoire de 10 ans sur les lois étatiques concernant l’IA fait face à de possibles défis au Sénat. Plusieurs républicains se sont prononcés contre le moratoire, et étant donné la mince majorité républicaine au Sénat, ceux-ci ne peuvent se permettre de perdre que quelques voix pour faire adopter la mesure.
Cependant, certains sénateurs républicains soutiennent la disposition, affirmant qu’elle s’aligne sur le pouvoir constitutionnel du Congrès de « réglementer le commerce interétatique », selon le sénateur Todd Young (R-IN). Le sénateur Mike Rounds (R-SD) a également déclaré que « le concept et le besoin de [ce moratoire] sont importants ». D’autres républicains, comme le sénateur Marsha Blackburn (R-TN), soutiennent que la réglementation étatique de l’IA est nécessaire pour « protéger les consommateurs jusqu’à ce qu’une législation fédérale soit adoptée ».
Le moratoire a également reçu un soutien général de la part de plusieurs groupes de défense de la vie privée et d’entreprises technologiques. Une grande entreprise d’IA a noté qu’« il est impossible d’ignorer que nous avons officiellement franchi le seuil de mille projets de lois étatiques sur l’IA ».
Un tribunal fédéral statue que la sortie de l’IA n’est pas protégée par le Premier Amendement
Le 21 mai, un juge de district fédéral a statué pour la première fois qu’une sortie de modèle d’IA ne constitue pas un discours protégé par le Premier Amendement. Le juge Anne C. Conway du district moyen de Floride a rejeté la motion d’une entreprise d’IA, permettant à la plainte d’un plaignant concernant les dommages causés par les sorties de son modèle d’IA de se poursuivre.
Le cas est né de la mort d’un adolescent de 14 ans qui s’est suicidé après avoir interagi avec la plateforme de chatbot Character.AI, qui aurait généré des messages abusifs et sexuellement exploitants dirigés vers l’enfant. La mère du garçon a porté plainte contre le chatbot, alléguant que les sorties de Character.AI « ont causé la mort de son fils ».
Dans sa décision, le juge a soutenu que « le tribunal n’est pas prêt à considérer que la sortie de Character.AI est un discours », notant que les défendeurs n’ont pas réussi à expliquer pourquoi des mots assemblés par un modèle de langage (LLM) devraient être considérés comme un discours. Le juge a également cité la position de la juge Barrett concernant la modération de contenu par l’IA, suggérant que les décisions prises par des algorithmes pourraient bénéficier de moins de protections constitutionnelles que celles prises par des humains.
Le juge a souligné que la décision vient à un moment où les tribunaux du pays luttent avec les nouvelles questions juridiques soulevées par l’émergence de l’IA. Alors que la plupart des affaires fédérales impliquant l’IA concernent des problèmes de droits d’auteur pour des œuvres générées par l’IA, cette affaire portant sur la liberté d’expression se distingue par son lien avec les limites du Premier Amendement sur les sorties d’IA.
Nous continuerons à surveiller, analyser et rapporter sur ces développements.