Moratoire sur l’IA : Défis au Sénat et liberté d’expression en question

A courtroom bench with a digital screen displaying AI data

Le moratoire sur la loi sur l’IA fait face à des obstacles au Sénat

Le moratoire proposé de 10 ans sur les réglementations étatiques concernant l’IA, qui a été adopté par la Chambre des représentants, est maintenant en route vers le Sénat, où son avenir reste incertain. Plusieurs sénateurs républicains se sont opposés à ce moratoire, arguant qu’il représente un « don à Big Tech » et que les États devraient être autorisés à réglementer l’IA jusqu’à ce que des réglementations fédérales soient mises en place.

Des inquiétudes ont également été soulevées concernant la capacité du moratoire à survivre à la Règle Byrd, une règle sénatoriale qui limite les paquets de réconciliation aux questions budgétaires uniquement. Le 21 mai, un juge fédéral a statué pour la première fois que la sortie d’un modèle d’IA ne constitue pas un discours protégé par le Premier Amendement, rejetant la motion d’une entreprise d’IA visant à faire rejeter une plainte concernant les dommages allégués causés par son chatbot d’IA.

Le moratoire proposé sur les lois étatiques sur l’IA se dirige vers le Sénat

Après avoir été intégré dans le paquet de réconciliation, le moratoire de 10 ans sur les lois étatiques concernant l’IA fait face à de possibles défis au Sénat. Plusieurs républicains se sont prononcés contre le moratoire, et étant donné la mince majorité républicaine au Sénat, ceux-ci ne peuvent se permettre de perdre que quelques voix pour faire adopter la mesure.

Cependant, certains sénateurs républicains soutiennent la disposition, affirmant qu’elle s’aligne sur le pouvoir constitutionnel du Congrès de « réglementer le commerce interétatique », selon le sénateur Todd Young (R-IN). Le sénateur Mike Rounds (R-SD) a également déclaré que « le concept et le besoin de [ce moratoire] sont importants ». D’autres républicains, comme le sénateur Marsha Blackburn (R-TN), soutiennent que la réglementation étatique de l’IA est nécessaire pour « protéger les consommateurs jusqu’à ce qu’une législation fédérale soit adoptée ».

Le moratoire a également reçu un soutien général de la part de plusieurs groupes de défense de la vie privée et d’entreprises technologiques. Une grande entreprise d’IA a noté qu’« il est impossible d’ignorer que nous avons officiellement franchi le seuil de mille projets de lois étatiques sur l’IA ».

Un tribunal fédéral statue que la sortie de l’IA n’est pas protégée par le Premier Amendement

Le 21 mai, un juge de district fédéral a statué pour la première fois qu’une sortie de modèle d’IA ne constitue pas un discours protégé par le Premier Amendement. Le juge Anne C. Conway du district moyen de Floride a rejeté la motion d’une entreprise d’IA, permettant à la plainte d’un plaignant concernant les dommages causés par les sorties de son modèle d’IA de se poursuivre.

Le cas est né de la mort d’un adolescent de 14 ans qui s’est suicidé après avoir interagi avec la plateforme de chatbot Character.AI, qui aurait généré des messages abusifs et sexuellement exploitants dirigés vers l’enfant. La mère du garçon a porté plainte contre le chatbot, alléguant que les sorties de Character.AI « ont causé la mort de son fils ».

Dans sa décision, le juge a soutenu que « le tribunal n’est pas prêt à considérer que la sortie de Character.AI est un discours », notant que les défendeurs n’ont pas réussi à expliquer pourquoi des mots assemblés par un modèle de langage (LLM) devraient être considérés comme un discours. Le juge a également cité la position de la juge Barrett concernant la modération de contenu par l’IA, suggérant que les décisions prises par des algorithmes pourraient bénéficier de moins de protections constitutionnelles que celles prises par des humains.

Le juge a souligné que la décision vient à un moment où les tribunaux du pays luttent avec les nouvelles questions juridiques soulevées par l’émergence de l’IA. Alors que la plupart des affaires fédérales impliquant l’IA concernent des problèmes de droits d’auteur pour des œuvres générées par l’IA, cette affaire portant sur la liberté d’expression se distingue par son lien avec les limites du Premier Amendement sur les sorties d’IA.

Nous continuerons à surveiller, analyser et rapporter sur ces développements.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...