Moratoire sur l’IA : Défis au Sénat et liberté d’expression en question

A courtroom bench with a digital screen displaying AI data

Le moratoire sur la loi sur l’IA fait face à des obstacles au Sénat

Le moratoire proposé de 10 ans sur les réglementations étatiques concernant l’IA, qui a été adopté par la Chambre des représentants, est maintenant en route vers le Sénat, où son avenir reste incertain. Plusieurs sénateurs républicains se sont opposés à ce moratoire, arguant qu’il représente un « don à Big Tech » et que les États devraient être autorisés à réglementer l’IA jusqu’à ce que des réglementations fédérales soient mises en place.

Des inquiétudes ont également été soulevées concernant la capacité du moratoire à survivre à la Règle Byrd, une règle sénatoriale qui limite les paquets de réconciliation aux questions budgétaires uniquement. Le 21 mai, un juge fédéral a statué pour la première fois que la sortie d’un modèle d’IA ne constitue pas un discours protégé par le Premier Amendement, rejetant la motion d’une entreprise d’IA visant à faire rejeter une plainte concernant les dommages allégués causés par son chatbot d’IA.

Le moratoire proposé sur les lois étatiques sur l’IA se dirige vers le Sénat

Après avoir été intégré dans le paquet de réconciliation, le moratoire de 10 ans sur les lois étatiques concernant l’IA fait face à de possibles défis au Sénat. Plusieurs républicains se sont prononcés contre le moratoire, et étant donné la mince majorité républicaine au Sénat, ceux-ci ne peuvent se permettre de perdre que quelques voix pour faire adopter la mesure.

Cependant, certains sénateurs républicains soutiennent la disposition, affirmant qu’elle s’aligne sur le pouvoir constitutionnel du Congrès de « réglementer le commerce interétatique », selon le sénateur Todd Young (R-IN). Le sénateur Mike Rounds (R-SD) a également déclaré que « le concept et le besoin de [ce moratoire] sont importants ». D’autres républicains, comme le sénateur Marsha Blackburn (R-TN), soutiennent que la réglementation étatique de l’IA est nécessaire pour « protéger les consommateurs jusqu’à ce qu’une législation fédérale soit adoptée ».

Le moratoire a également reçu un soutien général de la part de plusieurs groupes de défense de la vie privée et d’entreprises technologiques. Une grande entreprise d’IA a noté qu’« il est impossible d’ignorer que nous avons officiellement franchi le seuil de mille projets de lois étatiques sur l’IA ».

Un tribunal fédéral statue que la sortie de l’IA n’est pas protégée par le Premier Amendement

Le 21 mai, un juge de district fédéral a statué pour la première fois qu’une sortie de modèle d’IA ne constitue pas un discours protégé par le Premier Amendement. Le juge Anne C. Conway du district moyen de Floride a rejeté la motion d’une entreprise d’IA, permettant à la plainte d’un plaignant concernant les dommages causés par les sorties de son modèle d’IA de se poursuivre.

Le cas est né de la mort d’un adolescent de 14 ans qui s’est suicidé après avoir interagi avec la plateforme de chatbot Character.AI, qui aurait généré des messages abusifs et sexuellement exploitants dirigés vers l’enfant. La mère du garçon a porté plainte contre le chatbot, alléguant que les sorties de Character.AI « ont causé la mort de son fils ».

Dans sa décision, le juge a soutenu que « le tribunal n’est pas prêt à considérer que la sortie de Character.AI est un discours », notant que les défendeurs n’ont pas réussi à expliquer pourquoi des mots assemblés par un modèle de langage (LLM) devraient être considérés comme un discours. Le juge a également cité la position de la juge Barrett concernant la modération de contenu par l’IA, suggérant que les décisions prises par des algorithmes pourraient bénéficier de moins de protections constitutionnelles que celles prises par des humains.

Le juge a souligné que la décision vient à un moment où les tribunaux du pays luttent avec les nouvelles questions juridiques soulevées par l’émergence de l’IA. Alors que la plupart des affaires fédérales impliquant l’IA concernent des problèmes de droits d’auteur pour des œuvres générées par l’IA, cette affaire portant sur la liberté d’expression se distingue par son lien avec les limites du Premier Amendement sur les sorties d’IA.

Nous continuerons à surveiller, analyser et rapporter sur ces développements.

Articles

Classifiez rapidement votre système d’IA selon la loi européenne sur l’IA

L'Acte sur l'IA de l'UE va transformer la manière dont l'IA est construite, évaluée et déployée en Europe. Pour aider les équipes à classer rapidement leur système d'IA, Genbounty a créé un outil...

Harmonisation juridique de l’IA : enjeux et perspectives à AIPPI 2025

La présidente de l'AIPPI, Lorenza Ferrari Hofer, a souligné l'importance d'une législation mondiale harmonisée pour réguler l'intelligence artificielle, qui dépasse les frontières. L'événement de...

L’impact de la loi sur l’IA du Colorado sur les entreprises

La semaine dernière, les législateurs du Colorado ont décidé de retarder la mise en œuvre de la loi sur l'intelligence artificielle du Colorado (CAIA) jusqu'au 30 juin 2026. Cette loi rend les...

Surveillance intelligente : sécurité ou atteinte à la vie privée ?

La surveillance alimentée par l'IA améliore la sécurité, mais présente des risques de biais et d'érosion des libertés civiles. Les réglementations mondiales restent inégales, tandis qu'une gouvernance...

L’intelligence artificielle responsable : vers un avenir financier sûr

La discussion mondiale sur l'intelligence artificielle a évolué vers une question cruciale : comment utiliser ces outils de manière responsable, en particulier dans le secteur financier où la...

Certification pour une IA de confiance et durable

La certification transforme la réglementation en un catalyseur pour l'adoption de l'IA fiable, offrant un avantage concurrentiel aux entreprises qui adoptent la conformité tôt. En 2025, la loi sur...

Confiance et transparence : l’avenir de l’IA explicable

L'IA explicable (XAI) est essentielle pour établir la confiance, garantir la transparence et permettre la responsabilité dans des domaines critiques comme la santé et la finance. Les réglementations...

Réguler l’IA pour un avenir responsable

L'intelligence artificielle est la technologie révolutionnaire la plus transformative de notre époque, mais elle comporte également d'immenses risques. Les systèmes d'IA sont souvent biaisés et...

Intelligence artificielle et recherche UX : vers des workflows éthiques et efficaces

La recherche UX n'est aussi solide que les humains qui la dirigent, et les décisions humaines peuvent souvent introduire des erreurs. L'arrivée de l'IA dans la recherche UX est fascinante, promettant...