Moratoire sur l’IA : Défis au Sénat et liberté d’expression en question

A courtroom bench with a digital screen displaying AI data

Le moratoire sur la loi sur l’IA fait face à des obstacles au Sénat

Le moratoire proposé de 10 ans sur les réglementations étatiques concernant l’IA, qui a été adopté par la Chambre des représentants, est maintenant en route vers le Sénat, où son avenir reste incertain. Plusieurs sénateurs républicains se sont opposés à ce moratoire, arguant qu’il représente un « don à Big Tech » et que les États devraient être autorisés à réglementer l’IA jusqu’à ce que des réglementations fédérales soient mises en place.

Des inquiétudes ont également été soulevées concernant la capacité du moratoire à survivre à la Règle Byrd, une règle sénatoriale qui limite les paquets de réconciliation aux questions budgétaires uniquement. Le 21 mai, un juge fédéral a statué pour la première fois que la sortie d’un modèle d’IA ne constitue pas un discours protégé par le Premier Amendement, rejetant la motion d’une entreprise d’IA visant à faire rejeter une plainte concernant les dommages allégués causés par son chatbot d’IA.

Le moratoire proposé sur les lois étatiques sur l’IA se dirige vers le Sénat

Après avoir été intégré dans le paquet de réconciliation, le moratoire de 10 ans sur les lois étatiques concernant l’IA fait face à de possibles défis au Sénat. Plusieurs républicains se sont prononcés contre le moratoire, et étant donné la mince majorité républicaine au Sénat, ceux-ci ne peuvent se permettre de perdre que quelques voix pour faire adopter la mesure.

Cependant, certains sénateurs républicains soutiennent la disposition, affirmant qu’elle s’aligne sur le pouvoir constitutionnel du Congrès de « réglementer le commerce interétatique », selon le sénateur Todd Young (R-IN). Le sénateur Mike Rounds (R-SD) a également déclaré que « le concept et le besoin de [ce moratoire] sont importants ». D’autres républicains, comme le sénateur Marsha Blackburn (R-TN), soutiennent que la réglementation étatique de l’IA est nécessaire pour « protéger les consommateurs jusqu’à ce qu’une législation fédérale soit adoptée ».

Le moratoire a également reçu un soutien général de la part de plusieurs groupes de défense de la vie privée et d’entreprises technologiques. Une grande entreprise d’IA a noté qu’« il est impossible d’ignorer que nous avons officiellement franchi le seuil de mille projets de lois étatiques sur l’IA ».

Un tribunal fédéral statue que la sortie de l’IA n’est pas protégée par le Premier Amendement

Le 21 mai, un juge de district fédéral a statué pour la première fois qu’une sortie de modèle d’IA ne constitue pas un discours protégé par le Premier Amendement. Le juge Anne C. Conway du district moyen de Floride a rejeté la motion d’une entreprise d’IA, permettant à la plainte d’un plaignant concernant les dommages causés par les sorties de son modèle d’IA de se poursuivre.

Le cas est né de la mort d’un adolescent de 14 ans qui s’est suicidé après avoir interagi avec la plateforme de chatbot Character.AI, qui aurait généré des messages abusifs et sexuellement exploitants dirigés vers l’enfant. La mère du garçon a porté plainte contre le chatbot, alléguant que les sorties de Character.AI « ont causé la mort de son fils ».

Dans sa décision, le juge a soutenu que « le tribunal n’est pas prêt à considérer que la sortie de Character.AI est un discours », notant que les défendeurs n’ont pas réussi à expliquer pourquoi des mots assemblés par un modèle de langage (LLM) devraient être considérés comme un discours. Le juge a également cité la position de la juge Barrett concernant la modération de contenu par l’IA, suggérant que les décisions prises par des algorithmes pourraient bénéficier de moins de protections constitutionnelles que celles prises par des humains.

Le juge a souligné que la décision vient à un moment où les tribunaux du pays luttent avec les nouvelles questions juridiques soulevées par l’émergence de l’IA. Alors que la plupart des affaires fédérales impliquant l’IA concernent des problèmes de droits d’auteur pour des œuvres générées par l’IA, cette affaire portant sur la liberté d’expression se distingue par son lien avec les limites du Premier Amendement sur les sorties d’IA.

Nous continuerons à surveiller, analyser et rapporter sur ces développements.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...