AI et le Droit : Tendances Émergentes dans l’Application
La révolution industrielle, souvent appelée la quatrième révolution industrielle, a vu l’émergence de l’intelligence artificielle (IA) comme l’un des développements technologiques les plus marquants du XXIe siècle. Ce phénomène a surprise tant la société que les gouvernements, entraînant des discussions sur le fonctionnement de l’économie de l’information et la manière dont l’art est créé.
Le gouvernement américain a pris diverses mesures, mais l’activité législative est restée absente. Les récentes actions des régulateurs fédéraux et étatiques offrent des aperçus sur les priorités entourant l’application de la loi concernant l’IA. Bien que ces priorités puissent évoluer sous la nouvelle administration Trump, les actions récentes en matière d’application démontrent les outils disponibles pour faire respecter les règles concernant l’IA.
Actions de l’Administration Biden
Suite à l’émergence explosive de ChatGPT, l’administration Biden a pris plusieurs actions exécutives concernant l’IA, se concentrant principalement sur les politiques d’utilisation responsable. En octobre 2023, le président Biden a émis un décret exécutif concernant le « Développement et l’Utilisation Sûrs, Sécurisés et Fiables de l’Intelligence Artificielle », soulignant l’engagement de l’administration envers des utilisations responsables de l’IA.
Ce décret a ordonné au Département du Commerce de développer des directives pour l’authentification de contenu et le marquage, afin de clairement identifier le contenu généré par l’IA. Les développeurs de modèles d’IA impliquant la sécurité nationale et la santé publique doivent partager leurs résultats de tests de sécurité avec le gouvernement américain.
Cadre Législatif et État des Lieux
Bien qu’il n’y ait pas eu de législation fédérale spécifique, des avancées ont été réalisées au niveau des États. En juin 2024, le Colorado a adopté sa Loi sur l’Intelligence Artificielle, constituant le premier cadre légal complet concernant le développement et le déploiement de l’IA. Cette loi exige que les développeurs d’IA à haut risque protègent les consommateurs contre les risques de discrimination algorithmique.
En septembre 2024, la Californie a adopté plusieurs lois relatives à l’IA, y compris des exigences de divulgation concernant les ensembles de données utilisés pour former les modèles. D’autres États tels que l’Indiana, l’Illinois et le Texas ont également pris des mesures pour établir des comités et des groupes de travail sur l’IA.
Application de la Loi par la FTC et la SEC
La Federal Trade Commission (FTC) a récemment lancé une initiative appelée Operation AI Comply pour cibler les opérations utilisant l’IA de manière trompeuse. Des entreprises comme DoNotPay et Rytr ont été sanctionnées pour avoir fait des réclamations fausses concernant leurs services d’IA.
De son côté, la Securities and Exchange Commission (SEC) a également imposé des amendes à des conseillers en investissements pour avoir fait des déclarations trompeuses sur leur utilisation de l’IA.
Actions des Régulateurs d’État
Le bureau du procureur général du Texas a récemment annoncé un règlement avec une entreprise d’IA générative concernant des déclarations trompeuses sur la sécurité de ses produits. Cette affaire met en évidence le potentiel d’application des lois existantes pour réglementer l’IA.
Perspectives Futures
Les activités réglementaires de la FTC et des autres agences révèlent des domaines d’intérêt pour l’application future. La FTC a exprimé son intérêt pour les produits d’IA générative, y compris les chatbots et les deepfakes, et les risques associés à leur utilisation.
À l’heure actuelle, les réglementations fédérales spécifiques à l’IA n’ont pas encore été émises, mais les actions d’application décrites et les intérêts manifestés par les régulateurs confirment que les entreprises doivent rester vigilantes face aux risques posés par les technologies d’IA.