Au-delà de la Réglementation : Ce que 500 Cas Révèlent sur l’Avenir de l’IA dans les Tribunaux
À travers le monde, la réglementation de l’intelligence artificielle (IA) est inégale. Alors que certaines juridictions disposent déjà de réglementations complètes, d’autres se concentrent uniquement sur des règles sectorielles spécifiques, et d’autres encore résistent ou retardent totalement la réglementation. Par exemple, la récente Loi sur l’IA de l’Union européenne propose un modèle horizontal basé sur le risque qui couvre divers secteurs et technologies. En revanche, aux États-Unis, la résistance à une législation contraignante persiste, y compris des appels à un moratoire sur la réglementation étatique de l’IA qui pourrait s’étendre sur une décennie.
Ces dynamiques ont façonné la conversation mondiale autour de la gouvernance de l’IA comme une question de législation prospective et de conception politique. Cependant, cette emphase masque un fait critique et peu examiné : les tribunaux régulent déjà l’IA. Dans le monde entier, les juges, les autorités de protection des données et les tribunaux administratifs résolvent activement des litiges dans lesquels les systèmes d’IA jouent un rôle central, que ce soit dans des décisions d’immigration automatisées, la surveillance biométrique ou le traitement des données pour l’apprentissage des modèles.
Cet article présente les résultats d’un projet empirique original visant à faire émerger ce domaine négligé. Le projet suit et catégorise les litiges impliquant des technologies d’IA à travers différentes juridictions, mettant en lumière les manières dont les corps judiciaires et administratifs fonctionnent en tant qu’acteurs normatifs dans la gouvernance de l’IA.
Les Données de l’Étude
La version actuelle du jeu de données comprend 500 cas provenant de 39 pays et juridictions, englobant à la fois des décisions judiciaires et des rulings administratifs. Ces cas sont tirés d’un large éventail de domaines juridiques et impliquent des acteurs allant de particuliers et entreprises à des agences gouvernementales et des plateformes transnationales. Pour être inclus dans le jeu de données, un cas doit impliquer une utilisation directe ou matériellement significative de l’IA, plutôt qu’une simple mention.
Catégories de Litiges
À travers les 500 cas analysés, trois catégories de problèmes concentrent à elles seules 39,4 % de tous les litiges : les cas concernant la profession juridique (92 cas), la propriété intellectuelle (56 cas), et l’utilisation administrative de l’IA (49 cas). Ces catégories ne sont pas seulement quantitativement dominantes ; elles représentent également les points de friction les plus visibles entre les systèmes d’IA et les cadres juridiques qui cherchent à les gouverner.
La croissance des litiges dans la catégorie de la profession juridique est particulièrement frappante. De seulement trois cas enregistrés en 2021, le nombre a grimpé à 32 en 2024, avec encore 28 déjà documentés au début de 2025. Ces cas impliquent à la fois l’utilisation de l’IA par les acteurs juridiques et sa citation dans le raisonnement judiciaire. Un exemple clair est l’affaire Ross v. États-Unis (2025), dans laquelle la Cour d’appel de Washington DC a cité ChatGPT d’OpenAI dans les opinions majoritaires et dissidentes pour aider à interpréter la notion de « connaissance commune » dans une affaire de cruauté envers les animaux.
Disputes de Propriété Intellectuelle
Les litiges en matière de propriété intellectuelle ont également explosé. Passant de moins de cinq cas par an avant 2022, le problème a atteint un pic de 27 cas en 2024, principalement lié à la montée de l’IA générative. Ces litiges impliquent souvent des réclamations selon lesquelles des données d’apprentissage ont été extraites sans autorisation, enfreignant les droits d’auteur ou les droits moraux. Dans l’affaire Getty Images v. Stability AI, actuellement en cours dans plusieurs juridictions, les plaignants soutiennent que l’utilisation de millions d’images protégées par des droits d’auteur dans l’apprentissage des modèles viole la loi sur la propriété intellectuelle.
Utilisation Administrative de l’IA
L’utilisation administrative de l’IA représente une zone de litige plus ancienne mais tout aussi importante. Les cas dans cette catégorie remontent à 2014, mais ont vu une augmentation significative entre 2019 et 2023, atteignant un pic de 13 cas en 2023. Ces questions concernent souvent l’automatisation des services publics, tels que l’immigration, les avantages ou l’application réglementaire. Dans l’affaire Haghshenas v. Canada (2023), le plaignant a contesté un refus de visa influencé par l’outil Chinook utilisé pour rationaliser le traitement des demandes d’immigration.
Conclusion
Ces tendances révèlent non seulement où les litiges se produisent, mais aussi comment les systèmes judiciaires sont entraînés dans les premières lignes de la gouvernance de l’IA. Dans chacune des trois catégories principales, les tribunaux ne réagissent pas simplement aux préjudices ; ils construisent de nouvelles limites juridiques pour les technologies émergentes, définissant ce qui compte comme un processus équitable ou une innovation légale dans des contextes où les orientations juridiques antérieures sont souvent ambiguës ou inexistantes. Si nous voulons gouverner l’IA d’une manière qui reflète les réalités sociales plutôt que des principes abstraits, nous ne pouvons pas nous permettre de traiter la salle d’audience comme une note de bas de page. Le droit parle déjà. La tâche maintenant est d’écouter attentivement et de veiller à ce que ses jugements fassent partie de la conversation que nous construisons sur l’avenir de la technologie et de la démocratie.