Intelligence Artificielle : Risque Croissant de Litiges
Les entreprises intègrent de plus en plus l’intelligence artificielle (IA) dans leurs pratiques de travail. Selon un rapport récent de McKinsey, 65% des répondants à leur enquête « État de l’IA » utilisent désormais régulièrement l’IA générative dans leurs organisations, doublant presque le pourcentage de l’année précédente. Étant donné la rapidité avec laquelle l’IA évolue, les législateurs du monde entier s’efforcent de rattraper leur retard.
La Loi sur l’IA de l’UE est entrée en vigueur en août, et au Royaume-Uni, un projet de loi sur l’intelligence artificielle est attendu. L’UE a également pris des mesures pour faciliter la possibilité pour les consommateurs d’intenter des actions en justice contre les entreprises, notamment en cas de dommages causés par l’IA, en introduisant la Révision de la Directive sur la Responsabilité des Produits qui doit devenir loi dans les États membres d’ici décembre 2026. Cette directive inclut un renversement de la charge de la preuve dans certaines circonstances, plaçant la charge sur le défendeur pour prouver que le produit concerné (y compris l’IA) n’était pas défectueux.
Croissance Exponentielle des Litiges en IA
Cependant, pour beaucoup, l’IA reste un « black box » – savons-nous vraiment à quel point elle est puissante ? Que sait ou que fait réellement le modèle d’IA ? Pourrait-il être sujet à des hallucinations ou à des biais ? Avec l’utilisation croissante de l’IA, sa complexité croissante et la législation accrue, il existe un potentiel clair pour une croissance exponentielle des litiges liés à la fabrication et à l’utilisation de l’IA.
À ce jour, les litiges en matière d’IA se sont principalement concentrés sur le développement de l’IA, y compris un certain nombre de réclamations déposées contre les fabricants pour violations alléguées des droits de propriété intellectuelle. Cependant, à mesure que les entreprises intègrent de plus en plus l’IA dans leurs pratiques de travail, des réclamations liées à son utilisation ont également été soulevées en vertu du droit des contrats et du droit délictuelle.
Dans l’affaire Leeway Services Ltd contre Amazon, Leeway Services a allégué que l’utilisation des systèmes d’IA par Amazon avait entraîné sa suspension injustifiée de la vente sur le marché en ligne d’Amazon. Dans l’affaire Tyndaris SAM contre MMWWVWM Limited, VWM a soutenu que Tyndaris avait déformé les capacités d’un système alimenté par l’IA. Bien que ces affaires n’aient pas atteint le procès, dans un jugement canadien récent, Moffat contre Air Canada, Air Canada a été reconnu coupable de ne pas avoir pris les mesures raisonnables pour garantir l’exactitude des réponses fournies aux clients par son chatbot.
Les Régulateurs Prennent Note
Les régulateurs sont également de plus en plus actifs en matière d’IA. Par exemple, au Royaume-Uni, le Bureau du Commissaire à l’Information a publié une approche stratégique sur l’IA, et la Financial Conduct Authority cherche à mieux comprendre les risques et les opportunités que l’IA présente pour le secteur des services financiers. Nous pourrions également être au début d’une période de concentration réglementaire accrue sur la question de savoir si les entreprises ont fait des déclarations publiques fausses ou trompeuses concernant leur utilisation de l’IA, la Securities and Exchange Commission (SEC) des États-Unis ayant annoncé en mars 2024 qu’elle avait conclu des règlements avec deux conseillers en investissement concernant le terme « AI washing ». Avec une plus grande concentration réglementaire, les chances de réclamations privées émanant de décisions réglementaires défavorables augmentent.
Risques de Réclamations Collectives
Les litiges de groupe, en particulier, représentent un domaine clé de risque tant pour les fabricants d’IA que pour les entreprises qui en dépendent. Étant donné les caractéristiques de l’IA, il est facile de voir comment une réclamation de groupe pourrait surgir – par exemple, compte tenu de la rapidité avec laquelle l’IA fonctionne, une erreur pourrait toucher un large groupe de personnes avant même qu’elle ne soit repérée. Bien que la perte alléguée subie par chaque demandeur individuel puisse être faible, le préjudice agrégé à travers le groupe pourrait potentiellement être très important.
La décision de la Cour suprême anglaise de 2021 dans l’affaire Lloyd contre Google a peut-être donné un certain réconfort aux entreprises, indiquant que l’Angleterre est une juridiction où il est difficile de poursuivre des réclamations de groupe. Cependant, il existe plusieurs façons dont de telles réclamations peuvent être structurées devant les tribunaux anglais.
Quelle que soit la voie adoptée, il semble que ce ne soit qu’une question de temps avant qu’une réclamation de groupe liée au développement ou à l’utilisation de l’IA ne soit déposée devant les tribunaux anglais.