Risques juridiques croissants liés à l’intelligence artificielle

A magnifying glass

Intelligence Artificielle : Risque Croissant de Litiges

Les entreprises intègrent de plus en plus l’intelligence artificielle (IA) dans leurs pratiques de travail. Selon un rapport récent de McKinsey, 65% des répondants à leur enquête « État de l’IA » utilisent désormais régulièrement l’IA générative dans leurs organisations, doublant presque le pourcentage de l’année précédente. Étant donné la rapidité avec laquelle l’IA évolue, les législateurs du monde entier s’efforcent de rattraper leur retard.

La Loi sur l’IA de l’UE est entrée en vigueur en août, et au Royaume-Uni, un projet de loi sur l’intelligence artificielle est attendu. L’UE a également pris des mesures pour faciliter la possibilité pour les consommateurs d’intenter des actions en justice contre les entreprises, notamment en cas de dommages causés par l’IA, en introduisant la Révision de la Directive sur la Responsabilité des Produits qui doit devenir loi dans les États membres d’ici décembre 2026. Cette directive inclut un renversement de la charge de la preuve dans certaines circonstances, plaçant la charge sur le défendeur pour prouver que le produit concerné (y compris l’IA) n’était pas défectueux.

Croissance Exponentielle des Litiges en IA

Cependant, pour beaucoup, l’IA reste un « black box » – savons-nous vraiment à quel point elle est puissante ? Que sait ou que fait réellement le modèle d’IA ? Pourrait-il être sujet à des hallucinations ou à des biais ? Avec l’utilisation croissante de l’IA, sa complexité croissante et la législation accrue, il existe un potentiel clair pour une croissance exponentielle des litiges liés à la fabrication et à l’utilisation de l’IA.

À ce jour, les litiges en matière d’IA se sont principalement concentrés sur le développement de l’IA, y compris un certain nombre de réclamations déposées contre les fabricants pour violations alléguées des droits de propriété intellectuelle. Cependant, à mesure que les entreprises intègrent de plus en plus l’IA dans leurs pratiques de travail, des réclamations liées à son utilisation ont également été soulevées en vertu du droit des contrats et du droit délictuelle.

Dans l’affaire Leeway Services Ltd contre Amazon, Leeway Services a allégué que l’utilisation des systèmes d’IA par Amazon avait entraîné sa suspension injustifiée de la vente sur le marché en ligne d’Amazon. Dans l’affaire Tyndaris SAM contre MMWWVWM Limited, VWM a soutenu que Tyndaris avait déformé les capacités d’un système alimenté par l’IA. Bien que ces affaires n’aient pas atteint le procès, dans un jugement canadien récent, Moffat contre Air Canada, Air Canada a été reconnu coupable de ne pas avoir pris les mesures raisonnables pour garantir l’exactitude des réponses fournies aux clients par son chatbot.

Les Régulateurs Prennent Note

Les régulateurs sont également de plus en plus actifs en matière d’IA. Par exemple, au Royaume-Uni, le Bureau du Commissaire à l’Information a publié une approche stratégique sur l’IA, et la Financial Conduct Authority cherche à mieux comprendre les risques et les opportunités que l’IA présente pour le secteur des services financiers. Nous pourrions également être au début d’une période de concentration réglementaire accrue sur la question de savoir si les entreprises ont fait des déclarations publiques fausses ou trompeuses concernant leur utilisation de l’IA, la Securities and Exchange Commission (SEC) des États-Unis ayant annoncé en mars 2024 qu’elle avait conclu des règlements avec deux conseillers en investissement concernant le terme « AI washing ». Avec une plus grande concentration réglementaire, les chances de réclamations privées émanant de décisions réglementaires défavorables augmentent.

Risques de Réclamations Collectives

Les litiges de groupe, en particulier, représentent un domaine clé de risque tant pour les fabricants d’IA que pour les entreprises qui en dépendent. Étant donné les caractéristiques de l’IA, il est facile de voir comment une réclamation de groupe pourrait surgir – par exemple, compte tenu de la rapidité avec laquelle l’IA fonctionne, une erreur pourrait toucher un large groupe de personnes avant même qu’elle ne soit repérée. Bien que la perte alléguée subie par chaque demandeur individuel puisse être faible, le préjudice agrégé à travers le groupe pourrait potentiellement être très important.

La décision de la Cour suprême anglaise de 2021 dans l’affaire Lloyd contre Google a peut-être donné un certain réconfort aux entreprises, indiquant que l’Angleterre est une juridiction où il est difficile de poursuivre des réclamations de groupe. Cependant, il existe plusieurs façons dont de telles réclamations peuvent être structurées devant les tribunaux anglais.

Quelle que soit la voie adoptée, il semble que ce ne soit qu’une question de temps avant qu’une réclamation de groupe liée au développement ou à l’utilisation de l’IA ne soit déposée devant les tribunaux anglais.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...