Risques juridiques croissants liés à l’intelligence artificielle

A magnifying glass

Intelligence Artificielle : Risque Croissant de Litiges

Les entreprises intègrent de plus en plus l’intelligence artificielle (IA) dans leurs pratiques de travail. Selon un rapport récent de McKinsey, 65% des répondants à leur enquête « État de l’IA » utilisent désormais régulièrement l’IA générative dans leurs organisations, doublant presque le pourcentage de l’année précédente. Étant donné la rapidité avec laquelle l’IA évolue, les législateurs du monde entier s’efforcent de rattraper leur retard.

La Loi sur l’IA de l’UE est entrée en vigueur en août, et au Royaume-Uni, un projet de loi sur l’intelligence artificielle est attendu. L’UE a également pris des mesures pour faciliter la possibilité pour les consommateurs d’intenter des actions en justice contre les entreprises, notamment en cas de dommages causés par l’IA, en introduisant la Révision de la Directive sur la Responsabilité des Produits qui doit devenir loi dans les États membres d’ici décembre 2026. Cette directive inclut un renversement de la charge de la preuve dans certaines circonstances, plaçant la charge sur le défendeur pour prouver que le produit concerné (y compris l’IA) n’était pas défectueux.

Croissance Exponentielle des Litiges en IA

Cependant, pour beaucoup, l’IA reste un « black box » – savons-nous vraiment à quel point elle est puissante ? Que sait ou que fait réellement le modèle d’IA ? Pourrait-il être sujet à des hallucinations ou à des biais ? Avec l’utilisation croissante de l’IA, sa complexité croissante et la législation accrue, il existe un potentiel clair pour une croissance exponentielle des litiges liés à la fabrication et à l’utilisation de l’IA.

À ce jour, les litiges en matière d’IA se sont principalement concentrés sur le développement de l’IA, y compris un certain nombre de réclamations déposées contre les fabricants pour violations alléguées des droits de propriété intellectuelle. Cependant, à mesure que les entreprises intègrent de plus en plus l’IA dans leurs pratiques de travail, des réclamations liées à son utilisation ont également été soulevées en vertu du droit des contrats et du droit délictuelle.

Dans l’affaire Leeway Services Ltd contre Amazon, Leeway Services a allégué que l’utilisation des systèmes d’IA par Amazon avait entraîné sa suspension injustifiée de la vente sur le marché en ligne d’Amazon. Dans l’affaire Tyndaris SAM contre MMWWVWM Limited, VWM a soutenu que Tyndaris avait déformé les capacités d’un système alimenté par l’IA. Bien que ces affaires n’aient pas atteint le procès, dans un jugement canadien récent, Moffat contre Air Canada, Air Canada a été reconnu coupable de ne pas avoir pris les mesures raisonnables pour garantir l’exactitude des réponses fournies aux clients par son chatbot.

Les Régulateurs Prennent Note

Les régulateurs sont également de plus en plus actifs en matière d’IA. Par exemple, au Royaume-Uni, le Bureau du Commissaire à l’Information a publié une approche stratégique sur l’IA, et la Financial Conduct Authority cherche à mieux comprendre les risques et les opportunités que l’IA présente pour le secteur des services financiers. Nous pourrions également être au début d’une période de concentration réglementaire accrue sur la question de savoir si les entreprises ont fait des déclarations publiques fausses ou trompeuses concernant leur utilisation de l’IA, la Securities and Exchange Commission (SEC) des États-Unis ayant annoncé en mars 2024 qu’elle avait conclu des règlements avec deux conseillers en investissement concernant le terme « AI washing ». Avec une plus grande concentration réglementaire, les chances de réclamations privées émanant de décisions réglementaires défavorables augmentent.

Risques de Réclamations Collectives

Les litiges de groupe, en particulier, représentent un domaine clé de risque tant pour les fabricants d’IA que pour les entreprises qui en dépendent. Étant donné les caractéristiques de l’IA, il est facile de voir comment une réclamation de groupe pourrait surgir – par exemple, compte tenu de la rapidité avec laquelle l’IA fonctionne, une erreur pourrait toucher un large groupe de personnes avant même qu’elle ne soit repérée. Bien que la perte alléguée subie par chaque demandeur individuel puisse être faible, le préjudice agrégé à travers le groupe pourrait potentiellement être très important.

La décision de la Cour suprême anglaise de 2021 dans l’affaire Lloyd contre Google a peut-être donné un certain réconfort aux entreprises, indiquant que l’Angleterre est une juridiction où il est difficile de poursuivre des réclamations de groupe. Cependant, il existe plusieurs façons dont de telles réclamations peuvent être structurées devant les tribunaux anglais.

Quelle que soit la voie adoptée, il semble que ce ne soit qu’une question de temps avant qu’une réclamation de groupe liée au développement ou à l’utilisation de l’IA ne soit déposée devant les tribunaux anglais.

Articles

Impact de la loi européenne sur l’IA sur la gouvernance des entreprises

Ce projet de recherche examine comment la Loi sur l'intelligence artificielle de l'UE catalyse une transformation systémique dans les cadres de gouvernance et de responsabilité des entreprises. Il met...

Réveil Cybernétique : L’Impact de l’IA sur la Sécurité

Les organisations doivent prendre en compte que l'IA transforme rapidement le paysage des menaces en cybersécurité, tout en offrant des opportunités pour améliorer la détection et la réponse...

Vers une législation éclairée sur l’IA en Thaïlande

M. Sak déclare que la législation à venir vise à protéger les utilisateurs des risques potentiels liés à l'IA et à supprimer les obstacles juridiques que les lois existantes ne peuvent pas traiter. La...

Texas renforce la gouvernance de l’IA avec des lois ciblées pour le secteur de la santé

Le Texas a franchi une étape importante dans la réglementation de l'intelligence artificielle (IA) avec l'adoption de la Loi sur la gouvernance responsable de l'IA (TRAIGA), qui établit un cadre pour...

Révolutionner la gouvernance de l’IA pour un avenir responsable

Riskonnect a annoncé le lancement de sa nouvelle solution de gouvernance de l'IA, permettant aux organisations de gérer les risques et les obligations de conformité des technologies d'IA de manière...

L’Alignement de l’IA : Vers une Gouvernance Éthique

Gillian K. Hadfield a été nommée professeure distinguée Bloomberg en alignement et gouvernance de l'IA à l'Université Johns Hopkins. Elle se concentre sur la manière dont les systèmes d'IA peuvent...

Les dangers cachés du porno par échange de visages

La technologie de remplacement de visage, alimentée par l'IA, permet aux utilisateurs de remplacer le visage d'une personne dans une vidéo de manière très réaliste. Cependant, son utilisation abusive...

L’Illusion Bruxelloise : L’Acte sur l’IA de l’UE et son Impact International

L'Acte sur l'IA de l'UE projette un modèle réglementaire qui, bien qu'influant sur d'autres juridictions, révèle un mirage en raison des valeurs légales et culturelles distinctes qui façonnent la...

L’Illusion Bruxelloise : L’Acte sur l’IA de l’UE et son Impact International

L'Acte sur l'IA de l'UE projette un modèle réglementaire qui, bien qu'influant sur d'autres juridictions, révèle un mirage en raison des valeurs légales et culturelles distinctes qui façonnent la...