AI et privilège légal : Leçons des décisions Heppner et Warner aux États-Unis
Deux décisions récentes des tribunaux fédéraux américains ont donné des résultats remarquablement différents quant à la protection des matériaux générés par des outils d’IA en vertu du privilège ou de la doctrine du travail produit. Les deux affaires impliquaient des individus ou des organisations s’appuyant sur des plateformes d’IA grand public, plutôt que sur des avocats, pour élaborer des stratégies de litige ou préparer des documents juridiques. Ces décisions mettent en lumière un paysage juridique émergent et incertain où les organisations ne peuvent pas supposer que les interactions avec l’IA seront considérées comme confidentielles ou protégées.
Contexte
Heppner : L’utilisation de l’IA crée un risque pour le privilège
Dans l’affaire United States v. Heppner, le juge a statué que les documents générés par un défendeur criminel utilisant l’outil d’IA grand public étaient non protégés par le privilège ou la doctrine du travail produit. Le défendeur, un ancien PDG faisant face à des accusations de fraude, avait utilisé la plateforme d’IA pour organiser des informations et développer des stratégies de défense. La cour a ordonné la divulgation de ces documents, en soulignant que la « nouveauté » de l’IA ne signifie pas que son utilisation échappe aux principes juridiques établis.
Le juge a noté que le privilège avocat-client s’applique aux communications entre un client et son avocat, qui doivent être confidentielles et faites dans le but d’obtenir des conseils juridiques. Les documents générés par l’IA manquaient de ces éléments, en particulier en raison de la politique de confidentialité de la plateforme qui permettait la divulgation des données à des tiers.
La décision Warner : Une approche contrastée
Simultanément à la décision Heppner, un tribunal fédéral du Michigan a pris une conclusion en tension avec celle-ci sur la protection des matériaux générés par l’IA. Dans l’affaire Warner v. Gilbarco, Inc., le tribunal a refusé la demande de production de documents concernant l’utilisation par la plaignante d’outils d’IA tiers, affirmant que la plaignante avait droit à une protection en vertu de la doctrine du travail produit.
La cour a considéré que l’utilisation d’outils d’IA pour préparer des documents juridiques est analogue aux activités protégées par le travail produit. Le tribunal a rejeté l’argument selon lequel l’utilisation de l’IA équivalait à une renonciation à la protection, soulignant que ces outils ne sont que des outils, pas des personnes.
Points clés des deux décisions
Les outils d’IA ne sont pas des avocats. Les deux tribunaux ont convenu que les communications avec des plateformes d’IA ne peuvent établir un privilège avocat-client.
IA grand public et confidentialité. Dans l’affaire Heppner, les plateformes d’IA qui collectent des données détruisent toute attente raisonnable de confidentialité, tandis que dans Warner, l’IA est considérée comme un outil qui ne détruit pas le privilège.
Le privilège ne peut pas être appliqué rétroactivement. Le partage de documents non privilégiés avec un avocat après leur création ne les transforme pas en documents protégés.
Protection du travail produit. Dans l’affaire Heppner, l’absence d’intervention d’un avocat a été fatale à la revendication, tandis que dans Warner, la protection a été étendue aux documents générés par l’IA.
Implications et risques
Les décisions Heppner et Warner révèlent que les tribunaux n’abordent pas uniformément les questions de privilège liées à l’IA. Cette divergence souligne que les organisations doivent adopter une approche prudente vis-à-vis de l’utilisation de l’IA, en supposant que les interactions peuvent être découvrables.
Conclusion
Les décisions américaines offrent des leçons importantes pour les Canadiens naviguant dans le paysage juridique évolutif de l’IA générative. Les organisations canadiennes doivent établir des politiques internes d’IA interdisant l’utilisation d’IA grand public pour des travaux sensibles, fournir des outils de niveau entreprise avec des garanties de confidentialité, et exiger une supervision juridique pour toute tâche liée à l’IA.