AI, Privilège et Produits de Travail : Des Décisions Fédérales Conflictuelles Créent un Nouveau Risque
Deux récentes décisions de tribunaux fédéraux, émises à une semaine d’intervalle, aboutissent à des conclusions divergentes sur la question de savoir si les matériaux générés à l’aide de plateformes d’intelligence artificielle (IA) sont protégés par le privilège avocat-client ou par la doctrine du produit de travail.
Analyse des Décisions
Dans le cas United States v. Heppner, un juge du tribunal de district a statué que les échanges avec un outil d’IA, utilisé indépendamment par un défendeur pour analyser son exposition et sa stratégie de défense, n’étaient ni privilégiés ni protégés en tant que produit de travail. Le tribunal a conclu que l’outil d’IA n’est pas un avocat, et que la politique de confidentialité de la plateforme, qui permet la collecte de données et la divulgation à des tiers, anéantit toute attente raisonnable de confidentialité.
En revanche, dans Warner v. Gilbarco, un magistrat a refusé la demande des défendeurs d’obliger la production de matériaux assistés par ChatGPT d’un plaignant pro se. Le tribunal a considéré que les plateformes d’IA sont des « outils, pas des personnes » et que la renonciation aux protections des produits de travail nécessite une divulgation à un adversaire, non à un logiciel.
Tensions Essentielles
Les décisions reflètent deux cadres concurrents ayant des conséquences pratiques significatives. Dans Heppner, l’IA est considérée comme un tiers recevant des informations, ce qui implique que les termes de service de la plateforme régissent la confidentialité. En revanche, Warner adopte une approche qui préserve la protection du produit de travail, même sans la direction d’un avocat.
Implications et Risques
Ces décisions soulignent que la loi régissant l’utilisation de l’IA en matière de litige est instable et sensible aux faits. Les avocats, les équipes de conformité et les entreprises doivent faire preuve de prudence dans l’utilisation de l’IA en lien avec les enquêtes et les litiges.
Considérations Clés
1. Considérez les interactions avec l’IA comme potentiellement découvrables. Les entrées et sorties générées par l’IA peuvent être enregistrées sur des serveurs tiers et peuvent être soumises à des demandes de divulgation.
2. Évitez d’entrer des informations privilégiées dans des outils d’IA grand public. Les communications avec des plateformes d’IA publiques ne doivent pas être considérées comme confidentielles.
3. Révisez légalement les conditions des plateformes avant utilisation. Évaluez les politiques de confidentialité et les termes de service des outils d’IA que vous envisagez d’utiliser.
4. Privilégiez des configurations d’IA d’entreprise avec des protections contractuelles plus fortes. Les systèmes d’IA commerciaux fermés sont conçus pour traiter la confidentialité.
5. Utilisez l’IA sous la direction d’un avocat et documentez le flux de travail. La direction d’un avocat peut être cruciale pour assurer la protection des produits de travail.
6. Préservez les arguments de produit de travail distincts du privilège. Même si les communications avec l’IA sont considérées comme non confidentielles, la protection du produit de travail peut encore s’appliquer.
7. Soyez prêt à résister à des demandes de découverte intrusives liées à l’IA. Argumentez que les demandes larges pour les entrées et sorties de l’IA sont disproportionnées et non pertinentes.
8. Établissez une gouvernance inter-départementale. La direction juridique, la conformité, l’informatique et les affaires doivent superviser conjointement les protocoles liés à l’IA.
Conclusion
Les tribunaux tentent activement de comprendre comment les doctrines traditionnelles de privilège s’appliquent à l’IA générative. Les parties doivent structurer leur utilisation de l’IA de manière à préserver les conditions structurelles requises pour le privilège. En attendant des directives plus claires, les litiges concernant l’IA et son utilisation en matière de privilège sont susceptibles d’augmenter.