Les Risques des Hallucinations et de l’Usage Abusif de l’Intelligence Artificielle Générative devant les Cours Françaises
Les cours françaises commencent à être confrontées aux hallucinations créées par l’intelligence artificielle (IA), qui se manifestent par des références juridiques erronées produites dans les plaidoiries des parties, ou par un usage abusif de l’IA pour leurs revendications. Bien qu’aucune sanction n’ait encore été imposée en France, à la différence de nombreux jugements rendus aux États-Unis, l’utilisation irresponsable ou déraisonnable de l’IA peut néanmoins avoir des conséquences significatives pour les avocats et leurs clients.
Dans un contexte où l’utilisation et les fonctionnalités de l’IA évoluent constamment, la transformation résultant de ces avancées technologiques est particulièrement visible parmi les acteurs du système juridique. De nombreux outils juridiques basés sur l’IA sont désormais conçus pour rédiger des documents contractuels ou procéduraux, analyser et résumer des documents, et rechercher de la jurisprudence. En 2026, une enquête menée auprès de professionnels du droit a révélé que plus de 90 % d’entre eux utilisent au moins un outil d’IA dans le cadre de leurs activités.
Les Références Juridiques Inexactes ou Inexistantes Inventées par l’IA
L’émergence d’une telle jurisprudence découle du désir clair des juges d’avertir contre l’utilisation de références juridiques inexactes ou inexistantes dans les soumissions des parties. Cela peut inclure plusieurs cas :
- Où aucune jurisprudence n’existe avec le numéro de référence indiqué.
- Où le jugement n’a pas été rendu à la date indiquée.
- Où le champ de la jurisprudence n’est pas lié à l’argument pour lequel elle est invoquée.
Dans ce contexte, le juge peut s’adresser à la partie concernée et/ou à son avocat, les invitant à « vérifier à l’avenir que les références trouvées sur les moteurs de recherche ou l’intelligence artificielle ne sont pas des ‘hallucinations' ».
Documents Rédigés par un Outil d’IA Générative
Les tribunaux sont également confrontés à des requêtes et soumissions rédigées par des outils d’IA générative. Les tribunaux administratifs ont été les premiers à être touchés par ce phénomène, car la représentation par un avocat n’est pas toujours obligatoire devant ces tribunaux, et les demandeurs sont parfois inconscients des risques inhérents à ces outils.
Cependant, les juges semblent parfois moins stricts avec les demandeurs non représentés qui abusent de l’IA, car ils n’ont pas de professionnel du droit capable de vérifier le contenu juridique des documents produits. À cet égard, un tribunal a noté un « manque de clarté [dans les soumissions de la motion], probablement résultant du fait qu’elle a été clairement rédigée à l’aide d’un outil d’intelligence artificielle, totalement inapproprié à cet effet. »
Les Conséquences de l’Utilisation de l’IA Générative sur le Raisonnement du Tribunal
L’utilisation d’un outil d’IA générative n’est pas en soi punissable, car il n’existe aucune règle de droit interdisant l’utilisation de tels outils pour soutenir des arguments juridiques. Cependant, les hallucinations de l’IA peuvent amener les demandeurs à présenter des arguments erronés ou infondés, qui seront donc rejetés par le juge.
Il est impératif qu’un être humain, et en particulier un professionnel du droit, vérifie les raisonnements juridiques générés par l’IA afin de prévenir des erreurs de fait ou de droit dans l’argumentation des demandeurs.
Preuves Générées par l’IA Générative
Bien que la jurisprudence française n’ait pas encore traité des cas de fausses preuves générées par l’IA, le risque augmente à mesure que les outils d’IA générative deviennent plus sophistiqués. Les conséquences deviennent beaucoup plus graves lorsque les preuves elles-mêmes sont générées par l’IA, car cela peut entraîner une condamnation criminelle pour faux et tentative de fraude.
Sanctions Incurues par les Avocats
À ce jour, les tribunaux français n’ont pas encore imposé de sanctions aux avocats qui se sont appuyés sur des hallucinations de l’IA dans leurs arguments, mais leur ont simplement demandé de vérifier les références citées dans leurs soumissions. Les avocats restent cependant soumis aux règlements nationaux de leur profession, qui impliquent des devoirs de compétence, de diligence et de prudence.
Il est donc essentiel que les avocats utilisant des systèmes d’IA vérifient la fiabilité des résultats obtenus afin d’éviter toute responsabilité. L’utilisation d’outils d’IA doit toujours être accompagnée d’une vérification humaine pour s’assurer de la validité des informations et des arguments présentés.