Qatar introduit de nouvelles règles d’utilisation de l’IA pour les tribunaux
Les avocats au Qatar ont été avertis de vérifier leurs sources lorsqu’ils utilisent l’intelligence artificielle dans la préparation des affaires, après qu’un avocat a été reconnu coupable d’outrage pour avoir cité des références créées par l’IA.
Le Centre international des tribunaux et de résolution des litiges (QICDRC) a émis une nouvelle directive procédurale applicable à tous les plaideurs et représentants se présentant devant les tribunaux du pays depuis le début de cette année.
Contexte de la directive
Cette directive fait suite à un incident où un avocat basé à Dubaï a cité plusieurs affaires inexistantes dans le cadre d’une réclamation d’emploi. Ces affaires ont été découvertes comme étant inventées par des outils d’IA utilisés pour préparer les documents, marquant le premier cas de ce type devant le tribunal.
L’avocat a été reconnu coupable d’outrage au tribunal et de violation de l’article 35.2 du Centre financier du Qatar pour avoir cité des affaires fictives, mais son identité a été protégée afin d’éviter une « peine disproportionnée » pour son erreur. Cependant, le tribunal a averti qu’il ne protégerait pas l’anonymat lors d’incidents similaires à l’avenir.
Exigences pour les représentants légaux
Le Centre a précisé les attentes concernant les représentants légaux en matière de vérification de tout contenu généré par des outils d’IA. Bien que l’utilisation de l’intelligence artificielle soit encouragée en raison de son « potentiel à réduire les coûts et à promouvoir une plus grande efficacité », ceux qui se présentent devant le tribunal ont la responsabilité d’assurer l’exactitude des informations présentées.
La directive stipule qu’une déclaration préalable de l’utilisation de l’IA n’est pas nécessaire, sauf si le tribunal en fait expressément la demande. Toutefois, la divulgation peut être requise auprès des autres parties pour des raisons d’équité et de bonne foi.
Les documents contenant du contenu généré par l’IA doivent être clairement identifiables, et les représentants doivent être capables d’expliquer comment la sortie a été vérifiée, un affidavit pouvant être demandé. De plus, toute preuve vidéo ou audio utilisant l’IA doit être déclarée au tribunal, sous peine d’exclusion.
Enfin, il est rappelé que les représentants ne doivent pas se fier exclusivement à l’IA pour préparer leurs documents, et que les informations confidentielles ou privilégiées ne doivent pas être introduites dans un outil d’IA, sauf si la confidentialité et la sécurité sont garanties.