Les attaques n’ont pas tué la règle sur l’IA du pouvoir judiciaire, elles peuvent même la renforcer
Les conseillers du pouvoir judiciaire fédéral ont rencontré jeudi la plus forte opposition à ce jour dans leur campagne pour assurer la fiabilité des preuves utilisant l’intelligence artificielle (IA), mais les critiques se sont révélées constructives, augmentant possiblement les chances d’une addition à l’ère numérique aux règles judiciaires américaines.
Proposition de modification de règle
Une proposition d’amendement à la règle qui exigerait des avocats qu’ils certifient que le contenu généré par l’IA dans leurs dépôts judiciaires est exact a survécu à un vote en comité mardi, malgré des heures de débat et plus d’une douzaine de commentaires publics plaidant pour des changements significatifs.
Par exemple, la règle 26 exige que les avocats « certifient que le dépôt est substantiellement vrai et exact » ou « est substantiellement vrai et exact au meilleur de la connaissance, des informations et de la croyance du signataire. »
Débats et opinions
Les membres du Comité Consultatif sur les Règles de Preuve ont entendu plusieurs avocats et universitaires qui ont plaidé pour que le comité exige que les avocats « affirment » ou « attestent » à l’exactitude du contenu généré par l’IA dans leurs dépôts judiciaires, plutôt que d’utiliser le langage plus souple de « certifier ».
Certains commentateurs ont également suggéré que les avocats devraient indiquer dans leurs dépôts quand l’IA a été utilisée pour générer du contenu, tandis que d’autres ont proposé que le comité devrait différer l’amendement jusqu’à ce que la technologie de l’IA devienne plus standardisée. Cependant, le comité a décidé d’avancer avec son langage proposé, bien que quelques modifications aient été apportées.
Équilibre entre innovation et intégrité
Cette opposition, provenant de diverses associations professionnelles, d’avocats en exercice et de chercheurs, a semblé constructive, augmentant possiblement les chances d’une addition à l’ère numérique aux règles judiciaires américaines dans les années à venir.
Un avocat a déclaré que le comité semble signaler qu’il reconnaît les défis associés à l’IA dans les litiges, tout en étant prêt à s’engager dans une recherche d’un équilibre.
De nombreux commentateurs ont exprimé des préoccupations selon lesquelles la proposition de règle 26 ne traiterait pas suffisamment les risques de désinformation générée par l’IA.
Prochaines étapes
Le comité a également examiné une proposition de modification de la règle 702 des Règles Fédérales de Preuve, qui régit l’admissibilité des témoignages d’experts. L’amendement proposé clarifierait que la règle s’applique aux témoignages basés sur des preuves générées par l’IA, mais ne nécessiterait pas des avocats de certifier l’exactitude de ces preuves.
Cependant, le comité s’attend à poursuivre les discussions sur cette proposition, et il pourrait s’écouler plusieurs mois avant que des décisions finales soient prises.
En conclusion, le comité a reconnu les défis liés à l’utilisation de l’IA dans le processus judiciaire et a décidé d’avancer avec un langage qui tente d’équilibrer l’innovation et l’intégrité du processus judiciaire. L’amendement de règle devrait être présenté à la Cour Suprême des États-Unis au printemps.