Q&R : Comment se préparer aux enquêtes alimentées par l’IA tout en gérant les risques liés à l’IA
Le message du département de la Justice est clair : l’IA peut être un outil de conformité ou une responsabilité criminelle, selon son déploiement et sa gouvernance.
Les procureurs fédéraux disposent désormais de capacités d’IA qui peuvent isoler des modèles de facturation suspects, tracer des flux de cryptomonnaie et signaler des anomalies dans des millions de transactions, changeant fondamentalement le calcul de détection des fautes d’entreprise. Alors que le département de la Justice utilise l’IA pour renforcer son champ d’application, il demande aux entreprises de respecter des normes strictes sur la manière dont elles gèrent l’IA dans leurs propres opérations, y compris des accusations portées contre un dirigeant pour des allégations de fausses déclarations concernant l’IA et un accord de non-poursuite avec une entreprise de santé pour fraude liée à l’IA. Le mémo du DOJ de mai 2025 sur les priorités en matière d’application du droit des cols blancs a souligné que les procureurs évalueront si les programmes de conformité des entreprises atténuent suffisamment les risques spécifiques liés à l’IA.
Comprendre les capacités d’enquête de l’IA
Le rapport de décembre 2024 du DOJ confirme la valeur de l’IA pour ses enquêtes, y compris les enquêtes criminelles en col blanc. Le département est transparent sur ses cas d’utilisation de l’IA et fournit un fichier d’inventaire sur son site Web. Ce fichier comprend des cas d’utilisation de l’IA qui améliorent leurs enquêtes criminelles en col blanc, tels que :
- Détection d’anomalies dans les transactions financières assistée par IA pour les paiements transfrontaliers et les virements bancaires.
- Traçage de cryptomonnaie et évaluation des risques pour identifier les transactions suspectes.
- Analyse des réseaux financiers et cryptographiques pour blanchiment d’argent et détection de fraude.
- Détection d’anomalies dans les modèles de voyage.
- Transcription audio et vidéo.
- Triage et priorisation des demandes d’entrée en appliquant des modèles de notation pour identifier les conseils ou enquêtes à haute priorité.
- Capacités de résumé pour cartographier les données existantes à partir de diverses sources.
Risques et implications
La reconnaissance par le DOJ des risques liés aux erreurs, aux biais et à la vie privée de l’IA met les entreprises en garde. Cela signifie que le DOJ pourrait s’interroger sur ces types de risques lors de l’examen d’un programme de conformité d’entreprise. Il est essentiel que les entreprises documentent la manière dont elles identifient et atténuent ces risques.
L’utilisation par le DOJ de l’IA pour l’identification et la surveillance augmentera probablement le nombre de demandes d’enquête. Les outils d’IA faciliteront l’identification des entreprises à enquêter, entraînant ainsi un nombre accru d’enquêtes gouvernementales.
Coordination des équipes
Il est crucial que les départements juridiques et de conformité collaborent avec les équipes IT pour comprendre les outils disponibles pour améliorer les programmes de conformité. Certaines entreprises choisissent d’avoir des plateformes d’IA distinctes pour les affaires et les départements juridiques et de conformité, tandis que d’autres se concentrent sur des outils d’examen d’IA pour des finalités de découverte électronique.
Utilisation de l’IA dans les enquêtes internes
Des outils d’IA sont utilisés pour diverses tâches, notamment le résumé des preuves, la préparation des questions d’entretien et la génération de traductions de haut niveau.
Conclusion
Les entreprises doivent évaluer la crédibilité des plaintes de lanceurs d’alerte qui semblent être assistées par l’IA. Il est important d’isoler le problème central que le lanceur d’alerte cherche à soulever et de suivre les procédures d’enquête ordinaires. Les entreprises peuvent également utiliser l’IA pour résumer chaque plainte afin d’identifier les problèmes clés à enquêter.