Apprentissage des règles de fraude par un réseau de neurones

A glass maze filled with shifting, luminescent pathways that adapt and change in real-time

Comment un réseau de neurones a appris ses propres règles de fraude : une expérience en IA neuro-symbolique

La plupart des systèmes neuro-symboliques intègrent des règles écrites par des humains. Mais que se passerait-il si un réseau de neurones pouvait découvrir ces règles lui-même ?

Dans cette expérience, un réseau de neurones hybride a été étendu avec un module d’apprentissage de règles différentiable qui extrait automatiquement des règles de fraude du type SI-ALORS pendant l’entraînement. En utilisant le jeu de données Kaggle sur la fraude par carte de crédit (taux de fraude de 0,17 %), le modèle a appris des règles interprétables telles que :

SI V14 < −1,5σ ET V4 > +0,5σ → Fraude

où σ désigne l’écart type de la caractéristique après normalisation.

Le module d’apprentissage des règles a obtenu un ROC-AUC de 0,933 ± 0,029, tout en maintenant une fidélité de 99,3 % aux prédictions du réseau de neurones.

Fait intéressant, le modèle a redécouvert de manière indépendante V14 — une caractéristique depuis longtemps connue des analystes pour corréler fortement avec la fraude — sans qu’on lui dise de la rechercher.

Ce que le modèle a découvert

Avant l’architecture, la fonction de perte ou tout détail d’entraînement, voici ce qui est ressorti à la fin. Après jusqu’à 80 époques d’entraînement (avec arrêt précoce, la plupart des graines ont convergé entre les époques 56 et 78), le module d’apprentissage des règles a produit ces résultats dans les deux graines où les règles ont clairement émergé :

Graine 42 — règle la plus claire (5 conditions, conf=0,95)

Règle de fraude apprise — Graine 42 · Les règles n’ont jamais été codées à la main

SI V14 < −1,5σ ET V4 > +0,5σ ET V12 < −0,9σ ET V11 > +0,5σ ET V10 < −0,8σ ALORS FRAUDE

Graine 7 — règle complémentaire (8 conditions, conf=0,74)

Règle de fraude apprise — Graine 7 · Les règles n’ont jamais été codées à la main

SI V14 < −1,6σ ET V12 < −1,3σ ET V4 > +0,3σ ET V11 > +0,5σ ET V10 < −1,0σ ET V3 < −0,8σ ET V17 < −1,5σ ET V16 < −1,0σ ALORS FRAUDE

Dans les deux cas, de faibles valeurs de V14 sont au cœur de la logique — une convergence frappante étant donné qu’aucune orientation préalable n’a été donnée. Le modèle n’a jamais été informé de l’importance d’une caractéristique.

Pourtant, il a redécouvert indépendamment la même caractéristique que les analystes humains ont identifiée depuis des années.

De l’injection de règles à l’apprentissage de règles — Pourquoi cela compte

Tous les modèles de fraude ont une frontière de décision. Cependant, les équipes de fraude opèrent en utilisant des règles. L’écart entre eux, entre ce que le modèle a appris et ce que les analystes peuvent lire, auditer et justifier auprès d’un régulateur — est un domaine critique pour les équipes de conformité.

Dans une précédente expérience, deux règles d’analystes ont été directement codées dans la fonction de perte : si le montant de la transaction est anormalement élevé et si la signature PCA est anormale, traiter l’échantillon comme suspect. Cette approche a fonctionné. Le modèle hybride a égalé la performance de détection du réseau de neurones pur tout en restant interprétable.

Cependant, une limitation évidente a été laissée sans réponse. Ces règles ont été écrites par moi. J’ai choisi ces deux caractéristiques parce qu’elles avaient du sens pour moi. Les règles codées à la main reflètent ce que vous savez déjà, elles sont une bonne solution lorsque les modèles de fraude sont stables et que les connaissances du domaine sont profondes. Elles sont une mauvaise solution lorsque les modèles de fraude évoluent, lorsque les caractéristiques les plus importantes sont anonymisées, ou lorsque vous souhaitez que le modèle fasse émerger des signaux que vous n’avez pas pensé à rechercher.

La question naturelle suivante est : quelles caractéristiques le gradient choisirait-il, s’il avait la liberté de choisir ?

Risques et implications

Ce modèle s’applique au-delà de la fraude. Les systèmes de diagnostic médical ont besoin de règles que les médecins peuvent vérifier avant d’agir. Les modèles de cybersécurité nécessitent des règles que les ingénieurs peuvent auditer. Les systèmes de lutte contre le blanchiment d’argent fonctionnent sous des cadres réglementaires exigeant des décisions explicables. Dans tout domaine combinant des événements rares, une expertise de domaine et des exigences de conformité, la capacité d’extraire des règles audibles de type SI-ALORS d’un réseau de neurones entraîné est directement précieuse.

Conclusion

En résumé, l’apprentissage des règles permet de découvrir des signaux critiques pour le domaine sans indiquer à l’avance ce qu’il faut rechercher. À travers cette expérience, il a été démontré qu’un réseau de neurones peut redécouvrir des caractéristiques essentielles de manière autonome, offrant ainsi une interprétabilité précieuse pour les équipes de conformité. À l’avenir, il sera essentiel de surveiller la vitesse d’annealing et d’auditer les règles apprises après chaque nouvel entraînement.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...