Wie ein neuronales Netzwerk seine eigenen Betrugsregeln erlernte: Ein neuro-symbolisches KI-Experiment
Die meisten neuro-symbolischen Systeme integrieren von Menschen geschriebene Regeln. Aber was wäre, wenn ein neuronales Netzwerk diese Regeln selbst entdecken könnte?
In diesem Experiment erweitere ich ein hybrides neuronales Netzwerk um ein differenzierbares Regel-Lernmodul, das während des Trainings automatisch IF-THEN-Betrugsregeln extrahiert. Mit dem Kaggle-Datensatz zu Kreditkartenbetrug (0,17 % Betrugsrate) lernte das Modell interpretierbare Regeln wie:
IF V14 < -1.5σ UND V4 > +0.5σ → Betrug
Hierbei steht σ für die Standardabweichung der Merkmale nach Normalisierung.
Der Regel-Lerner erzielte eine ROC-AUC von 0,933 ± 0,029 und hielt gleichzeitig eine Genauigkeit von 99,3 % in Übereinstimmung mit den Vorhersagen des neuronalen Netzwerks.
Am interessantesten ist, dass das Modell unabhängig V14 rediscovered — ein Merkmal, von dem Analysten lange wussten, dass es stark mit Betrug korreliert — ohne dazu aufgefordert zu werden.
Was das Modell entdeckte
Hier sind die Ergebnisse nach bis zu 80 Epochen des Trainings (mit vorzeitiger Beendigung, wobei die meisten Seeds zwischen den Epochen 56 und 78 konvergierten):
Seed 42 — sauberste Regel (5 Bedingungen, conf=0.95)
Gelernt Betrugsregel — Seed 42: IF V14 < -1.5σ UND V4 > +0.5σ UND V12 < -0.9σ UND V11 > +0.5σ UND V10 < -0.8σ THEN BETRUG
Seed 7 — ergänzende Regel (8 Bedingungen, conf=0.74)
Gelernt Betrugsregel — Seed 7: IF V14 < -1.6σ UND V12 < -1.3σ UND V4 > +0.3σ UND V11 > +0.5σ UND V10 < -1.0σ UND V3 < -0.8σ UND V17 < -1.5σ UND V16 < -1.0σ THEN BETRUG
In beiden Fällen stehen niedrige Werte von V14 im Mittelpunkt der Logik — eine auffällige Konvergenz, gegeben, dass keine vorherige Anleitung gegeben wurde.
Von injizierten zu erlernten Regeln — Warum es wichtig ist
Jedes Betrugsmodell hat eine Entscheidungsgrenze. Betrugsteams arbeiten jedoch mit Regeln. Die Lücke zwischen ihnen, zwischen dem, was das Modell gelernt hat und dem, was Analysten lesen, prüfen und gegenüber einem Regulierer rechtfertigen können — ist der Bereich, in dem Compliance-Teams überleben oder scheitern.
Das Hauptaugenmerk liegt darauf, dass Regeln, die von Menschen kodiert wurden, das widerspiegeln, was bereits bekannt ist. Handcodierte Regeln sind eine gute Lösung, wenn Betrugsmuster stabil sind und das Fachwissen tief ist. Sie sind jedoch eine schlechte Lösung, wenn Betrugsmuster sich ändern, wenn die wichtigsten Merkmale anonymisiert sind oder wenn das Modell Signale hervorbringen soll, die nicht bedacht wurden.
Die Architektur: Drei lernbare Komponenten
Die Architektur hält ein standardmäßiges neuronales Netzwerk intakt, fügt jedoch einen zweiten Pfad hinzu, der symbolische Regeln lernt, die die Entscheidungen des Netzwerks erklären. Die beiden Pfade laufen parallel vom selben Eingang, und ihre Ausgaben werden durch ein lernbares Gewicht α kombiniert.
Die MLP-Path ist identisch zu vorherigen Arbeiten: drei vollständig verbundene Schichten mit Batch-Normalisierung. Der Regel-Pfad ist neu. Alpha ist ein lernbarer Skalar, den das Modell verwendet, um die beiden Pfade zu gewichten. Nach dem Training konvergierte α auf etwa 0,88 im Durchschnitt über alle Seeds.
Ergebnisse: Funktioniert das Regel-Lernen — und was hat es gefunden?
Der Regel-Lerner sitzt leicht unter dem reinen neuronalen Baseline in allen drei Erkennungsmetriken, ungefähr 1,5 F1-Punkte im Durchschnitt. Der Kompromiss ist die Erklärbarkeit. Die Regelqualität wird durch drei Metriken bewertet:
Regel-Fidelität — Kann ich diesem Regelset vertrauen, um die tatsächlichen Entscheidungen des Modells darzustellen?
Regel-Abdeckung — Welcher Anteil des tatsächlichen Betrugs wird von mindestens einer Regel erfasst?
Regel-Simplizität — Wie viele einzigartige Merkmalsbedingungen pro Regel, nach Duplikation?
Die extrahierten Regeln zeigen, dass das Modell selbstständig V14 als wichtiges Signal identifiziert hat, ohne dass es ihm gesagt wurde, wonach es suchen soll.
Fazit
Das Experiment zeigt, dass ein neuronales Netzwerk seine eigenen Betrugsregeln entdecken kann, was die vielversprechende Zukunft der neuro-symbolischen KI verdeutlicht. Die Fähigkeit, auditable IF-THEN-Regeln aus einem trainierten neuronalen Netzwerk zu extrahieren, ist direkt wertvoll in Bereichen, die seltene Ereignisse und Anforderungen an die Compliance kombinieren.