Neuro-symbolische KI: Wie ein neuronales Netzwerk eigene Betrugsregeln entdeckte

Wie ein neuronales Netzwerk seine eigenen Betrugsregeln erlernte: Ein neuro-symbolisches KI-Experiment

Die meisten neuro-symbolischen Systeme integrieren von Menschen geschriebene Regeln. Aber was wäre, wenn ein neuronales Netzwerk diese Regeln selbst entdecken könnte?

In diesem Experiment erweitere ich ein hybrides neuronales Netzwerk um ein differenzierbares Regel-Lernmodul, das während des Trainings automatisch IF-THEN-Betrugsregeln extrahiert. Mit dem Kaggle-Datensatz zu Kreditkartenbetrug (0,17 % Betrugsrate) lernte das Modell interpretierbare Regeln wie:

IF V14 < -1.5σ UND V4 > +0.5σ → Betrug

Hierbei steht σ für die Standardabweichung der Merkmale nach Normalisierung.

Der Regel-Lerner erzielte eine ROC-AUC von 0,933 ± 0,029 und hielt gleichzeitig eine Genauigkeit von 99,3 % in Übereinstimmung mit den Vorhersagen des neuronalen Netzwerks.

Am interessantesten ist, dass das Modell unabhängig V14 rediscovered — ein Merkmal, von dem Analysten lange wussten, dass es stark mit Betrug korreliert — ohne dazu aufgefordert zu werden.

Was das Modell entdeckte

Hier sind die Ergebnisse nach bis zu 80 Epochen des Trainings (mit vorzeitiger Beendigung, wobei die meisten Seeds zwischen den Epochen 56 und 78 konvergierten):

Seed 42 — sauberste Regel (5 Bedingungen, conf=0.95)

Gelernt Betrugsregel — Seed 42: IF V14 < -1.5σ UND V4 > +0.5σ UND V12 < -0.9σ UND V11 > +0.5σ UND V10 < -0.8σ THEN BETRUG

Seed 7 — ergänzende Regel (8 Bedingungen, conf=0.74)

Gelernt Betrugsregel — Seed 7: IF V14 < -1.6σ UND V12 < -1.3σ UND V4 > +0.3σ UND V11 > +0.5σ UND V10 < -1.0σ UND V3 < -0.8σ UND V17 < -1.5σ UND V16 < -1.0σ THEN BETRUG

In beiden Fällen stehen niedrige Werte von V14 im Mittelpunkt der Logik — eine auffällige Konvergenz, gegeben, dass keine vorherige Anleitung gegeben wurde.

Von injizierten zu erlernten Regeln — Warum es wichtig ist

Jedes Betrugsmodell hat eine Entscheidungsgrenze. Betrugsteams arbeiten jedoch mit Regeln. Die Lücke zwischen ihnen, zwischen dem, was das Modell gelernt hat und dem, was Analysten lesen, prüfen und gegenüber einem Regulierer rechtfertigen können — ist der Bereich, in dem Compliance-Teams überleben oder scheitern.

Das Hauptaugenmerk liegt darauf, dass Regeln, die von Menschen kodiert wurden, das widerspiegeln, was bereits bekannt ist. Handcodierte Regeln sind eine gute Lösung, wenn Betrugsmuster stabil sind und das Fachwissen tief ist. Sie sind jedoch eine schlechte Lösung, wenn Betrugsmuster sich ändern, wenn die wichtigsten Merkmale anonymisiert sind oder wenn das Modell Signale hervorbringen soll, die nicht bedacht wurden.

Die Architektur: Drei lernbare Komponenten

Die Architektur hält ein standardmäßiges neuronales Netzwerk intakt, fügt jedoch einen zweiten Pfad hinzu, der symbolische Regeln lernt, die die Entscheidungen des Netzwerks erklären. Die beiden Pfade laufen parallel vom selben Eingang, und ihre Ausgaben werden durch ein lernbares Gewicht α kombiniert.

Die MLP-Path ist identisch zu vorherigen Arbeiten: drei vollständig verbundene Schichten mit Batch-Normalisierung. Der Regel-Pfad ist neu. Alpha ist ein lernbarer Skalar, den das Modell verwendet, um die beiden Pfade zu gewichten. Nach dem Training konvergierte α auf etwa 0,88 im Durchschnitt über alle Seeds.

Ergebnisse: Funktioniert das Regel-Lernen — und was hat es gefunden?

Der Regel-Lerner sitzt leicht unter dem reinen neuronalen Baseline in allen drei Erkennungsmetriken, ungefähr 1,5 F1-Punkte im Durchschnitt. Der Kompromiss ist die Erklärbarkeit. Die Regelqualität wird durch drei Metriken bewertet:

Regel-Fidelität — Kann ich diesem Regelset vertrauen, um die tatsächlichen Entscheidungen des Modells darzustellen?

Regel-Abdeckung — Welcher Anteil des tatsächlichen Betrugs wird von mindestens einer Regel erfasst?

Regel-Simplizität — Wie viele einzigartige Merkmalsbedingungen pro Regel, nach Duplikation?

Die extrahierten Regeln zeigen, dass das Modell selbstständig V14 als wichtiges Signal identifiziert hat, ohne dass es ihm gesagt wurde, wonach es suchen soll.

Fazit

Das Experiment zeigt, dass ein neuronales Netzwerk seine eigenen Betrugsregeln entdecken kann, was die vielversprechende Zukunft der neuro-symbolischen KI verdeutlicht. Die Fähigkeit, auditable IF-THEN-Regeln aus einem trainierten neuronalen Netzwerk zu extrahieren, ist direkt wertvoll in Bereichen, die seltene Ereignisse und Anforderungen an die Compliance kombinieren.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...