Cómo una Red Neuronal Aprendió sus Propias Reglas de Fraude: Un Experimento de IA Neuro-Simbólica
Introducción
La mayoría de los sistemas neuro-simbólicos inyectan reglas escritas por humanos. Pero, ¿qué pasaría si una red neuronal pudiera descubrir esas reglas por sí misma?
En este experimento, se extiende una red neuronal híbrida con un módulo de aprendizaje de reglas diferenciable que extrae automáticamente reglas de fraude en formato SI-ENTONCES durante el entrenamiento. En el conjunto de datos de fraude con tarjetas de crédito, el modelo aprendió reglas interpretables como:
SI V14 < −1.5σ Y V4 > +0.5σ → Fraude
donde σ denota la desviación estándar de la característica después de la normalización.
Lo que el Modelo Descubrió
Después de entrenar hasta 80 épocas, el aprendiz de reglas produjo las siguientes reglas en dos semillas donde las reglas emergieron claramente:
Semilla 42 — regla más limpia (5 condiciones, conf=0.95)
Regla de fraude aprendida — Semilla 42:
SI V14 < −1.5σ Y V4 > +0.5σ Y V12 < −0.9σ Y V11 > +0.5σ Y V10 < −0.8σ → FRAUDE
Semilla 7 — regla complementaria (8 condiciones, conf=0.74)
Regla de fraude aprendida — Semilla 7:
SI V14 < −1.6σ Y V12 < −1.3σ Y V4 > +0.3σ Y V11 > +0.5σ Y V10 < −1.0σ Y V3 < −0.8σ Y V17 < −1.5σ Y V16 < −1.0σ → FRAUDE
De Reglas Inyectadas a Reglas Aprendidas — Por Qué Importa
Cada modelo de fraude tiene un límite de decisión. Sin embargo, los equipos de fraude operan utilizando reglas. La brecha entre lo que el modelo aprendió y lo que los analistas pueden leer y auditar es crucial.
Se plantea la pregunta natural: ¿qué características elegiría el gradiente si se le diera la libertad de elegir?
La Arquitectura: Tres Componentes Aprendibles
La arquitectura mantiene una red neuronal estándar, pero añade un segundo camino que aprende las reglas simbólicas que explican las decisiones de la red. Los dos caminos funcionan en paralelo desde la misma entrada y sus salidas se combinan mediante un peso aprendible α.
El camino MLP es idéntico al artículo anterior, mientras que el camino de reglas es nuevo. Después del entrenamiento, α converge a aproximadamente 0.88 en promedio.
Resultados: ¿Funciona el Aprendizaje de Reglas — y Qué Encontró?
La evaluación se realizó en un conjunto de datos de fraude con tarjetas de crédito. El aprendiz de reglas se sitúa ligeramente por debajo del estándar de red neuronal pura en todas las métricas de detección.
Fidelidad de las Reglas: 0.993 ± 0.001 — Excelente (objetivo > 0.85)
Cobertura de las Reglas: 0.811 ± 0.031 — Buena (objetivo > 0.70)
Simplicidad de las Reglas: 1.7 ± 2.1 — Las reglas utilizadas en las semillas activas tenían entre 5 y 8 condiciones.
Conclusión
El descubrimiento de la característica V14 por parte del modelo es una demostración poderosa de que el descenso por gradiente puede redescubrir señales críticas para el dominio sin ser informado sobre ellas. Esto permite que un equipo de cumplimiento pueda leer y verificar reglas sin necesidad de abrir ninguna matriz de pesos, lo que transforma la manera en que se entienden los modelos de fraude.