Wie viele Neuronen muss ein System berechnen, bevor man es KI nennen kann? Eine Analyse der Richtlinien zur Definition von künstlicher Intelligenz im AI Act
Die Frage, wann ein System als künstliche Intelligenz (KI) betrachtet werden kann, ist komplex und wird durch die Richtlinien des EU AI Act (Verordnung 2024/1689) nicht eindeutig beantwortet. Diese Richtlinien versuchen, eine Grenze zwischen traditioneller Software und KI-Systemen zu ziehen, indem sie die Definition des Gesetzes „klären“. Dies ist jedoch eine Herausforderung, die in der Praxis oft schwer zu fassen ist.
Wo ziehen wir die Grenze?
Die Richtlinien konzentrieren sich stark darauf, verschiedene Informationen verarbeitende Techniken zu unterscheiden. Das Problem dabei ist, dass es keine inhärente Unterscheidung zwischen den grundlegenden Berechnungsoperationen gibt, die den als KI bezeichneten Techniken und den traditionellen Softwaremethoden zugrunde liegen. Alle basieren auf denselben Kernoperationen, die von Rechenhardware durchgeführt werden.
Ein neuronales Netzwerk wird allgemein als „KI“ angesehen. Ein einzelnes Neuron in einem neuronalen Netzwerk führt jedoch nichts weiter als grundlegende mathematische Operationen durch: Multiplikation, Addition und Normalisierung. Ein einfaches lineares Regressionsmodell tut dasselbe – es wendet gewichtete Summen auf Eingangsvariablen an, um ein Ergebnis zu erzeugen. Der AI Act würde jedoch das letztere als traditionelle Software klassifizieren, während ein ausreichend großes Netzwerk von Neuronen plötzlich als KI-System gilt. Warum?
Das Problem der „Inference“: KI vs. Nicht-KI
Die Richtlinien definieren Inference als das zentrale Merkmal, das KI von traditioneller Software trennt. Viele Nicht-KI-Systeme „inferenzieren“ jedoch ebenfalls auf bedeutungsvolle Weise:
- Regelbasierte Expertensysteme ziehen Schlussfolgerungen aus kodiertem Wissen;
- Bayessche Modelle aktualisieren Wahrscheinlichkeiten dynamisch;
- Regressionsmodelle sagen Ergebnisse basierend auf Trainingsdaten voraus.
Die Richtlinien schließen diese Systeme jedoch von der KI-Definition aus, während sie tiefenlernende Modelle einbeziehen, die im Wesentlichen dieselbe Funktion mit ähnlichen Techniken auf größerer Skala ausführen. Dies schafft ein willkürliches Klassifikationsproblem.
Adaptivität vs. vortrainierte Modelle
Ein weiteres Kriterium in der Definition des AI Act ist die „Adaptivität“ – die Fähigkeit eines Systems, nach der Bereitstellung zu lernen oder das Verhalten zu ändern. Hier gibt es jedoch keine klare Grenze zwischen den neuesten KI-Techniken und älteren Informationsverarbeitungsmethoden.
Ein statisches neuronales Netzwerk, das auf vergangenen Daten trainiert wurde, wird als KI betrachtet, während ein dynamisch aktualisierendes Nicht-ML-System nicht als solche gilt. Diese Unterscheidung erfasst nicht, was ein System tatsächlich anpassungsfähig macht.
Ein Fokus auf Form statt Funktion
Die Richtlinien versuchen auch, KI von traditioneller Software auf Basis von Techniken zu trennen, anstatt auf Funktionalität. Sie klassifizieren:
- Maschinenlernen, tiefes Lernen und regelbasierte KI als KI;
- Klassische statistische Methoden, Heuristiken und bestimmte Optimierungstechniken als Nicht-KI.
In der Praxis sind diese Techniken jedoch oft miteinander vermischt. Warum sollte ein fortgeschrittener Entscheidungsbaumklassifikator als KI gelten, während ein komplexes bayessches Netzwerk nicht als solche klassifiziert wird?
Ein praktischerer Ansatz: KI als Spektrum
Anstatt KI durch spezifische Berechnungstechniken zu definieren, könnte ein effektiverer regulatorischer Ansatz auf funktionalen Merkmalen basieren – insbesondere dem Grad der Adaptivität und Autonomie, den ein System aufweist. Dieser Ansatz entlehnt viel von dem Vorschlag der britischen Regierung von 2022 zur Definition regulierter KI, der vorschlug, dass KI-Systeme anhand zweier Schlüsselkriterien bewertet werden sollten:
- Adaptivität – Das Ausmaß, in dem ein System sein Verhalten im Laufe der Zeit ändern kann, insbesondere auf unvorhersehbare oder schwer kontrollierbare Weise.
- Autonomie – Der Grad, in dem ein System ohne direkte menschliche Aufsicht betrieben werden kann, insbesondere wenn seine Entscheidungen reale Konsequenzen haben.
Ein System mit hoher Adaptivität und Autonomie könnte potenziell Entscheidungen treffen, die über menschliche Absichten oder Kontrolle hinausgehen, während Systeme mit begrenzter Adaptivität und Autonomie nur ein minimales Risiko darstellen.
Fazit: Die Antwort weht immer noch im Wind
Vor der Veröffentlichung der Richtlinien konnte man die Definition eines KI-Systems im AI Act als wahrscheinlich umfassend für jedes hinreichend komplexe großangelegte Berechnungssystem zusammenfassen. Die Richtlinien scheinen jedoch mehr Fragen aufzuwerfen, als sie beantworten. Was unterscheidet KI tatsächlich von Nicht-KI? An welchem Punkt wird ein Optimierungsalgorithmus zur KI? Die Versuche der Kommission, KI zu definieren, erscheinen als ein Versuch, Grenzen zu ziehen, wo keine natürlich existieren.