Wie viele Neuronen braucht ein System, um als KI zu gelten?

Wie viele Neuronen muss ein System berechnen, bevor man es KI nennen kann? Eine Analyse der Richtlinien zur Definition von künstlicher Intelligenz im AI Act

Die Frage, wann ein System als künstliche Intelligenz (KI) betrachtet werden kann, ist komplex und wird durch die Richtlinien des EU AI Act (Verordnung 2024/1689) nicht eindeutig beantwortet. Diese Richtlinien versuchen, eine Grenze zwischen traditioneller Software und KI-Systemen zu ziehen, indem sie die Definition des Gesetzes „klären“. Dies ist jedoch eine Herausforderung, die in der Praxis oft schwer zu fassen ist.

Wo ziehen wir die Grenze?

Die Richtlinien konzentrieren sich stark darauf, verschiedene Informationen verarbeitende Techniken zu unterscheiden. Das Problem dabei ist, dass es keine inhärente Unterscheidung zwischen den grundlegenden Berechnungsoperationen gibt, die den als KI bezeichneten Techniken und den traditionellen Softwaremethoden zugrunde liegen. Alle basieren auf denselben Kernoperationen, die von Rechenhardware durchgeführt werden.

Ein neuronales Netzwerk wird allgemein als „KI“ angesehen. Ein einzelnes Neuron in einem neuronalen Netzwerk führt jedoch nichts weiter als grundlegende mathematische Operationen durch: Multiplikation, Addition und Normalisierung. Ein einfaches lineares Regressionsmodell tut dasselbe – es wendet gewichtete Summen auf Eingangsvariablen an, um ein Ergebnis zu erzeugen. Der AI Act würde jedoch das letztere als traditionelle Software klassifizieren, während ein ausreichend großes Netzwerk von Neuronen plötzlich als KI-System gilt. Warum?

Das Problem der „Inference“: KI vs. Nicht-KI

Die Richtlinien definieren Inference als das zentrale Merkmal, das KI von traditioneller Software trennt. Viele Nicht-KI-Systeme „inferenzieren“ jedoch ebenfalls auf bedeutungsvolle Weise:

  • Regelbasierte Expertensysteme ziehen Schlussfolgerungen aus kodiertem Wissen;
  • Bayessche Modelle aktualisieren Wahrscheinlichkeiten dynamisch;
  • Regressionsmodelle sagen Ergebnisse basierend auf Trainingsdaten voraus.

Die Richtlinien schließen diese Systeme jedoch von der KI-Definition aus, während sie tiefenlernende Modelle einbeziehen, die im Wesentlichen dieselbe Funktion mit ähnlichen Techniken auf größerer Skala ausführen. Dies schafft ein willkürliches Klassifikationsproblem.

Adaptivität vs. vortrainierte Modelle

Ein weiteres Kriterium in der Definition des AI Act ist die „Adaptivität“ – die Fähigkeit eines Systems, nach der Bereitstellung zu lernen oder das Verhalten zu ändern. Hier gibt es jedoch keine klare Grenze zwischen den neuesten KI-Techniken und älteren Informationsverarbeitungsmethoden.

Ein statisches neuronales Netzwerk, das auf vergangenen Daten trainiert wurde, wird als KI betrachtet, während ein dynamisch aktualisierendes Nicht-ML-System nicht als solche gilt. Diese Unterscheidung erfasst nicht, was ein System tatsächlich anpassungsfähig macht.

Ein Fokus auf Form statt Funktion

Die Richtlinien versuchen auch, KI von traditioneller Software auf Basis von Techniken zu trennen, anstatt auf Funktionalität. Sie klassifizieren:

  • Maschinenlernen, tiefes Lernen und regelbasierte KI als KI;
  • Klassische statistische Methoden, Heuristiken und bestimmte Optimierungstechniken als Nicht-KI.

In der Praxis sind diese Techniken jedoch oft miteinander vermischt. Warum sollte ein fortgeschrittener Entscheidungsbaumklassifikator als KI gelten, während ein komplexes bayessches Netzwerk nicht als solche klassifiziert wird?

Ein praktischerer Ansatz: KI als Spektrum

Anstatt KI durch spezifische Berechnungstechniken zu definieren, könnte ein effektiverer regulatorischer Ansatz auf funktionalen Merkmalen basieren – insbesondere dem Grad der Adaptivität und Autonomie, den ein System aufweist. Dieser Ansatz entlehnt viel von dem Vorschlag der britischen Regierung von 2022 zur Definition regulierter KI, der vorschlug, dass KI-Systeme anhand zweier Schlüsselkriterien bewertet werden sollten:

  1. Adaptivität – Das Ausmaß, in dem ein System sein Verhalten im Laufe der Zeit ändern kann, insbesondere auf unvorhersehbare oder schwer kontrollierbare Weise.
  2. Autonomie – Der Grad, in dem ein System ohne direkte menschliche Aufsicht betrieben werden kann, insbesondere wenn seine Entscheidungen reale Konsequenzen haben.

Ein System mit hoher Adaptivität und Autonomie könnte potenziell Entscheidungen treffen, die über menschliche Absichten oder Kontrolle hinausgehen, während Systeme mit begrenzter Adaptivität und Autonomie nur ein minimales Risiko darstellen.

Fazit: Die Antwort weht immer noch im Wind

Vor der Veröffentlichung der Richtlinien konnte man die Definition eines KI-Systems im AI Act als wahrscheinlich umfassend für jedes hinreichend komplexe großangelegte Berechnungssystem zusammenfassen. Die Richtlinien scheinen jedoch mehr Fragen aufzuwerfen, als sie beantworten. Was unterscheidet KI tatsächlich von Nicht-KI? An welchem Punkt wird ein Optimierungsalgorithmus zur KI? Die Versuche der Kommission, KI zu definieren, erscheinen als ein Versuch, Grenzen zu ziehen, wo keine natürlich existieren.

More Insights

EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

Quebecs KI-Politik für Hochschulen und Cégeps

Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

Neue AI-Strategie: Technisches Sekretariat statt Regulator

Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

KI-Sicherheit als Motor für Innovation in Schwellenländern

Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...