Wie viele Neuronen braucht ein System, um als KI zu gelten?

Wie viele Neuronen muss ein System berechnen, bevor man es KI nennen kann? Eine Analyse der Richtlinien zur Definition von künstlicher Intelligenz im AI Act

Die Frage, wann ein System als künstliche Intelligenz (KI) betrachtet werden kann, ist komplex und wird durch die Richtlinien des EU AI Act (Verordnung 2024/1689) nicht eindeutig beantwortet. Diese Richtlinien versuchen, eine Grenze zwischen traditioneller Software und KI-Systemen zu ziehen, indem sie die Definition des Gesetzes „klären“. Dies ist jedoch eine Herausforderung, die in der Praxis oft schwer zu fassen ist.

Wo ziehen wir die Grenze?

Die Richtlinien konzentrieren sich stark darauf, verschiedene Informationen verarbeitende Techniken zu unterscheiden. Das Problem dabei ist, dass es keine inhärente Unterscheidung zwischen den grundlegenden Berechnungsoperationen gibt, die den als KI bezeichneten Techniken und den traditionellen Softwaremethoden zugrunde liegen. Alle basieren auf denselben Kernoperationen, die von Rechenhardware durchgeführt werden.

Ein neuronales Netzwerk wird allgemein als „KI“ angesehen. Ein einzelnes Neuron in einem neuronalen Netzwerk führt jedoch nichts weiter als grundlegende mathematische Operationen durch: Multiplikation, Addition und Normalisierung. Ein einfaches lineares Regressionsmodell tut dasselbe – es wendet gewichtete Summen auf Eingangsvariablen an, um ein Ergebnis zu erzeugen. Der AI Act würde jedoch das letztere als traditionelle Software klassifizieren, während ein ausreichend großes Netzwerk von Neuronen plötzlich als KI-System gilt. Warum?

Das Problem der „Inference“: KI vs. Nicht-KI

Die Richtlinien definieren Inference als das zentrale Merkmal, das KI von traditioneller Software trennt. Viele Nicht-KI-Systeme „inferenzieren“ jedoch ebenfalls auf bedeutungsvolle Weise:

  • Regelbasierte Expertensysteme ziehen Schlussfolgerungen aus kodiertem Wissen;
  • Bayessche Modelle aktualisieren Wahrscheinlichkeiten dynamisch;
  • Regressionsmodelle sagen Ergebnisse basierend auf Trainingsdaten voraus.

Die Richtlinien schließen diese Systeme jedoch von der KI-Definition aus, während sie tiefenlernende Modelle einbeziehen, die im Wesentlichen dieselbe Funktion mit ähnlichen Techniken auf größerer Skala ausführen. Dies schafft ein willkürliches Klassifikationsproblem.

Adaptivität vs. vortrainierte Modelle

Ein weiteres Kriterium in der Definition des AI Act ist die „Adaptivität“ – die Fähigkeit eines Systems, nach der Bereitstellung zu lernen oder das Verhalten zu ändern. Hier gibt es jedoch keine klare Grenze zwischen den neuesten KI-Techniken und älteren Informationsverarbeitungsmethoden.

Ein statisches neuronales Netzwerk, das auf vergangenen Daten trainiert wurde, wird als KI betrachtet, während ein dynamisch aktualisierendes Nicht-ML-System nicht als solche gilt. Diese Unterscheidung erfasst nicht, was ein System tatsächlich anpassungsfähig macht.

Ein Fokus auf Form statt Funktion

Die Richtlinien versuchen auch, KI von traditioneller Software auf Basis von Techniken zu trennen, anstatt auf Funktionalität. Sie klassifizieren:

  • Maschinenlernen, tiefes Lernen und regelbasierte KI als KI;
  • Klassische statistische Methoden, Heuristiken und bestimmte Optimierungstechniken als Nicht-KI.

In der Praxis sind diese Techniken jedoch oft miteinander vermischt. Warum sollte ein fortgeschrittener Entscheidungsbaumklassifikator als KI gelten, während ein komplexes bayessches Netzwerk nicht als solche klassifiziert wird?

Ein praktischerer Ansatz: KI als Spektrum

Anstatt KI durch spezifische Berechnungstechniken zu definieren, könnte ein effektiverer regulatorischer Ansatz auf funktionalen Merkmalen basieren – insbesondere dem Grad der Adaptivität und Autonomie, den ein System aufweist. Dieser Ansatz entlehnt viel von dem Vorschlag der britischen Regierung von 2022 zur Definition regulierter KI, der vorschlug, dass KI-Systeme anhand zweier Schlüsselkriterien bewertet werden sollten:

  1. Adaptivität – Das Ausmaß, in dem ein System sein Verhalten im Laufe der Zeit ändern kann, insbesondere auf unvorhersehbare oder schwer kontrollierbare Weise.
  2. Autonomie – Der Grad, in dem ein System ohne direkte menschliche Aufsicht betrieben werden kann, insbesondere wenn seine Entscheidungen reale Konsequenzen haben.

Ein System mit hoher Adaptivität und Autonomie könnte potenziell Entscheidungen treffen, die über menschliche Absichten oder Kontrolle hinausgehen, während Systeme mit begrenzter Adaptivität und Autonomie nur ein minimales Risiko darstellen.

Fazit: Die Antwort weht immer noch im Wind

Vor der Veröffentlichung der Richtlinien konnte man die Definition eines KI-Systems im AI Act als wahrscheinlich umfassend für jedes hinreichend komplexe großangelegte Berechnungssystem zusammenfassen. Die Richtlinien scheinen jedoch mehr Fragen aufzuwerfen, als sie beantworten. Was unterscheidet KI tatsächlich von Nicht-KI? An welchem Punkt wird ein Optimierungsalgorithmus zur KI? Die Versuche der Kommission, KI zu definieren, erscheinen als ein Versuch, Grenzen zu ziehen, wo keine natürlich existieren.

More Insights

KI-Ingenieure vs. Verantwortungsvolle KI-Ingenieure: Intelligenter bauen oder sicherer gestalten

Künstliche Intelligenz hat in den letzten Jahren enorme Fortschritte gemacht, was AI-Ingenieure an die Spitze der Innovation stellt. Gleichzeitig bringt diese Macht Verantwortung mit sich, da Fragen...

Verantwortungsbewusste KI: Eine neue Notwendigkeit

Dr. Anna Zeiter betont, dass verantwortungsvolle KI nicht nur ein Schlagwort ist, sondern eine grundlegende Notwendigkeit. Sie hebt hervor, dass Vertrauen und Verantwortlichkeit entscheidend sind, um...

KI-Integration in Unternehmen: Compliance im Fokus

Künstliche Intelligenz soll Unternehmen schneller, intelligenter und wettbewerbsfähiger machen, aber die meisten Projekte scheitern. Der Cloud Security Alliance (CSA) zufolge liegt das Problem darin...

Erhalt von generativen KI-Inhalten: Rechtliche und organisatorische Herausforderungen

Generative KI-Tools, die Texte und Medien basierend auf den Daten erstellen, mit denen sie trainiert wurden, werfen rechtliche Bedenken hinsichtlich Datenschutz, Datensicherheit und Privilegien auf...

Verantwortungsvolles KI-Management: Prinzipien und Vorteile

Künstliche Intelligenz verändert, wie wir leben und arbeiten, weshalb es wichtig ist, sie auf die richtige Weise zu nutzen. Verantwortliche KI bedeutet, KI zu schaffen und zu verwenden, die fair...

Vertrauenswürdige KI: Erfolgsfaktor für Unternehmen im Zeitalter der Innovation

In den letzten zwanzig Jahren hat sich die Abhängigkeit von künstlicher Intelligenz (KI) zur Entscheidungsfindung in Unternehmen stark entwickelt. Um in diesem neuen Modell effektiv zu arbeiten...

KI-Regulierung in Spanien: Fortschritte und Herausforderungen

Spanien ist Vorreiter in der KI-Governance mit dem ersten KI-Regulator Europas (AESIA) und einem bereits aktiven regulatorischen Sandbox. Zudem wird ein nationaler KI-Gesetzentwurf vorbereitet, der...

Globale Regulierung von KI: Ein Überblick über Israel

Künstliche Intelligenz (KI) hat in den letzten Jahren enorme Fortschritte gemacht und ist zunehmend in das öffentliche Bewusstsein gerückt. Regierungen und Aufsichtsbehörden weltweit müssen schnell...

KI im Glücksspiel: Chancen und Herausforderungen der Regulierung

Der Einsatz von Künstlicher Intelligenz (KI) im Glücksspielsektor bringt sowohl Chancen als auch Risiken mit sich, da die regulatorischen Anforderungen steigen und die Haftungsrisiken zunehmen...