Neurotechnologien im EU AI-Gesetz: Die Schnittstelle von Recht und Wissenschaft

Neurotechnologien unter dem EU AI Act: Wo Recht auf Wissenschaft trifft

Mit dem globalen Aufstieg der Debatte über Neurorights bringt der EU Artificial Intelligence Act eine neue Dimension in die regulatorische Landschaft der Neurotechnologien in der EU.

Der AI Act findet Anwendung, wenn ein KI-System, sei es eigenständig oder als Teil eines Produkts, auf dem Markt in der EU platziert wird, unabhängig davon, wo sich der Anbieter oder Hersteller befindet. Dies gilt auch für Anbieter oder Nutzer, deren Standort außerhalb der EU liegt, wenn die Ausgabe des relevanten KI-Systems in der EU verwendet werden soll.

Diese Verpflichtungen kommen zusätzlich zu bestehenden Gesetzen, denen Betreiber möglicherweise bereits unterliegen, wie der EU-Verordnung über Medizinprodukte und der Datenschutz-Grundverordnung (DSGVO).

Es gibt jedoch Ausnahmen, z.B. wenn ein KI-System oder Modell ausschließlich für wissenschaftliche Forschung, Marktforschung und Tests entwickelt und verwendet wird, ausgenommen Tests unter realen Bedingungen, sowie Systeme, die ausschließlich für militärische, verteidigungspolitische oder nationale Sicherheitszwecke entwickelt wurden.

Was ist ein KI-System?

Ein KI-System unter dem Gesetz ist „ein maschinenbasiertes System, das darauf ausgelegt ist, mit unterschiedlichen Autonomiestufen zu operieren und das nach der Bereitstellung Anpassungsfähigkeit aufweisen kann, und das mit expliziten oder impliziten Zielen aus den erhaltenen Eingaben ableitet, wie Ausgaben wie Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen zu generieren, die physische oder virtuelle Umgebungen beeinflussen können.“

Diese Definition umfasst komplexe maschinelle Lernalgorithmen, die zunehmend im Bereich der Neuroscience verwendet werden. Besonders relevant sind kognitive und computationale Neurowissenschaften, die KI nutzen, um Merkmale aus Gehirnsignalen zu extrahieren und Gehirnaktivität zu übersetzen. Beispielsweise können Convolutional Neural Networks verwendet werden, um motorische Aktivitätsabsichten aus EEG-Daten zu dekodieren und sie in Ausgaben wie die Bewegung eines Roboterarms umzuwandeln.

Ein KI-System kann eigenständig oder als Bestandteil eines Produkts verwendet werden. Es spielt keine Rolle, ob das KI-System physisch in ein Produkt integriert ist oder unabhängig von der Funktionalität des Produkts agiert.

Allerdings bedeutet die Qualifizierung als KI-System nicht automatisch, dass es unter den Anwendungsbereich des AI Act fällt; es muss auch unter eine der im Gesetz erwähnten Risikokategorien fallen.

Gehirn-Computer-Schnittstellen als Werkzeuge für subliminale Techniken

Der AI Act verbietet KI-Systeme, die subliminale Techniken verwenden, die über das Bewusstsein einer Person hinausgehen und menschliches Verhalten wesentlich verzerren und die freie Wahl untergraben, was erhebliche Schäden für diese Person, eine andere Person oder eine Gruppe von Personen verursachen kann.

In Bezug auf Neurotechnologien deutet Erwägung 29 darauf hin, dass solche subliminalen Techniken weiter „zum Beispiel durch Maschinen-Gehirn-Schnittstellen oder virtuelle Realität“ erleichtert werden könnten. Die Richtlinien der Europäischen Kommission fügen hinzu, dass „KI auch auf aufkommende Maschinen-Gehirn-Schnittstellen und fortgeschrittene Techniken wie Traum-Hacking und Gehirn-Spyware ausgeweitet werden kann.“

Traum-Hacking

Studien haben gezeigt, dass es möglich ist, luzides Träumen durch Technologien wie Schlafmasken oder Smartwatches zu induzieren. Theoretisch können diese Systeme erkennen, wann eine Person sich im REM-Schlaf befindet, und durch sensorische Hinweise wie Licht oder Klang den luziden Traumzustand auslösen.

In einer kleinen Studie berichteten Einzelpersonen darüber, dass sie in der Lage waren, mit der Außenwelt in ihrem Traum zu kommunizieren, indem sie auf einfache mathematische Gleichungen oder Ja/Nein-Fragen über vordefinierte Augenbewegungen oder Muskelzuckungen reagierten.

Es ist jedoch zu beachten, dass die Forschung in einem erheblichen frühen Stadium ist und es Herausforderungen bei der Umsetzung außerhalb des Labors und bei der Interpretation der Daten gibt, die möglicherweise mit anderen Aktionen während des Schlafs vermischt werden. Daher ist unklar, ob es derzeit ein reales Szenario für Traum-Hacking gibt, das menschliches Verhalten wesentlich verzerrt und erhebliche Schäden verursacht.

Gehirn-Spyware

Die Richtlinien geben folgendes Beispiel: „Ein Spiel kann KI-unterstützte Neurotechnologien und Maschinen-Gehirn-Schnittstellen nutzen, die es den Nutzern ermöglichen, (Teile von) einem Spiel mit Kopfbedeckungen zu steuern, die Gehirnaktivität erkennen.“ KI kann verwendet werden, um das Gehirn des Nutzers heimlich zu trainieren und ohne deren Wissen Informationen aus den neuronalen Daten zu offenbaren, die sehr aufdringlich und sensibel sein können (z.B. persönliche Bankinformationen).

Obwohl die Richtlinien nicht klären, welche BCI-Modaliäten solche Informationen offenbaren könnten, beziehen sie sich wahrscheinlich auf eine bekannte Studie, die nahelegt, dass unter sehr kontrollierten Bedingungen Hacker die Passwörter von Nutzern anhand ihrer Gehirnwellen erraten könnten.

Emotionserkennungssysteme unter Verwendung von Neurotechnologien

Die Verwendung von Emotionserkennungssystemen am Arbeitsplatz oder in Bildungseinrichtungen ist untersagt — es sei denn, aus medizinischen oder Sicherheitsgründen — während ihre Verwendung in anderen Umgebungen als Hochrisiko eingestuft wird. Diese Systeme decken sowohl die Inferenz als auch die Identifikation von Emotionen und „Absichten“ ab.

Wenn Neurotechnologien mit anderen Modalitäten wie Eye Tracking kombiniert werden, können sie möglicherweise sensible Informationen wie Erregung ableiten. Dies ist besonders wichtig für VR-Headsets, bei denen sowohl der Inhalt, der einer Person gezeigt wird, als auch die physiologische Reaktion auf diesen Inhalt beobachtet werden können.

Die Anwendung der Bestimmungen des Gesetzes kann in der Praxis für Anbieter und Nutzer herausfordernd sein, insbesondere wenn es darum geht, wann eine Neurotechnologie als Emotionserkennungssystem klassifiziert werden sollte und wann nicht.

Biometrische Kategorisierung

Der AI Act verbietet biometrische Kategorisierungssysteme, die Personen auf der Grundlage ihrer biometrischen Daten kategorisieren, um ihre Rasse, politischen Meinungen, Gewerkschaftsmitgliedschaft, religiösen oder politischen Überzeugungen, Sexualleben oder sexuelle Orientierung abzuleiten, es sei denn, das KI-System ist ancillary zu einem anderen kommerziellen Dienst und ausschließlich aus objektiv technischen Gründen erforderlich.

Schließlich ist es wichtig zu beachten, dass dasselbe KI-System unter mehrere Hochrisiko- oder verbotene Systemkategorien im Rahmen des AI Act fallen kann. Daher sollten Anbieter und Nutzer von Neurotechnologien die beabsichtigten und vernünftigerweise vorhersehbaren Anwendungsfälle ihrer KI-Systeme umfassend bewerten.

More Insights

Verantwortungsvolles KI-Management für nachhaltigen Erfolg

Ohne verantwortungsvolle KI wird selbst leistungsstarke KI stagnieren. Unternehmen müssen eine solide Grundlage schaffen, um sicherzustellen, dass KI-Systeme zuverlässig und nachhaltig funktionieren...

Kanada als Vorreiter der internationalen KI-Governance beim G7-Gipfel

Der kanadische Premierminister Mark Carney hat deutlich gemacht, dass künstliche Intelligenz (KI) in den kommenden Jahren eine Priorität für das Land sein wird. Im Rahmen des G7-Gipfels wird Kanada...

Die Auswirkungen des EU KI-Gesetzes auf den Datenschutz

Im späten Jahr 2023 verabschiedete die Europäische Union ihr Gesetz über Künstliche Intelligenz, das erste umfassende Gesetz zur Regelung der Nutzung von KI durch Unternehmen. Der EU AI Act soll...

Kasachstans wegweisendes KI-Gesetz: Ein menschenzentrierter Ansatz

Kasachstans neuer Entwurf für das "Gesetz über Künstliche Intelligenz" signalisiert den Willen, KI mit einem menschenzentrierten Ansatz zu regulieren. Das Gesetz soll die Nutzung von KI in...

KI-Ingenieure vs. Verantwortungsvolle KI-Ingenieure: Intelligenter bauen oder sicherer gestalten

Künstliche Intelligenz hat in den letzten Jahren enorme Fortschritte gemacht, was AI-Ingenieure an die Spitze der Innovation stellt. Gleichzeitig bringt diese Macht Verantwortung mit sich, da Fragen...

Verantwortungsbewusste KI: Eine neue Notwendigkeit

Dr. Anna Zeiter betont, dass verantwortungsvolle KI nicht nur ein Schlagwort ist, sondern eine grundlegende Notwendigkeit. Sie hebt hervor, dass Vertrauen und Verantwortlichkeit entscheidend sind, um...

KI-Integration in Unternehmen: Compliance im Fokus

Künstliche Intelligenz soll Unternehmen schneller, intelligenter und wettbewerbsfähiger machen, aber die meisten Projekte scheitern. Der Cloud Security Alliance (CSA) zufolge liegt das Problem darin...

Erhalt von generativen KI-Inhalten: Rechtliche und organisatorische Herausforderungen

Generative KI-Tools, die Texte und Medien basierend auf den Daten erstellen, mit denen sie trainiert wurden, werfen rechtliche Bedenken hinsichtlich Datenschutz, Datensicherheit und Privilegien auf...

Verantwortungsvolles KI-Management: Prinzipien und Vorteile

Künstliche Intelligenz verändert, wie wir leben und arbeiten, weshalb es wichtig ist, sie auf die richtige Weise zu nutzen. Verantwortliche KI bedeutet, KI zu schaffen und zu verwenden, die fair...