Neurotechnologien im EU AI-Gesetz: Die Schnittstelle von Recht und Wissenschaft

Neurotechnologien unter dem EU AI Act: Wo Recht auf Wissenschaft trifft

Mit dem globalen Aufstieg der Debatte über Neurorights bringt der EU Artificial Intelligence Act eine neue Dimension in die regulatorische Landschaft der Neurotechnologien in der EU.

Der AI Act findet Anwendung, wenn ein KI-System, sei es eigenständig oder als Teil eines Produkts, auf dem Markt in der EU platziert wird, unabhängig davon, wo sich der Anbieter oder Hersteller befindet. Dies gilt auch für Anbieter oder Nutzer, deren Standort außerhalb der EU liegt, wenn die Ausgabe des relevanten KI-Systems in der EU verwendet werden soll.

Diese Verpflichtungen kommen zusätzlich zu bestehenden Gesetzen, denen Betreiber möglicherweise bereits unterliegen, wie der EU-Verordnung über Medizinprodukte und der Datenschutz-Grundverordnung (DSGVO).

Es gibt jedoch Ausnahmen, z.B. wenn ein KI-System oder Modell ausschließlich für wissenschaftliche Forschung, Marktforschung und Tests entwickelt und verwendet wird, ausgenommen Tests unter realen Bedingungen, sowie Systeme, die ausschließlich für militärische, verteidigungspolitische oder nationale Sicherheitszwecke entwickelt wurden.

Was ist ein KI-System?

Ein KI-System unter dem Gesetz ist „ein maschinenbasiertes System, das darauf ausgelegt ist, mit unterschiedlichen Autonomiestufen zu operieren und das nach der Bereitstellung Anpassungsfähigkeit aufweisen kann, und das mit expliziten oder impliziten Zielen aus den erhaltenen Eingaben ableitet, wie Ausgaben wie Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen zu generieren, die physische oder virtuelle Umgebungen beeinflussen können.“

Diese Definition umfasst komplexe maschinelle Lernalgorithmen, die zunehmend im Bereich der Neuroscience verwendet werden. Besonders relevant sind kognitive und computationale Neurowissenschaften, die KI nutzen, um Merkmale aus Gehirnsignalen zu extrahieren und Gehirnaktivität zu übersetzen. Beispielsweise können Convolutional Neural Networks verwendet werden, um motorische Aktivitätsabsichten aus EEG-Daten zu dekodieren und sie in Ausgaben wie die Bewegung eines Roboterarms umzuwandeln.

Ein KI-System kann eigenständig oder als Bestandteil eines Produkts verwendet werden. Es spielt keine Rolle, ob das KI-System physisch in ein Produkt integriert ist oder unabhängig von der Funktionalität des Produkts agiert.

Allerdings bedeutet die Qualifizierung als KI-System nicht automatisch, dass es unter den Anwendungsbereich des AI Act fällt; es muss auch unter eine der im Gesetz erwähnten Risikokategorien fallen.

Gehirn-Computer-Schnittstellen als Werkzeuge für subliminale Techniken

Der AI Act verbietet KI-Systeme, die subliminale Techniken verwenden, die über das Bewusstsein einer Person hinausgehen und menschliches Verhalten wesentlich verzerren und die freie Wahl untergraben, was erhebliche Schäden für diese Person, eine andere Person oder eine Gruppe von Personen verursachen kann.

In Bezug auf Neurotechnologien deutet Erwägung 29 darauf hin, dass solche subliminalen Techniken weiter „zum Beispiel durch Maschinen-Gehirn-Schnittstellen oder virtuelle Realität“ erleichtert werden könnten. Die Richtlinien der Europäischen Kommission fügen hinzu, dass „KI auch auf aufkommende Maschinen-Gehirn-Schnittstellen und fortgeschrittene Techniken wie Traum-Hacking und Gehirn-Spyware ausgeweitet werden kann.“

Traum-Hacking

Studien haben gezeigt, dass es möglich ist, luzides Träumen durch Technologien wie Schlafmasken oder Smartwatches zu induzieren. Theoretisch können diese Systeme erkennen, wann eine Person sich im REM-Schlaf befindet, und durch sensorische Hinweise wie Licht oder Klang den luziden Traumzustand auslösen.

In einer kleinen Studie berichteten Einzelpersonen darüber, dass sie in der Lage waren, mit der Außenwelt in ihrem Traum zu kommunizieren, indem sie auf einfache mathematische Gleichungen oder Ja/Nein-Fragen über vordefinierte Augenbewegungen oder Muskelzuckungen reagierten.

Es ist jedoch zu beachten, dass die Forschung in einem erheblichen frühen Stadium ist und es Herausforderungen bei der Umsetzung außerhalb des Labors und bei der Interpretation der Daten gibt, die möglicherweise mit anderen Aktionen während des Schlafs vermischt werden. Daher ist unklar, ob es derzeit ein reales Szenario für Traum-Hacking gibt, das menschliches Verhalten wesentlich verzerrt und erhebliche Schäden verursacht.

Gehirn-Spyware

Die Richtlinien geben folgendes Beispiel: „Ein Spiel kann KI-unterstützte Neurotechnologien und Maschinen-Gehirn-Schnittstellen nutzen, die es den Nutzern ermöglichen, (Teile von) einem Spiel mit Kopfbedeckungen zu steuern, die Gehirnaktivität erkennen.“ KI kann verwendet werden, um das Gehirn des Nutzers heimlich zu trainieren und ohne deren Wissen Informationen aus den neuronalen Daten zu offenbaren, die sehr aufdringlich und sensibel sein können (z.B. persönliche Bankinformationen).

Obwohl die Richtlinien nicht klären, welche BCI-Modaliäten solche Informationen offenbaren könnten, beziehen sie sich wahrscheinlich auf eine bekannte Studie, die nahelegt, dass unter sehr kontrollierten Bedingungen Hacker die Passwörter von Nutzern anhand ihrer Gehirnwellen erraten könnten.

Emotionserkennungssysteme unter Verwendung von Neurotechnologien

Die Verwendung von Emotionserkennungssystemen am Arbeitsplatz oder in Bildungseinrichtungen ist untersagt — es sei denn, aus medizinischen oder Sicherheitsgründen — während ihre Verwendung in anderen Umgebungen als Hochrisiko eingestuft wird. Diese Systeme decken sowohl die Inferenz als auch die Identifikation von Emotionen und „Absichten“ ab.

Wenn Neurotechnologien mit anderen Modalitäten wie Eye Tracking kombiniert werden, können sie möglicherweise sensible Informationen wie Erregung ableiten. Dies ist besonders wichtig für VR-Headsets, bei denen sowohl der Inhalt, der einer Person gezeigt wird, als auch die physiologische Reaktion auf diesen Inhalt beobachtet werden können.

Die Anwendung der Bestimmungen des Gesetzes kann in der Praxis für Anbieter und Nutzer herausfordernd sein, insbesondere wenn es darum geht, wann eine Neurotechnologie als Emotionserkennungssystem klassifiziert werden sollte und wann nicht.

Biometrische Kategorisierung

Der AI Act verbietet biometrische Kategorisierungssysteme, die Personen auf der Grundlage ihrer biometrischen Daten kategorisieren, um ihre Rasse, politischen Meinungen, Gewerkschaftsmitgliedschaft, religiösen oder politischen Überzeugungen, Sexualleben oder sexuelle Orientierung abzuleiten, es sei denn, das KI-System ist ancillary zu einem anderen kommerziellen Dienst und ausschließlich aus objektiv technischen Gründen erforderlich.

Schließlich ist es wichtig zu beachten, dass dasselbe KI-System unter mehrere Hochrisiko- oder verbotene Systemkategorien im Rahmen des AI Act fallen kann. Daher sollten Anbieter und Nutzer von Neurotechnologien die beabsichtigten und vernünftigerweise vorhersehbaren Anwendungsfälle ihrer KI-Systeme umfassend bewerten.

More Insights

Risiken der KI im Compliance-Bereich

Das schnelle Wachstum der künstlichen Intelligenz (KI), insbesondere der generativen KI (GenAI) und Chatbots, bietet Unternehmen zahlreiche Möglichkeiten zur Verbesserung ihrer Arbeitsweise...

AI-Kompetenz: Anforderungen und Umsetzung im Unternehmen

Die Verpflichtung zur KI-Kompetenz gilt seit dem 2. Februar 2025 für alle, die mit KI-Systemen in Verbindung stehen. Die Kommission erwartet von den Anbietern und Anwendern von KI-Systemen, dass sie...

Ethische Herausforderungen der KI: Strategien für verantwortungsvolles Handeln

Künstliche Intelligenz (KI) durchdringt zunehmend kritische Entscheidungsprozesse in verschiedenen Branchen, weshalb robuste ethische Governance-Rahmenwerke von entscheidender Bedeutung sind. Die...

Rechtliche Personhood für KI: Eine dringende Debatte

Künstliche Intelligenz ist nicht mehr auf dem Weg, sie ist bereits etabliert. Angesichts der schnellen Integration von KI müssen wir die dringende Frage stellen: Soll KI irgendeine Form von...

Datenherkunft als Schlüssel zur KI-Governance für CISOs

Künstliche Intelligenz hat schleichend in zentrale Funktionen des Unternehmens Einzug gehalten, und viele dieser Funktionen basieren auf großen Sprachmodellen (LLMs). Die Annahme der Sicherheit der...

Ausgewogene KI-Regulierung für die Philippinen

Eine Abgeordnete auf den Philippinen fordert einen vorsichtigen und konsulativen Ansatz zur Regulierung von Künstlicher Intelligenz (KI), um sicherzustellen, dass die Richtlinien eine ethische...

Chinas Weg zur offenen KI-Governance

Chinas schnelle Fortschritte im Bereich der künstlichen Intelligenz (KI) werden zunehmend durch eine starke Betonung der Open-Source-Zusammenarbeit vorangetrieben. Dies ermöglicht es Unternehmen...

Neun Schritte zur effektiven KI-Governance

Die AI-Governance ist entscheidend, um die Integrität, Verantwortlichkeit und Sicherheit der Datenökosysteme zu gewährleisten, die KI-Modelle antreiben. Ohne starke Kontrollen können KI-Systeme...