Neurotechnologien im EU AI-Gesetz: Die Schnittstelle von Recht und Wissenschaft

Neurotechnologien unter dem EU AI Act: Wo Recht auf Wissenschaft trifft

Mit dem globalen Aufstieg der Debatte über Neurorights bringt der EU Artificial Intelligence Act eine neue Dimension in die regulatorische Landschaft der Neurotechnologien in der EU.

Der AI Act findet Anwendung, wenn ein KI-System, sei es eigenständig oder als Teil eines Produkts, auf dem Markt in der EU platziert wird, unabhängig davon, wo sich der Anbieter oder Hersteller befindet. Dies gilt auch für Anbieter oder Nutzer, deren Standort außerhalb der EU liegt, wenn die Ausgabe des relevanten KI-Systems in der EU verwendet werden soll.

Diese Verpflichtungen kommen zusätzlich zu bestehenden Gesetzen, denen Betreiber möglicherweise bereits unterliegen, wie der EU-Verordnung über Medizinprodukte und der Datenschutz-Grundverordnung (DSGVO).

Es gibt jedoch Ausnahmen, z.B. wenn ein KI-System oder Modell ausschließlich für wissenschaftliche Forschung, Marktforschung und Tests entwickelt und verwendet wird, ausgenommen Tests unter realen Bedingungen, sowie Systeme, die ausschließlich für militärische, verteidigungspolitische oder nationale Sicherheitszwecke entwickelt wurden.

Was ist ein KI-System?

Ein KI-System unter dem Gesetz ist „ein maschinenbasiertes System, das darauf ausgelegt ist, mit unterschiedlichen Autonomiestufen zu operieren und das nach der Bereitstellung Anpassungsfähigkeit aufweisen kann, und das mit expliziten oder impliziten Zielen aus den erhaltenen Eingaben ableitet, wie Ausgaben wie Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen zu generieren, die physische oder virtuelle Umgebungen beeinflussen können.“

Diese Definition umfasst komplexe maschinelle Lernalgorithmen, die zunehmend im Bereich der Neuroscience verwendet werden. Besonders relevant sind kognitive und computationale Neurowissenschaften, die KI nutzen, um Merkmale aus Gehirnsignalen zu extrahieren und Gehirnaktivität zu übersetzen. Beispielsweise können Convolutional Neural Networks verwendet werden, um motorische Aktivitätsabsichten aus EEG-Daten zu dekodieren und sie in Ausgaben wie die Bewegung eines Roboterarms umzuwandeln.

Ein KI-System kann eigenständig oder als Bestandteil eines Produkts verwendet werden. Es spielt keine Rolle, ob das KI-System physisch in ein Produkt integriert ist oder unabhängig von der Funktionalität des Produkts agiert.

Allerdings bedeutet die Qualifizierung als KI-System nicht automatisch, dass es unter den Anwendungsbereich des AI Act fällt; es muss auch unter eine der im Gesetz erwähnten Risikokategorien fallen.

Gehirn-Computer-Schnittstellen als Werkzeuge für subliminale Techniken

Der AI Act verbietet KI-Systeme, die subliminale Techniken verwenden, die über das Bewusstsein einer Person hinausgehen und menschliches Verhalten wesentlich verzerren und die freie Wahl untergraben, was erhebliche Schäden für diese Person, eine andere Person oder eine Gruppe von Personen verursachen kann.

In Bezug auf Neurotechnologien deutet Erwägung 29 darauf hin, dass solche subliminalen Techniken weiter „zum Beispiel durch Maschinen-Gehirn-Schnittstellen oder virtuelle Realität“ erleichtert werden könnten. Die Richtlinien der Europäischen Kommission fügen hinzu, dass „KI auch auf aufkommende Maschinen-Gehirn-Schnittstellen und fortgeschrittene Techniken wie Traum-Hacking und Gehirn-Spyware ausgeweitet werden kann.“

Traum-Hacking

Studien haben gezeigt, dass es möglich ist, luzides Träumen durch Technologien wie Schlafmasken oder Smartwatches zu induzieren. Theoretisch können diese Systeme erkennen, wann eine Person sich im REM-Schlaf befindet, und durch sensorische Hinweise wie Licht oder Klang den luziden Traumzustand auslösen.

In einer kleinen Studie berichteten Einzelpersonen darüber, dass sie in der Lage waren, mit der Außenwelt in ihrem Traum zu kommunizieren, indem sie auf einfache mathematische Gleichungen oder Ja/Nein-Fragen über vordefinierte Augenbewegungen oder Muskelzuckungen reagierten.

Es ist jedoch zu beachten, dass die Forschung in einem erheblichen frühen Stadium ist und es Herausforderungen bei der Umsetzung außerhalb des Labors und bei der Interpretation der Daten gibt, die möglicherweise mit anderen Aktionen während des Schlafs vermischt werden. Daher ist unklar, ob es derzeit ein reales Szenario für Traum-Hacking gibt, das menschliches Verhalten wesentlich verzerrt und erhebliche Schäden verursacht.

Gehirn-Spyware

Die Richtlinien geben folgendes Beispiel: „Ein Spiel kann KI-unterstützte Neurotechnologien und Maschinen-Gehirn-Schnittstellen nutzen, die es den Nutzern ermöglichen, (Teile von) einem Spiel mit Kopfbedeckungen zu steuern, die Gehirnaktivität erkennen.“ KI kann verwendet werden, um das Gehirn des Nutzers heimlich zu trainieren und ohne deren Wissen Informationen aus den neuronalen Daten zu offenbaren, die sehr aufdringlich und sensibel sein können (z.B. persönliche Bankinformationen).

Obwohl die Richtlinien nicht klären, welche BCI-Modaliäten solche Informationen offenbaren könnten, beziehen sie sich wahrscheinlich auf eine bekannte Studie, die nahelegt, dass unter sehr kontrollierten Bedingungen Hacker die Passwörter von Nutzern anhand ihrer Gehirnwellen erraten könnten.

Emotionserkennungssysteme unter Verwendung von Neurotechnologien

Die Verwendung von Emotionserkennungssystemen am Arbeitsplatz oder in Bildungseinrichtungen ist untersagt — es sei denn, aus medizinischen oder Sicherheitsgründen — während ihre Verwendung in anderen Umgebungen als Hochrisiko eingestuft wird. Diese Systeme decken sowohl die Inferenz als auch die Identifikation von Emotionen und „Absichten“ ab.

Wenn Neurotechnologien mit anderen Modalitäten wie Eye Tracking kombiniert werden, können sie möglicherweise sensible Informationen wie Erregung ableiten. Dies ist besonders wichtig für VR-Headsets, bei denen sowohl der Inhalt, der einer Person gezeigt wird, als auch die physiologische Reaktion auf diesen Inhalt beobachtet werden können.

Die Anwendung der Bestimmungen des Gesetzes kann in der Praxis für Anbieter und Nutzer herausfordernd sein, insbesondere wenn es darum geht, wann eine Neurotechnologie als Emotionserkennungssystem klassifiziert werden sollte und wann nicht.

Biometrische Kategorisierung

Der AI Act verbietet biometrische Kategorisierungssysteme, die Personen auf der Grundlage ihrer biometrischen Daten kategorisieren, um ihre Rasse, politischen Meinungen, Gewerkschaftsmitgliedschaft, religiösen oder politischen Überzeugungen, Sexualleben oder sexuelle Orientierung abzuleiten, es sei denn, das KI-System ist ancillary zu einem anderen kommerziellen Dienst und ausschließlich aus objektiv technischen Gründen erforderlich.

Schließlich ist es wichtig zu beachten, dass dasselbe KI-System unter mehrere Hochrisiko- oder verbotene Systemkategorien im Rahmen des AI Act fallen kann. Daher sollten Anbieter und Nutzer von Neurotechnologien die beabsichtigten und vernünftigerweise vorhersehbaren Anwendungsfälle ihrer KI-Systeme umfassend bewerten.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...