Gesichtserkennungstechnologie: Regierung unter Beschuss wegen fehlender Regelungen

Die Kritik am Rollout von Gesichtserkennungstechnologie durch die britische Regierung

Die britische Regierung sieht sich zunehmend Kritik für die beschleunigte Einführung von Gesichtserkennungstechnologie (FRT) ausgesetzt. Eine Forschungsinstitution für künstliche Intelligenz, das Ada Lovelace Institute, hat die Regierung gewarnt, dass der Einsatz von lebensnaher Gesichtserkennung (LFR) durch Polizei und Einzelhändler im Vereinigten Königreich in einem gesetzlichen Vakuum erfolgt. Diese Situation wirft dringende Fragen zur Privatsphäre, Transparenz und Rechenschaftspflicht auf.

Die Warnung erfolgt, während die Regierung den Einsatz von permanenten LFR-Kameras in Croydon, Südlondon, plant, als Teil eines langfristigen Polizeitests in diesem Sommer.

Zersplitterte Aufsicht

Seit 2020 wurden laut dem Innenministerium fast 800.000 Gesichter von der Metropolitan Police gescannt, und es wurden über 10 Millionen Pfund für mit Gesichtserkennung ausgestattete Fahrzeuge ausgegeben. Dennoch bleibt die rechtliche Grundlage für diese Operationen fraglich. Das einzige bedeutende rechtliche Urteil, der Fall Bridges gegen die Polizei von Südwales aus dem Jahr 2020, stellte fest, dass die Verwendung von LFR aufgrund von fundamentalen Mängeln im bestehenden Rechtssystem rechtswidrig ist.

Michael Birtwistly, Stellvertretender Direktor des Ada Lovelace Institute, bezeichnete die regulatorische Lage als „doppelt alarmierend“. Die fehlende adäquate Governance für den Einsatz von Gesichtserkennung durch die Polizei, einer der sichtbarsten und riskantesten Anwendungen, stellt die Legitimität der Polizeieinsätze in Frage und zeigt, wie unvorbereitet unser regulatorisches System ist.

Der Bericht des Instituts hebt hervor, dass die fragmentierten biometrischen Gesetze im Vereinigten Königreich nicht mit den schnellen Entwicklungen in der KI-gestützten Überwachung Schritt gehalten haben.

Gefahren neuer Technologien

Das Institut weist auch auf die Gefahren neuer Technologien wie der „Emotionserkennung“ hin, die versuchen, mentale Zustände in Echtzeit zu interpretieren. Nuala Polo, UK-Politikleiterin des Instituts, betont, dass die Polizei häufig behauptet, dass der Einsatz der Technologie gemäß den aktuellen Menschenrechts- und Daten­schutzgesetzen rechtmäßig ist, wobei sie hinzufügt: „Diese Ansprüche sind außerhalb von retrospektiven Gerichtsverfahren fast unmöglich zu bewerten.“

Erweiterte Nutzung von Gesichtserkennungskameras

Die schnelle Ausweitung der Technologie wurde kürzlich in einer gemeinsamen Untersuchung von The Guardian und Liberty Investigates aufgedeckt, die ergab, dass im vergangenen Jahr fast fünf Millionen Gesichter von der Polizei im Vereinigten Königreich gescannt wurden, was zu über 600 Festnahmen führte. Die Technologie wird nun auch im Einzelhandel und im Sportbereich getestet, wobei Einzelhändler wie Asda, Budgens und Sports Direct Systeme zur Gesichtserkennung zur Diebstahlsabwehr einführen.

Dennoch warnen Bürgerrechtsorganisationen, dass diese Praxis das Risiko von Fehlidentifikationen, insbesondere bei ethnischen Minderheiten, birgt und rechtmäßige öffentliche Proteste behindern könnte. „Wir befinden uns in einer Situation, in der wir analoge Gesetze in einem digitalen Zeitalter haben“, erklärt Charlie Welton von Liberty, der auch warnt, dass das Vereinigte Königreich hinter Europa und den USA zurückbleibt, wo mehrere Jurisdiktionen LFR verboten oder eingeschränkt haben.

Reaktion der Regierung

Trotz der wachsenden Kritik hat das Innenministerium die Technologie als „wichtiges Werkzeug in der modernen Polizeiarbeit“ verteidigt. Die Polizeiministerin Dame Diana Johnson erkannte kürzlich im Parlament an, dass „sehr legitime Bedenken“ bestehen und akzeptierte, dass die Regierung möglicherweise einen „maßgeschneiderten gesetzlichen Rahmen“ für den Einsatz von LFR in Betracht ziehen muss. Bisher wurden jedoch keine konkreten Vorschläge angekündigt.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...