Von Huaweigate bis zum KI-Gesetz: Die Gefahren unerkannter Bias

Von Huaweigate zum AI Act: Wie Vorurteile eingebaut werden

In der vergangenen Woche wurde Brüssel von einem weiteren Korruptionsskandal erschüttert. Diesmal ist es der chinesische Technologieriese Huawei, dessen Büros in der Nähe des Europäischen Parlaments durchsucht wurden – zusammen mit den Büros von 15 ehemaligen und aktuellen Abgeordneten des Europäischen Parlaments (MEPs) aus den Gruppen EPP und S&D. Laut belgischen Staatsanwälten wird Huawei wegen „aktiver Korruption im Europäischen Parlament“ untersucht, einschließlich „Vergütung für politische Positionen, übermäßige Geschenke wie Essen und Reisekosten sowie regelmäßige Einladungen zu Fußballspielen … mit dem Ziel, rein private kommerzielle Interessen im Kontext politischer Entscheidungen zu fördern“.

Diese Ermittlungen wurden von Follow the Money, Le Soir und Knack durchgeführt, wobei die Polizei 21 Adressen in Brüssel, Flandern, Wallonien und Portugal durchsucht und mehrere Personen festgenommen hat. Aber während alle Augen auf Huawei und China gerichtet sind, möchte ich auf einen tiefergehenden, systemischen Skandal hinweisen, der sowohl bei Qatargate als auch jetzt zu finden ist: das langanhaltende Versagen der europäischen Institutionen, die Demokratie angemessen vor Einflussoperationen zu schützen.

Systemische Mängel in der Lobbyüberwachung

Es gibt anhaltende und systematische Mängel in der Lobbyüberwachung, der Transparenz und der Durchsetzung von Ethik, einschließlich der Geschenke an MEPs und Interessenkonflikten. Die EU muss die Implementierung des Ethikkörpers konsolidieren und beschleunigen, um gemeinsame ethische Standards über alle EU-Institutionen hinweg zu schaffen.

In diesem Kontext wird auch der AI Act relevant. Der AI Act hat das Ziel, sicherzustellen, dass künstliche Intelligenz (KI) von der Gesellschaft maximal angenommen wird. Dies geschieht unter dem Vorwand, KI vertrauenswürdig zu machen. Doch diese kommerzielle Zielsetzung birgt Gefahren.

Die Rolle von großen Tech-Unternehmen

Der Bericht, der im Januar veröffentlicht wurde, fokussiert sich auf den Standardisierungsprozess des AI Acts. Dabei wurde enthüllt, dass viele der weltweit größten Technologiekonzerne – darunter auch Huawei – tief in die Schaffung nachsichtiger, leichter Standards involviert sind, die das Risiko bergen, den AI Act der EU zu untergraben. Diese privaten Standardisierungsorganisationen schreiben mit wenig bis gar keiner Transparenz Regeln, die rechtlichen Status in der EU haben.

Ein Beispiel für die problematischen Auswirkungen von KI ist der Einsatz eines Algorithmus in den Niederlanden zur Betrugserkennung im Zusammenhang mit Kindergeld. Der Algorithmus war extrem voreingenommen und stellte insbesondere alleinstehende Eltern und Menschen, die kein Niederländisch sprechen, als Betrüger dar. Die Folgen waren verheerend: viele verloren ihre Häuser und wurden von ihren Kindern getrennt.

Die Gefahren der Standardisierung

Die EU hat CEN-CENELEC, die europäische Standardisierungsbehörde, beauftragt, diese Standards zu entwickeln. Dies bedeutet, dass die Standards als EU-Recht betrachtet werden. Wenn ein Unternehmen die Standards einhält, erfüllt es auch die Anforderungen des AI Acts. Diese Tatsache gibt der Industrie die Möglichkeit, den AI Act zu gestalten und zu definieren, wie er umgesetzt wird.

Die Forschung zur Standardisierung zeigt, dass es sich um einen sehr industriegeprägten Prozess handelt, in dem die Interessen der Zivilgesellschaft oft nicht berücksichtigt werden. Von den 150 identifizierten Experten, die an der Standardisierung beteiligt sind, repräsentieren 54 Unternehmen, während nur 9 % aus der Zivilgesellschaft kommen.

Schlussfolgerung

Es ist entscheidend, dass die Entscheidungen über grundlegende Rechte nicht von einer privaten Einrichtung dominiert werden, die von Industrieexperten beherrscht wird. Der AI Act muss in einem demokratischen Rahmen diskutiert und entschieden werden, um sicherzustellen, dass die Technologie zum Nutzen aller Bürger eingesetzt wird und nicht hinter verschlossenen Türen entschieden wird.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...