Von Huaweigate bis zum KI-Gesetz: Die Gefahren unerkannter Bias

Von Huaweigate zum AI Act: Wie Vorurteile eingebaut werden

In der vergangenen Woche wurde Brüssel von einem weiteren Korruptionsskandal erschüttert. Diesmal ist es der chinesische Technologieriese Huawei, dessen Büros in der Nähe des Europäischen Parlaments durchsucht wurden – zusammen mit den Büros von 15 ehemaligen und aktuellen Abgeordneten des Europäischen Parlaments (MEPs) aus den Gruppen EPP und S&D. Laut belgischen Staatsanwälten wird Huawei wegen „aktiver Korruption im Europäischen Parlament“ untersucht, einschließlich „Vergütung für politische Positionen, übermäßige Geschenke wie Essen und Reisekosten sowie regelmäßige Einladungen zu Fußballspielen … mit dem Ziel, rein private kommerzielle Interessen im Kontext politischer Entscheidungen zu fördern“.

Diese Ermittlungen wurden von Follow the Money, Le Soir und Knack durchgeführt, wobei die Polizei 21 Adressen in Brüssel, Flandern, Wallonien und Portugal durchsucht und mehrere Personen festgenommen hat. Aber während alle Augen auf Huawei und China gerichtet sind, möchte ich auf einen tiefergehenden, systemischen Skandal hinweisen, der sowohl bei Qatargate als auch jetzt zu finden ist: das langanhaltende Versagen der europäischen Institutionen, die Demokratie angemessen vor Einflussoperationen zu schützen.

Systemische Mängel in der Lobbyüberwachung

Es gibt anhaltende und systematische Mängel in der Lobbyüberwachung, der Transparenz und der Durchsetzung von Ethik, einschließlich der Geschenke an MEPs und Interessenkonflikten. Die EU muss die Implementierung des Ethikkörpers konsolidieren und beschleunigen, um gemeinsame ethische Standards über alle EU-Institutionen hinweg zu schaffen.

In diesem Kontext wird auch der AI Act relevant. Der AI Act hat das Ziel, sicherzustellen, dass künstliche Intelligenz (KI) von der Gesellschaft maximal angenommen wird. Dies geschieht unter dem Vorwand, KI vertrauenswürdig zu machen. Doch diese kommerzielle Zielsetzung birgt Gefahren.

Die Rolle von großen Tech-Unternehmen

Der Bericht, der im Januar veröffentlicht wurde, fokussiert sich auf den Standardisierungsprozess des AI Acts. Dabei wurde enthüllt, dass viele der weltweit größten Technologiekonzerne – darunter auch Huawei – tief in die Schaffung nachsichtiger, leichter Standards involviert sind, die das Risiko bergen, den AI Act der EU zu untergraben. Diese privaten Standardisierungsorganisationen schreiben mit wenig bis gar keiner Transparenz Regeln, die rechtlichen Status in der EU haben.

Ein Beispiel für die problematischen Auswirkungen von KI ist der Einsatz eines Algorithmus in den Niederlanden zur Betrugserkennung im Zusammenhang mit Kindergeld. Der Algorithmus war extrem voreingenommen und stellte insbesondere alleinstehende Eltern und Menschen, die kein Niederländisch sprechen, als Betrüger dar. Die Folgen waren verheerend: viele verloren ihre Häuser und wurden von ihren Kindern getrennt.

Die Gefahren der Standardisierung

Die EU hat CEN-CENELEC, die europäische Standardisierungsbehörde, beauftragt, diese Standards zu entwickeln. Dies bedeutet, dass die Standards als EU-Recht betrachtet werden. Wenn ein Unternehmen die Standards einhält, erfüllt es auch die Anforderungen des AI Acts. Diese Tatsache gibt der Industrie die Möglichkeit, den AI Act zu gestalten und zu definieren, wie er umgesetzt wird.

Die Forschung zur Standardisierung zeigt, dass es sich um einen sehr industriegeprägten Prozess handelt, in dem die Interessen der Zivilgesellschaft oft nicht berücksichtigt werden. Von den 150 identifizierten Experten, die an der Standardisierung beteiligt sind, repräsentieren 54 Unternehmen, während nur 9 % aus der Zivilgesellschaft kommen.

Schlussfolgerung

Es ist entscheidend, dass die Entscheidungen über grundlegende Rechte nicht von einer privaten Einrichtung dominiert werden, die von Industrieexperten beherrscht wird. Der AI Act muss in einem demokratischen Rahmen diskutiert und entschieden werden, um sicherzustellen, dass die Technologie zum Nutzen aller Bürger eingesetzt wird und nicht hinter verschlossenen Türen entschieden wird.

More Insights

EU-KI-Gesetz und seine Auswirkungen auf die Unternehmensführung

Dieses Forschungsprojekt untersucht, wie das EU-Gesetz über Künstliche Intelligenz (KI-Gesetz) eine systemische Transformation in den Rahmenbedingungen für Unternehmensführung und Verantwortung...

KI-Governance: Transformation für Chief Risk Officers

Künstliche Intelligenz und AI-Technologien sind entscheidend für den Erfolg der Risikofunktion. CROs können KI einsetzen, um Compliance zu gewährleisten und Daten-Governance sowie unternehmensweite...

EU-KI-Gesetz und seine Auswirkungen auf die Unternehmensführung

Dieses Forschungsprojekt untersucht, wie das EU-Gesetz über Künstliche Intelligenz (KI-Gesetz) eine systemische Transformation in den Rahmenbedingungen für Unternehmensführung und Verantwortung...

KI und Cybersecurity: Die Notwendigkeit von Verantwortung

Organisationen müssen sich mit der Realität auseinandersetzen, dass KI die Bedrohungslandschaft in der Cybersicherheit schnell verändert. Während KI dabei hilft, die Erkennung und Reaktion zu...

Intelligente Ansätze zur KI-Governance in Thailand

Thailand hat Prinzipien für die Gesetzgebung im Bereich künstliche Intelligenz (KI) entworfen, um ein KI-Ökosystem zu schaffen und die Einführung zu erweitern. Das Gesetz zielt darauf ab, Benutzern...

Texas führt umfassende KI-Gesetze mit spezifischen Gesundheitsvorschriften ein

Texas hat mit dem Inkrafttreten des House Bill (HB) 149 und des Senate Bill (SB) 1188 bedeutende Schritte zur Regulierung der künstlichen Intelligenz (KI) unternommen. Diese Gesetze zielen darauf ab...

Risiko intelligent managen: Neue KI-Governance-Lösungen von Riskonnect

Riskonnect hat eine neue Lösung für die KI-Governance eingeführt, die es Organisationen ermöglicht, KI verantwortungsbewusst zu nutzen und gleichzeitig Innovation, Aufsicht und Compliance in Einklang...