Von Huaweigate zum AI Act: Wie Vorurteile eingebaut werden
In der vergangenen Woche wurde Brüssel von einem weiteren Korruptionsskandal erschüttert. Diesmal ist es der chinesische Technologieriese Huawei, dessen Büros in der Nähe des Europäischen Parlaments durchsucht wurden – zusammen mit den Büros von 15 ehemaligen und aktuellen Abgeordneten des Europäischen Parlaments (MEPs) aus den Gruppen EPP und S&D. Laut belgischen Staatsanwälten wird Huawei wegen „aktiver Korruption im Europäischen Parlament“ untersucht, einschließlich „Vergütung für politische Positionen, übermäßige Geschenke wie Essen und Reisekosten sowie regelmäßige Einladungen zu Fußballspielen … mit dem Ziel, rein private kommerzielle Interessen im Kontext politischer Entscheidungen zu fördern“.
Diese Ermittlungen wurden von Follow the Money, Le Soir und Knack durchgeführt, wobei die Polizei 21 Adressen in Brüssel, Flandern, Wallonien und Portugal durchsucht und mehrere Personen festgenommen hat. Aber während alle Augen auf Huawei und China gerichtet sind, möchte ich auf einen tiefergehenden, systemischen Skandal hinweisen, der sowohl bei Qatargate als auch jetzt zu finden ist: das langanhaltende Versagen der europäischen Institutionen, die Demokratie angemessen vor Einflussoperationen zu schützen.
Systemische Mängel in der Lobbyüberwachung
Es gibt anhaltende und systematische Mängel in der Lobbyüberwachung, der Transparenz und der Durchsetzung von Ethik, einschließlich der Geschenke an MEPs und Interessenkonflikten. Die EU muss die Implementierung des Ethikkörpers konsolidieren und beschleunigen, um gemeinsame ethische Standards über alle EU-Institutionen hinweg zu schaffen.
In diesem Kontext wird auch der AI Act relevant. Der AI Act hat das Ziel, sicherzustellen, dass künstliche Intelligenz (KI) von der Gesellschaft maximal angenommen wird. Dies geschieht unter dem Vorwand, KI vertrauenswürdig zu machen. Doch diese kommerzielle Zielsetzung birgt Gefahren.
Die Rolle von großen Tech-Unternehmen
Der Bericht, der im Januar veröffentlicht wurde, fokussiert sich auf den Standardisierungsprozess des AI Acts. Dabei wurde enthüllt, dass viele der weltweit größten Technologiekonzerne – darunter auch Huawei – tief in die Schaffung nachsichtiger, leichter Standards involviert sind, die das Risiko bergen, den AI Act der EU zu untergraben. Diese privaten Standardisierungsorganisationen schreiben mit wenig bis gar keiner Transparenz Regeln, die rechtlichen Status in der EU haben.
Ein Beispiel für die problematischen Auswirkungen von KI ist der Einsatz eines Algorithmus in den Niederlanden zur Betrugserkennung im Zusammenhang mit Kindergeld. Der Algorithmus war extrem voreingenommen und stellte insbesondere alleinstehende Eltern und Menschen, die kein Niederländisch sprechen, als Betrüger dar. Die Folgen waren verheerend: viele verloren ihre Häuser und wurden von ihren Kindern getrennt.
Die Gefahren der Standardisierung
Die EU hat CEN-CENELEC, die europäische Standardisierungsbehörde, beauftragt, diese Standards zu entwickeln. Dies bedeutet, dass die Standards als EU-Recht betrachtet werden. Wenn ein Unternehmen die Standards einhält, erfüllt es auch die Anforderungen des AI Acts. Diese Tatsache gibt der Industrie die Möglichkeit, den AI Act zu gestalten und zu definieren, wie er umgesetzt wird.
Die Forschung zur Standardisierung zeigt, dass es sich um einen sehr industriegeprägten Prozess handelt, in dem die Interessen der Zivilgesellschaft oft nicht berücksichtigt werden. Von den 150 identifizierten Experten, die an der Standardisierung beteiligt sind, repräsentieren 54 Unternehmen, während nur 9 % aus der Zivilgesellschaft kommen.
Schlussfolgerung
Es ist entscheidend, dass die Entscheidungen über grundlegende Rechte nicht von einer privaten Einrichtung dominiert werden, die von Industrieexperten beherrscht wird. Der AI Act muss in einem demokratischen Rahmen diskutiert und entschieden werden, um sicherzustellen, dass die Technologie zum Nutzen aller Bürger eingesetzt wird und nicht hinter verschlossenen Türen entschieden wird.