Von Huaweigate bis zum KI-Gesetz: Die Gefahren unerkannter Bias

Von Huaweigate zum AI Act: Wie Vorurteile eingebaut werden

In der vergangenen Woche wurde Brüssel von einem weiteren Korruptionsskandal erschüttert. Diesmal ist es der chinesische Technologieriese Huawei, dessen Büros in der Nähe des Europäischen Parlaments durchsucht wurden – zusammen mit den Büros von 15 ehemaligen und aktuellen Abgeordneten des Europäischen Parlaments (MEPs) aus den Gruppen EPP und S&D. Laut belgischen Staatsanwälten wird Huawei wegen „aktiver Korruption im Europäischen Parlament“ untersucht, einschließlich „Vergütung für politische Positionen, übermäßige Geschenke wie Essen und Reisekosten sowie regelmäßige Einladungen zu Fußballspielen … mit dem Ziel, rein private kommerzielle Interessen im Kontext politischer Entscheidungen zu fördern“.

Diese Ermittlungen wurden von Follow the Money, Le Soir und Knack durchgeführt, wobei die Polizei 21 Adressen in Brüssel, Flandern, Wallonien und Portugal durchsucht und mehrere Personen festgenommen hat. Aber während alle Augen auf Huawei und China gerichtet sind, möchte ich auf einen tiefergehenden, systemischen Skandal hinweisen, der sowohl bei Qatargate als auch jetzt zu finden ist: das langanhaltende Versagen der europäischen Institutionen, die Demokratie angemessen vor Einflussoperationen zu schützen.

Systemische Mängel in der Lobbyüberwachung

Es gibt anhaltende und systematische Mängel in der Lobbyüberwachung, der Transparenz und der Durchsetzung von Ethik, einschließlich der Geschenke an MEPs und Interessenkonflikten. Die EU muss die Implementierung des Ethikkörpers konsolidieren und beschleunigen, um gemeinsame ethische Standards über alle EU-Institutionen hinweg zu schaffen.

In diesem Kontext wird auch der AI Act relevant. Der AI Act hat das Ziel, sicherzustellen, dass künstliche Intelligenz (KI) von der Gesellschaft maximal angenommen wird. Dies geschieht unter dem Vorwand, KI vertrauenswürdig zu machen. Doch diese kommerzielle Zielsetzung birgt Gefahren.

Die Rolle von großen Tech-Unternehmen

Der Bericht, der im Januar veröffentlicht wurde, fokussiert sich auf den Standardisierungsprozess des AI Acts. Dabei wurde enthüllt, dass viele der weltweit größten Technologiekonzerne – darunter auch Huawei – tief in die Schaffung nachsichtiger, leichter Standards involviert sind, die das Risiko bergen, den AI Act der EU zu untergraben. Diese privaten Standardisierungsorganisationen schreiben mit wenig bis gar keiner Transparenz Regeln, die rechtlichen Status in der EU haben.

Ein Beispiel für die problematischen Auswirkungen von KI ist der Einsatz eines Algorithmus in den Niederlanden zur Betrugserkennung im Zusammenhang mit Kindergeld. Der Algorithmus war extrem voreingenommen und stellte insbesondere alleinstehende Eltern und Menschen, die kein Niederländisch sprechen, als Betrüger dar. Die Folgen waren verheerend: viele verloren ihre Häuser und wurden von ihren Kindern getrennt.

Die Gefahren der Standardisierung

Die EU hat CEN-CENELEC, die europäische Standardisierungsbehörde, beauftragt, diese Standards zu entwickeln. Dies bedeutet, dass die Standards als EU-Recht betrachtet werden. Wenn ein Unternehmen die Standards einhält, erfüllt es auch die Anforderungen des AI Acts. Diese Tatsache gibt der Industrie die Möglichkeit, den AI Act zu gestalten und zu definieren, wie er umgesetzt wird.

Die Forschung zur Standardisierung zeigt, dass es sich um einen sehr industriegeprägten Prozess handelt, in dem die Interessen der Zivilgesellschaft oft nicht berücksichtigt werden. Von den 150 identifizierten Experten, die an der Standardisierung beteiligt sind, repräsentieren 54 Unternehmen, während nur 9 % aus der Zivilgesellschaft kommen.

Schlussfolgerung

Es ist entscheidend, dass die Entscheidungen über grundlegende Rechte nicht von einer privaten Einrichtung dominiert werden, die von Industrieexperten beherrscht wird. Der AI Act muss in einem demokratischen Rahmen diskutiert und entschieden werden, um sicherzustellen, dass die Technologie zum Nutzen aller Bürger eingesetzt wird und nicht hinter verschlossenen Türen entschieden wird.

More Insights

AI-Rüstungswettlauf und die Auswirkungen von Tarifen auf den EU-AI-Gesetz

Tarife können sowohl als Hindernis als auch als potenzieller Katalysator für den Fortschritt von KI und Automatisierung wirken. In Kombination mit dem EU-KI-Gesetz ergeben sich komplexe...

Europäische Kommission: Aktionsplan für KI-Souveränität

Die Europäische Kommission hat ihren AI Continent Action Plan veröffentlicht, der darauf abzielt, Europa als globalen Führer im Bereich der künstlichen Intelligenz zu etablieren. Der Plan umfasst eine...

Die AI-Herausforderung: Singapur zwischen Innovation und Regulierung

Singapur steht vor der Herausforderung, ein Gleichgewicht zwischen Innovation und Regulierung im Bereich der Künstlichen Intelligenz (KI) zu finden. Angesichts von Bedenken hinsichtlich Datenschutz...

Verantwortliche KI im Finanzsektor

Lexy Kassan diskutiert die entscheidenden Aspekte von verantwortungsbewusstem KI-Einsatz, insbesondere im Hinblick auf regulatorische Aktualisierungen wie den EU AI Act und dessen Auswirkungen auf die...

Menschzentrierte KI: Wegbereiter für ethische und verantwortungsvolle KI-Agenten

In der sich ständig weiterentwickelnden Landschaft der künstlichen Intelligenz gewinnt das Gespräch über human-zentrierte KI (HCAI) an erheblicher Bedeutung. Diese Paradigmenwechsel ist nicht nur eine...

Der EU AI Act: Grundlagen der Regulierung von Künstlicher Intelligenz

Der EU AI Act markiert den Beginn einer neuen Ära der Regulierung von künstlicher Intelligenz in Europa. Er schafft ein einheitliches rechtliches Regime für alle EU-Mitgliedstaaten und zielt darauf...

EU-Kommission präsentiert Aktionsplan für KI-Entwicklung

Am 9. April 2025 verabschiedete die Europäische Kommission eine Mitteilung über den sogenannten AI Continent Action Plan – ihre Strategie zur Gestaltung der nächsten Phase der KI-Entwicklung in...

Aktualisierte KI-Modellvertragsklauseln der EU veröffentlicht

Die Gemeinschaft der Praxis der EU für öffentliche Beschaffung von KI hat am 5. März 2025 eine aktualisierte Version ihrer nicht verbindlichen EU AI-Modellvertragsklauseln veröffentlicht. Diese...

EU AI Gesetz: Emotionale Erkennungssysteme am Arbeitsplatz unter der Lupe

Emotionserkennungs-KI bezieht sich auf KI, die biometrische Daten wie Gesichtsausdrücke und Stimme verwendet, um Emotionen zu identifizieren und zu analysieren. Der EU AI Act verbietet die Verwendung...