Von Huaweigate bis zum KI-Gesetz: Die Gefahren unerkannter Bias

Von Huaweigate zum AI Act: Wie Vorurteile eingebaut werden

In der vergangenen Woche wurde Brüssel von einem weiteren Korruptionsskandal erschüttert. Diesmal ist es der chinesische Technologieriese Huawei, dessen Büros in der Nähe des Europäischen Parlaments durchsucht wurden – zusammen mit den Büros von 15 ehemaligen und aktuellen Abgeordneten des Europäischen Parlaments (MEPs) aus den Gruppen EPP und S&D. Laut belgischen Staatsanwälten wird Huawei wegen „aktiver Korruption im Europäischen Parlament“ untersucht, einschließlich „Vergütung für politische Positionen, übermäßige Geschenke wie Essen und Reisekosten sowie regelmäßige Einladungen zu Fußballspielen … mit dem Ziel, rein private kommerzielle Interessen im Kontext politischer Entscheidungen zu fördern“.

Diese Ermittlungen wurden von Follow the Money, Le Soir und Knack durchgeführt, wobei die Polizei 21 Adressen in Brüssel, Flandern, Wallonien und Portugal durchsucht und mehrere Personen festgenommen hat. Aber während alle Augen auf Huawei und China gerichtet sind, möchte ich auf einen tiefergehenden, systemischen Skandal hinweisen, der sowohl bei Qatargate als auch jetzt zu finden ist: das langanhaltende Versagen der europäischen Institutionen, die Demokratie angemessen vor Einflussoperationen zu schützen.

Systemische Mängel in der Lobbyüberwachung

Es gibt anhaltende und systematische Mängel in der Lobbyüberwachung, der Transparenz und der Durchsetzung von Ethik, einschließlich der Geschenke an MEPs und Interessenkonflikten. Die EU muss die Implementierung des Ethikkörpers konsolidieren und beschleunigen, um gemeinsame ethische Standards über alle EU-Institutionen hinweg zu schaffen.

In diesem Kontext wird auch der AI Act relevant. Der AI Act hat das Ziel, sicherzustellen, dass künstliche Intelligenz (KI) von der Gesellschaft maximal angenommen wird. Dies geschieht unter dem Vorwand, KI vertrauenswürdig zu machen. Doch diese kommerzielle Zielsetzung birgt Gefahren.

Die Rolle von großen Tech-Unternehmen

Der Bericht, der im Januar veröffentlicht wurde, fokussiert sich auf den Standardisierungsprozess des AI Acts. Dabei wurde enthüllt, dass viele der weltweit größten Technologiekonzerne – darunter auch Huawei – tief in die Schaffung nachsichtiger, leichter Standards involviert sind, die das Risiko bergen, den AI Act der EU zu untergraben. Diese privaten Standardisierungsorganisationen schreiben mit wenig bis gar keiner Transparenz Regeln, die rechtlichen Status in der EU haben.

Ein Beispiel für die problematischen Auswirkungen von KI ist der Einsatz eines Algorithmus in den Niederlanden zur Betrugserkennung im Zusammenhang mit Kindergeld. Der Algorithmus war extrem voreingenommen und stellte insbesondere alleinstehende Eltern und Menschen, die kein Niederländisch sprechen, als Betrüger dar. Die Folgen waren verheerend: viele verloren ihre Häuser und wurden von ihren Kindern getrennt.

Die Gefahren der Standardisierung

Die EU hat CEN-CENELEC, die europäische Standardisierungsbehörde, beauftragt, diese Standards zu entwickeln. Dies bedeutet, dass die Standards als EU-Recht betrachtet werden. Wenn ein Unternehmen die Standards einhält, erfüllt es auch die Anforderungen des AI Acts. Diese Tatsache gibt der Industrie die Möglichkeit, den AI Act zu gestalten und zu definieren, wie er umgesetzt wird.

Die Forschung zur Standardisierung zeigt, dass es sich um einen sehr industriegeprägten Prozess handelt, in dem die Interessen der Zivilgesellschaft oft nicht berücksichtigt werden. Von den 150 identifizierten Experten, die an der Standardisierung beteiligt sind, repräsentieren 54 Unternehmen, während nur 9 % aus der Zivilgesellschaft kommen.

Schlussfolgerung

Es ist entscheidend, dass die Entscheidungen über grundlegende Rechte nicht von einer privaten Einrichtung dominiert werden, die von Industrieexperten beherrscht wird. Der AI Act muss in einem demokratischen Rahmen diskutiert und entschieden werden, um sicherzustellen, dass die Technologie zum Nutzen aller Bürger eingesetzt wird und nicht hinter verschlossenen Türen entschieden wird.

More Insights

CII fordert klare Regeln für den Einsatz von KI im Finanzsektor

Der Chartered Insurance Institute (CII) hat klare Verantwortungsrahmen und eine sektorweite Schulungsstrategie gefordert, um den Einsatz von Künstlicher Intelligenz (KI) im Finanzdienstleistungssektor...

Künstliche Intelligenz in New York: Wichtige Gesetzesänderungen für Arbeitgeber im Jahr 2025

Im ersten Halbjahr 2025 hat New York, ähnlich wie andere Bundesstaaten, Gesetze zur Regulierung von Künstlicher Intelligenz (KI) auf Ebene der Bundesstaaten eingeführt. Insbesondere konzentriert sich...

Risikomanagement für Künstliche Intelligenz: Strategien zur Minimierung von Gefahren

Die Risiken von KI-Systemen können durch verschiedene Faktoren wie Datenqualität, Modellarchitektur und betriebliche Herausforderungen beeinflusst werden. Ein effektives Risikomanagement ist...

Wichtige Erkenntnisse zum EU-Gesetz über Künstliche Intelligenz

Die Europäische Union hat das Gesetz über künstliche Intelligenz (AI Act) eingeführt, das darauf abzielt, die Risiken und Möglichkeiten von KI-Technologien in Europa zu verwalten. Dieses Gesetz ist...

Koreas KI-Grundgesetz: Ein neuer Rahmen für künstliche Intelligenz

Südkorea hat sich mit dem Inkrafttreten des Gesetzes über die Entwicklung von Künstlicher Intelligenz und die Schaffung von Vertrauen, bekannt als AI Basic Act, an die Spitze der KI-Regulierung in...

EU AI-Gesetz und DORA: Finanzielle Risiken und Compliance neu definiert

Die EU AI Act und DORA stellen neue Anforderungen an Finanzinstitute, indem sie Transparenz und Resilienz in der Nutzung von KI-Systemen fordern. Unternehmen müssen die finanziellen Risiken...

KI-Regulierung im transatlantischen Kontext

Künstliche Intelligenz (KI) hat sich zu einer der bedeutendsten technologischen Kräfte der Gegenwart entwickelt und hat das Potenzial, Volkswirtschaften, Gesellschaften und die globale Governance...

EU-Kommission plant Maßnahmen zur Förderung von KI-Gigafabriken

Die EU-Kommission möchte die Hürden für den Einsatz von Künstlicher Intelligenz (KI) abbauen und plant, die Infrastruktur für Datenzentren in Europa erheblich auszubauen. Dies geschieht im Rahmen des...