Die EU AI-Politik: Anpassung oder Kapitulation?
Die europäische AI-Politik hat sich in den letzten Monaten erheblich gewandelt. Vor nur 11 Monaten, als die europäischen Mitgesetzgeber das AI-Gesetz verabschiedeten, konnte die EU noch mit ihrem Status als regulatorische Supermacht prahlen. Zu diesem Zeitpunkt waren weitere Regeln in Planung, darunter detaillierte Richtlinien und Codes of Practice, um Unternehmen bei der rechtlichen Einhaltung zu unterstützen.
Doch die Situation hat sich dramatisch verändert. Zu Beginn des Jahres stellte die Durchsetzung des Digital Services Act fest. Anfang dieses Monats gab die Europäische Kommission bekannt, dass auch die AI Liability Directive auf Eis gelegt wurde. Diese Richtlinie sollte helfen, die Verantwortung zuzuweisen, wenn AI-Systeme Menschen schaden.
Der Politikwechsel
Was bedeutet dieser Politikwechsel? Ist es eine Kapitulation gegenüber den aggressiven Tech- und ‘America First’-Politiken Trumps? Oder ist die regulatorische Lockerung ein Zeichen einer intentionalen Strategie, die darauf abzielt, sich an ein sich veränderndes Umfeld anzupassen und die heimischen Unternehmen sowie die politischen Ziele der EU zu fördern? Diese Frage ist nicht nur rhetorischer Natur; sie steht im Zentrum der Legitimität des europäischen Projekts.
Kommissarin Henna Virkkunen steht unter Druck, den Eindruck eines Rückschritts unter amerikanischem Druck zu widerlegen. Wenn Europa zugibt, unter dem Druck der USA nachzugeben, leidet dessen Stolz und Glaubwürdigkeit. Die EU könnte dann nicht mehr behaupten, gleichberechtigt mit Großmächten wie China und den USA zu sein.
Regulatorische Erschöpfung
Die regulatorische Müdigkeit ist in Brüssel spürbar. Politiker, die geschäftsfreundlich sind, und Tech-Lobbyisten waren von Anfang an skeptisch gegenüber Regulationen. Selbst Unterstützer strenger Regeln zur Regulierung von Technologie scheinen desillusioniert zu sein. Es ist ein Unterschied, ambitionierte Gesetze zu schreiben, und einen effektiven Vollzug mit begrenzten Ressourcen zu gewährleisten.
Die AI Liability Directive fiel dem schwindenden regulatorischen Appetit zum Opfer. Die Entscheidung der Kommission, sie nicht weiter zu verfolgen, ist weniger ein Zeichen koordinierter Deregulierung als vielmehr eine simple Unfähigkeit, die notwendigen Kräfte zu mobilisieren.
Die Kräfte hinter der EU AI-Politik
Momentan ziehen drei Kräfte in verschiedene Richtungen an der EU-AI-Politik. Erstens fordern die Champions der Technologiewettbewerbsfähigkeit Deregulierung und eine Vertiefung der Märkte. Im Gegensatz dazu glauben die Kreuzritter der digitalen Souveränität, dass nur durch eine Form des Entwicklungsmodells die übermäßige Abhängigkeit von US-Firmen beendet werden kann.
Während diese Ansätze um Dominanz kämpfen, entzieht eine dritte Kraft, die Trägheit und Entropie der Brüsseler Bürokratie, beiden Energie. Die Mitgliedstaaten haben bewusst vermieden, eine durchsetzungsfähige Exekutive zu schaffen, was nun zu einem Problem wird.
Die Zukunft der EU AI-Politik
Ob eine neo-liberale oder hawkish-realist Perspektive die Oberhand gewinnt oder ob überhaupt keine kohärente Politik entsteht, bleibt abzuwarten. Für eine wirksame Handlung in diesem Jahr oder im nächsten muss die digitale Souveränität eine Chefsache bleiben.
In der Zwischenzeit könnte die Verteidigung von Putin durch Trump Europa in eine weitere Krise stürzen. Die größte Bedrohung ist jetzt ein beschwichtigtes und ermutigtes Russland, nicht ein technologisch dominantes Amerika. Die Schaffung einer digital souveränen EU erfordert ständige Koordination und Druck von den höchsten politischen Ebenen, andernfalls könnte das Projekt scheitern.