AI-Governance: Menschenrechte im Spannungsfeld zwischen Tech-Giganten und Autoritarismus
Im September 2025 wurde ein dringendes Thema in der globalen Diskussion über Künstliche Intelligenz (KI) angesprochen: die Kontrolle und Regulierung dieser Technologie, die zunehmend in das tägliche Leben eindringt. Die Anwendung von KI in Überwachungssystemen, militärischen Operationen und anderen kritischen Bereichen wirft essentielle Fragen über Menschenrechte und Governance auf.
Die Realität der KI-Überwachung
Algorithmen entscheiden in Gebieten wie Gaza über Leben und Tod, während KI-gestützte Überwachungssysteme Journalisten in Ländern wie Serbien verfolgen. Diese Szenarien sind kein dystopisches Fiktion, sondern die Realität von heute. Die Technologien, die entwickelt werden, um unser Leben zu verbessern, werden oft auch als Werkzeuge zur Kontrolle eingesetzt.
Governance-Defizite
Im August 2025 verabschiedete die UN-Generalversammlung eine Resolution zur Schaffung internationaler Mechanismen zur Regulierung von KI, darunter ein Unabhängiges Internationales Wissenschaftliches Gremium für KI und ein Globaler Dialog zur KI-Governance. Diese Resolution stellt einen ersten positiven Schritt dar, doch der Verhandlungsprozess offenbarte tiefe geopolitische Brüche.
Geopolitische Spannungen und Ansätze
China verfolgt im Rahmen seiner Global AI Governance Initiative einen staatlich geführten Ansatz, der die Zivilgesellschaft von Governance-Diskussionen ausschließt und sich als Führer des globalen Südens positioniert. Im Gegensatz dazu hat die USA unter der Regierung von Donald Trump Technonationalismus angenommen, wobei KI als Instrument für wirtschaftliche und geopolitische Vorteile betrachtet wird. Diese gegensätzlichen Ansätze verdeutlichen die Schwierigkeiten bei der Schaffung eines einheitlichen Regulierungsrahmens.
Der europäische Ansatz
Die Europäische Union hat mit dem AI Act, der im August 2026 in Kraft tritt, Fortschritte gemacht. Dieser regulative Rahmen verbietet KI-Systeme, die als „inakzeptabel“ eingestuft werden, und erfordert Transparenzmaßnahmen für andere. Allerdings gibt es besorgniserregende Lücken, wie die Genehmigung von Live-Gesichtserkennung mit unzureichenden Schutzmaßnahmen, die insbesondere Minderheiten und Migranten gefährden können.
Umwelt- und Klimafragen
Zusätzlich zu den sozialen und politischen Herausforderungen bringt die KI-Entwicklung auch erhebliche klimatische und umwelttechnische Auswirkungen mit sich. Die Interaktion mit KI-Chatbots verbraucht signifikant mehr Energie als herkömmliche Internetanfragen, was zu einem Anstieg des Energieverbrauchs durch Rechenzentren führt. Diese Entwicklungen stehen im Widerspruch zu den globalen Bemühungen um die Bekämpfung des Klimawandels.
Dringlichkeit einer umfassenden Governance
Die derzeitige Mischung aus regionalen Vorschriften, nicht verbindlichen internationalen Resolutionen und laxen Branchenregulierungen reicht bei weitem nicht aus, um die Technologie angemessen zu steuern. Der Fokus auf nationale Interessen und der Selbstschutz der Staaten behindern die Schaffung eines umfassenden Governance-Modells, das den Bedürfnissen der Gesellschaft und den universellen Rechten Rechnung trägt.
Der Weg nach vorne
Um die Governance von KI zu verbessern, ist es entscheidend, dass die internationale Gemeinschaft verbindliche Vereinbarungen zu autonomen Waffensystemen stärkt, die seit über einem Jahrzehnt in UN-Diskussionen feststecken. Die EU sollte die Lücken im AI Act schließen, insbesondere in Bezug auf militärische Anwendungen und Überwachungstechnologien. Regierungen weltweit müssen Mechanismen zur Koordination etablieren, um der Kontrolle durch Tech-Giganten über die KI-Entwicklung entgegenzuwirken.
Fazit: Die Frage der KI-Governance betrifft nicht nur technische oder wirtschaftliche Aspekte, sondern auch die Verteilung von Macht und Verantwortung. Eine menschenrechtsorientierte Regulierung erfordert die aktive Teilnahme der Zivilgesellschaft und die Entschlossenheit, nationale Interessen hinter das Wohl der Menschheit zu stellen.