KI-Standards zum Schutz der Verwundbaren in Amerika

Gestaltung von KI-Standards zum Schutz der verwundbarsten Amerikaner: Technologische Innovatoren

Die aktuellen politischen Rahmenbedingungen in den USA destabilisieren die Lebensumstände vieler Gruppen, während die Technologiebranche gleichzeitig floriert. Bei der Inauguration waren die CEOs großer Technologieunternehmen im Mittelpunkt und die Regierung hat eine Reihe von Exekutivbefehlen erlassen, um die Einführung von Künstlicher Intelligenz (KI) zu beschleunigen.

Am 3. Juni 2025 gab der Handelsminister Howard Lutnick eine Reform des National Institute of Standards and Technology (NIST) bekannt. Die Umbenennung des US AI Safety Institute (USAISI) in US Center for AI Standards and Innovation (CAISI) ist ein Zeichen für eine verstärkte Fokussierung auf nationale Sicherheit und Wettbewerbsfähigkeit der USA.

Ziele des CAISI

Das CAISI soll die Fähigkeit des Handelsministeriums verbessern, KI-Fähigkeiten zu verstehen und sowohl inländische als auch ausländische Bedrohungen im Bereich KI zu identifizieren. Der Fokus liegt auf der nationalen Sicherheit und der Sicherstellung, dass die USA die internationalen KI-Standards dominieren.

Im Gegensatz zur ursprünglichen Mission des USAISI, die auf die wissenschaftliche Sicherheit von KI durch Zusammenarbeit abzielte, wird das CAISI als Hauptkontaktstelle der Industrie fungieren. Dies könnte zu Spannungen zwischen den Interessen der Industrie, der Akademie und der Zivilgesellschaft führen.

Die Herausforderung von Vorurteilen und Diskriminierung

Die Notwendigkeit, Vorurteile und Diskriminierung in KI-Systemen zu adressieren, wurde bereits zu Beginn des USAISI angesprochen. In einem Workshop im November 2023 wurde betont, dass diese Themen in alle Arbeitsgruppen integriert werden müssen. Leider wurden diese Bedenken nicht ausreichend behandelt.

Die Umwandlung der Arbeitsgruppe „Gesellschaft und Technologie“ in die Gruppe „Sicherheit und Schutz“ zeigt den Konflikt zwischen den Bemühungen um KI-Sicherheit und den Bedürfnissen der Gesellschaft.

Internationale Zusammenarbeit und Forschung

Die Gründung der AISIs fiel mit einem globalen Trend zur internationalen Zusammenarbeit im Bereich KI-Sicherheit zusammen. Die AI Safety Summits sollten dazu dienen, internationale Partner zusammenzubringen und eine gemeinsame Basis für sichere und vertrauenswürdige KI-Innovation zu schaffen.

Die derzeitige Ausrichtung des CAISI könnte jedoch die internationale Zusammenarbeit gefährden, da sie sich gegen regulatorische Maßnahmen wendet, die von ausländischen Regierungen auferlegt werden.

Forschung und nationale Sicherheitsinteressen

Die Forschungsagenda vieler Länder wird zunehmend durch nationale Sicherheitsinteressen dominiert. In Großbritannien hat sich das AI Safety Institute in ein UK AI Security Institute verwandelt, das sich auf die Risiken konzentriert, die KI für die nationale Sicherheit darstellt. Aspekte wie Vorurteile und Meinungsfreiheit werden dabei nicht berücksichtigt.

Diese Entwicklung könnte bedeuten, dass viele gut dokumentierte Schäden, die durch KI verursacht werden, nicht mehr ausreichend erforscht und adressiert werden.

Schlussfolgerung

Die Veränderungen im USAISI verdeutlichen die dominierenden Prioritäten der Industrie und der nationalen Sicherheit in der amerikanischen KI-Politik. In einer Zeit, in der die Forschung nach multidisziplinärer Zusammenarbeit ruft, scheinen Regierungen und Technologieunternehmen einem gierigen Machtstreben nachzugeben.

Die Zukunft der KI-Wissenschaft und der Rechenschaftspflicht steht auf der Kippe, während die Industrie ihre Position neben dem Thron festigt.

More Insights

EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

Quebecs KI-Politik für Hochschulen und Cégeps

Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

Neue AI-Strategie: Technisches Sekretariat statt Regulator

Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

KI-Sicherheit als Motor für Innovation in Schwellenländern

Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...