EU AI Act weit risikobewusster als der US AI Action Plan
In einer jüngsten Diskussion über die Regulierung von KI wird deutlich, dass der EU AI Act wesentlich risikobewusster ist als der aktuelle US AI Action Plan. Während der US-Plan sich auf Innovation, Infrastruktur und internationale Diplomatie konzentriert, fordert die EU klare Vorschriften für hochriskante Systeme.
Die drei Säulen des US AI Action Plans
Der US AI Action Plan, der noch in der Entwicklungsphase ist, basiert auf drei Hauptsäulen:
- Innovation: Förderung von Technologien und Anwendungen.
- Infrastruktur: Entwicklung von Energieversorgung zur Unterstützung von KI.
- Internationale Diplomatie: Positionierung der USA als globalen Führer in der KI.
Die erste Säule betont die Wichtigkeit der Freiheit der Meinungsäußerung für grundlegende Modelle, was im Vergleich zu den strengeren EU-Vorgaben Risiken birgt.
Der EU AI Act
Im Gegensatz dazu ist der EU AI Act, der 2024 verabschiedet wurde, ein umfassendes Regelwerk, das verbindliche Anforderungen für hochriskante Systeme wie biometrische Überwachung und KI in der Bildung festlegt. Unternehmen, die gegen diese Vorschriften verstoßen, können mit Geldstrafen von bis zu 7% des globalen Umsatzes rechnen.
Innovations- versus Regulierungstension
Ein zentrales Thema der Diskussion ist das Spannungsverhältnis zwischen Innovation und Regulierung. Vorschläge für ein Moratorium bei staatlichen KI-Gesetzgebungen könnten die Fähigkeit der Bundesstaaten einschränken, spezifische lokale Herausforderungen zu bewältigen.
Die Rolle der Beschaffung in der KI-Regulierung
Die Beschaffung spielt eine entscheidende Rolle bei der Regulierung, indem sie akzeptable Fehlerniveaus definiert und die Datenbesitzverhältnisse in internen Vereinbarungen klärt. Der Fokus auf Vielfalt in Beschaffungsteams ist ebenfalls wichtig, um kulturelle Sensitivitäten und rechtliche Implikationen zu berücksichtigen.
Zukünftige Herausforderungen und Chancen
Mit Blick auf die Zukunft gibt es sowohl Chancen als auch Risiken in Bereichen wie KI-Agenten und synthetischen Daten. Die Governance und Haftung in diesen Bereichen bleiben unklar, während synthetische Daten, insbesondere im Gesundheitswesen, strenge Kontrollen benötigen, um schädliche Ergebnisse zu vermeiden.
Abschließend ist die Effektivität der Prozesse stark von den beteiligten Personen abhängig. Organisationen müssen sicherstellen, dass ihre Teams über das notwendige Wissen verfügen, um verantwortungsvolle KI zu fördern.