Aufsicht über KI: Bewertung, Prüfung und Gewährleistung

Was Vorstände von KI verlangen sollten: Bewertung, Prüfung und Garantie

In einem vorherigen Artikel wurde argumentiert, dass die Governance von KI über die Aufsicht von Technologieprojekten hinausgeht und nun sicherstellen muss, dass KI-gestützte Entscheidungen innerhalb der Organisation mit der Strategie, der Risikobereitschaft und den ethischen Standards in Einklang stehen. Eine naheliegende Folgefrage für Vorstände ist: Wie kann eine Organisation überprüfen, ob ihre KI-Systeme tatsächlich wie beabsichtigt, verantwortungsvoll und innerhalb definierter Grenzen funktionieren?

Drei verwandte, aber unterschiedliche Konzepte

Es ist hilfreich, präzise darüber zu sein, was jeder Begriff bedeutet, da sie häufig austauschbar verwendet werden, obwohl sie es nicht sein sollten.

KI-Risikoanalyse ist der interne Prozess, durch den eine Organisation die mit ihren KI-Systemen verbundenen Risiken identifiziert, bewertet und priorisiert. Sie fragt, was schiefgehen könnte, wie wahrscheinlich das ist und welche Auswirkungen dies hätte. Dies ist die Grundlage, auf der alles andere aufbaut. Ohne eine glaubwürdige Risikoanalyse hat weder die Prüfung noch die Garantie eine sinnvolle Basis, auf der sie arbeiten können.

KI-Prüfung ist die unabhängige Untersuchung, ob ein KI-System oder der Governance-Rahmen, der es umgibt, definierten Standards, Richtlinien oder Anforderungen entspricht. Es handelt sich um einen evidenzbasierten Prozess, der von einer Partei durchgeführt wird, die ausreichend unabhängig von den Verantwortlichen für das System ist. Eine KI-Prüfung könnte bewerten, ob die KI-Managementpraktiken einer Organisation einem international anerkannten Standard entsprechen oder ob ein spezifisches Modell innerhalb genehmigter Parameter und ohne unbeabsichtigte Verzerrungen funktioniert.

KI-Garantie ist die formale, gegenüber den Stakeholdern gerichtete Schlussfolgerung, die aus diesem Prüfungsprozess hervorgeht. Es handelt sich um die professionelle Meinung, die von einer qualifizierten und unabhängigen Partei abgegeben wird und den Vorständen, Regulierungsbehörden, Investoren und der Öffentlichkeit Vertrauen gibt, dass ein KI-System oder ein KI-Managementrahmen einen definierten Standard erfüllt.

Implikationen für Vorstände

Drei praktische Implikationen ergeben sich aus diesem Rahmenwerk:

Erstens sollten Vorstände fragen, ob ihre Organisationen umfassende KI-Risikoanalysen für wesentliche Systeme durchgeführt haben. Dies sollte kein einmaliges Unterfangen sein, sondern ein fortlaufender Prozess, der aktualisiert wird, wenn Modelle neu trainiert werden, Anwendungsfälle sich erweitern und die regulatorische Umgebung sich verändert.

Zweitens sollten Vorstände zwischen interner und externer KI-Prüfung unterscheiden. Interne Prüfungsfunktionen spielen eine entscheidende Rolle bei der Gewährleistung, dass KI-Kontrollen wie vorgesehen funktionieren. Vorstände sollten jedoch auch in Betracht ziehen, ob eine unabhängige, externe Prüfung wesentlicher KI-Systeme erforderlich ist.

Drittens sollten Organisationen, die öffentlich Verpflichtungen bezüglich ihrer KI-Praktiken eingehen, sicherstellen, dass diese Verpflichtungen durch glaubwürdige Garantien untermauert werden. Behauptungen ohne unabhängige Validierung sind ein potenzielles Reputationsrisiko.

Fazit

Die Infrastruktur für KI-Garantien wird derzeit noch aufgebaut. Die professionellen Standards entwickeln sich weiter, und die Kompetenzen der Prüfer in den Bereichen KI, algorithmische Verzerrungen und Datenverwaltung sind noch nicht einheitlich entwickelt. Für Organisationen, die noch nicht bereit sind, formelle Garantien zu verfolgen, ist dies jedoch kein Grund, stillzustehen.

Ein strukturierter, regelmäßiger Bewertungsprozess wesentlicher KI-Systeme ist ein sinnvoller erster Schritt. Vorstände, die solche Bewertungen auch informell in Auftrag geben, entwickeln institutionelle Kompetenzen, die erforderlich sind, wenn regulatorische Anforderungen strenger werden.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...