Vorstandshandbuch für KI und aufkommende Technologien

Board Governance von KI und aufkommenden Technologien

Die Governance von Künstlicher Intelligenz (KI) und aufkommenden Technologien ist ein zunehmend wichtiges Thema in Vorstandsetagen. Diese Technologien bieten nicht nur Innovationsmöglichkeiten zur Steigerung der Wettbewerbsfähigkeit, sondern bringen auch Risiken mit sich, die die Vorteile gefährden können.

Risiken und Chancen

Die Einführung von generativer KI (Gen AI) hat eine Diskussion über deren Auswirkungen auf die Unternehmensstrategie ausgelöst. CEOs, wie Sam Altman von OpenAI, berichteten von über einer Million Nutzern innerhalb weniger Tage nach der Veröffentlichung von ChatGPT. Dies zeigt das rasante Wachstum und die potenziellen Renditen, die mit solchen Technologien verbunden sind.

Allerdings müssen Unternehmen auch die unbeabsichtigten Konsequenzen und die Handelsausgleiche zwischen den Vorteilen und Risiken der KI-Nutzung in Betracht ziehen. Risiken können finanzielle, operationale und reputationsbezogene Aspekte umfassen.

Regulierung von KI

Die Regulierung von KI in den USA ist derzeit dezentralisiert, ohne umfassende bundesstaatliche Vorschriften. Ein Beispiel ist das Colorado AI Act von 2024, das Anforderungen an Anbieter und Nutzer von KI-Systemen stellt, um Verbraucher vor algorithmischer Diskriminierung zu schützen.

Auf europäischer Ebene gibt es den EU AI Act, das umfassendste KI-Regulierungsgesetz bis heute, das KI-Systeme in vier risikobasierte Kategorien unterteilt:

  • Werbung
  • Verbotene oder inakzeptable Risiken
  • Hohes Risiko
  • Systeme, die Transparenzpflichten auslösen
  • Allgemeine Systeme

Dieser Gesetzesentwurf gilt für alle Teilnehmer der KI-Wertschöpfungskette und betrifft auch Anbieter außerhalb der Europäischen Union, wenn die Systeme innerhalb der EU genutzt werden.

AI und Unternehmensstrategie

Die Frage, ob die Aufsicht über die KI-Einführung auf Vorstandsebene oder auf Ebene der Ausschüsse liegen sollte, ist umstritten. Einige Unternehmen haben multidisziplinäre KI-Arbeitsgruppen schnell eingerichtet, während andere lediglich iterative Proofs of Concept durchgeführt haben.

Ein Beispiel für die Herausforderungen der KI-Einführung ist die Notwendigkeit, dass KI nicht als „von der Stange“ implementiert werden kann; jede Implementierung muss kontextspezifisch sein.

Aufsicht durch Ausschüsse

Die Aufsicht über die KI-Einführung wird häufig an bestehende Prüfungs- oder Risikokommissionen delegiert. Diese Ausschüsse müssen Fragen klären, wie die Auswirkungen der KI-Nutzung auf die Finanzberichterstattung.

Ein Beispiel, das 2023 auftrat, ist der Fall eines multinationalen Elektronikunternehmens, das die Nutzung von Gen AI durch Mitarbeiter untersagte, nachdem proprietärer Code exponiert wurde.

Kommissionen für Vergütung und Humankapital

Die Governance des Humankapitals wird durch die Automatisierung von Prozessen wie der Auswahl von Bewerbern kompliziert. Ein Beispiel ist ein automatisiertes Einstellungswerkzeug, das Geschlechtervorurteile aufwies und das Bewerber mit Abschlüssen von Frauenhochschulen benachteiligte.

Die Herausforderungen in der Auswahl und der Bewertung von Talenten erfordern eine genaue Überwachung, um Diskriminierung zu vermeiden und die Ethik der Algorithmen sicherzustellen.

ESG-Ausschüsse

Ein weiterer Diskussionspunkt ist die Verwendung von KI in der ESG-Management. Während KI bei der Datensammlung und Compliance helfen kann, müssen auch die Umweltauswirkungen berücksichtigt werden.

Governance- und Nominierungsausschüsse

Die Diskussion über die Optimierung der Vorstandszusammensetzung umfasst auch die Frage, ob ausreichend technologische Expertise vorhanden ist, um die Aufsichtsvorgaben zu erfüllen.

Entwicklungen 2025

Im Jahr 2025 gab es bedeutende Veränderungen im Technologiebereich, einschließlich der Regulierung und Kapitalausgaben. Eine neue Exekutivverordnung zur KI signalisierte einen Wechsel hin zu einer Deregulierung und wettbewerblichen Fortentwicklung.

Die Entwicklungen zeigen die Notwendigkeit für Vorstände, Vigilanz in ihrer Aufsichtsfunktion auszuüben und sich weiterhin im Bereich KI und aufkommender Technologien fortzubilden.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...