Board Governance von KI und aufkommenden Technologien
Die Governance von Künstlicher Intelligenz (KI) und aufkommenden Technologien ist ein zunehmend wichtiges Thema in Vorstandsetagen. Diese Technologien bieten nicht nur Innovationsmöglichkeiten zur Steigerung der Wettbewerbsfähigkeit, sondern bringen auch Risiken mit sich, die die Vorteile gefährden können.
Risiken und Chancen
Die Einführung von generativer KI (Gen AI) hat eine Diskussion über deren Auswirkungen auf die Unternehmensstrategie ausgelöst. CEOs, wie Sam Altman von OpenAI, berichteten von über einer Million Nutzern innerhalb weniger Tage nach der Veröffentlichung von ChatGPT. Dies zeigt das rasante Wachstum und die potenziellen Renditen, die mit solchen Technologien verbunden sind.
Allerdings müssen Unternehmen auch die unbeabsichtigten Konsequenzen und die Handelsausgleiche zwischen den Vorteilen und Risiken der KI-Nutzung in Betracht ziehen. Risiken können finanzielle, operationale und reputationsbezogene Aspekte umfassen.
Regulierung von KI
Die Regulierung von KI in den USA ist derzeit dezentralisiert, ohne umfassende bundesstaatliche Vorschriften. Ein Beispiel ist das Colorado AI Act von 2024, das Anforderungen an Anbieter und Nutzer von KI-Systemen stellt, um Verbraucher vor algorithmischer Diskriminierung zu schützen.
Auf europäischer Ebene gibt es den EU AI Act, das umfassendste KI-Regulierungsgesetz bis heute, das KI-Systeme in vier risikobasierte Kategorien unterteilt:
- Werbung
- Verbotene oder inakzeptable Risiken
- Hohes Risiko
- Systeme, die Transparenzpflichten auslösen
- Allgemeine Systeme
Dieser Gesetzesentwurf gilt für alle Teilnehmer der KI-Wertschöpfungskette und betrifft auch Anbieter außerhalb der Europäischen Union, wenn die Systeme innerhalb der EU genutzt werden.
AI und Unternehmensstrategie
Die Frage, ob die Aufsicht über die KI-Einführung auf Vorstandsebene oder auf Ebene der Ausschüsse liegen sollte, ist umstritten. Einige Unternehmen haben multidisziplinäre KI-Arbeitsgruppen schnell eingerichtet, während andere lediglich iterative Proofs of Concept durchgeführt haben.
Ein Beispiel für die Herausforderungen der KI-Einführung ist die Notwendigkeit, dass KI nicht als „von der Stange“ implementiert werden kann; jede Implementierung muss kontextspezifisch sein.
Aufsicht durch Ausschüsse
Die Aufsicht über die KI-Einführung wird häufig an bestehende Prüfungs- oder Risikokommissionen delegiert. Diese Ausschüsse müssen Fragen klären, wie die Auswirkungen der KI-Nutzung auf die Finanzberichterstattung.
Ein Beispiel, das 2023 auftrat, ist der Fall eines multinationalen Elektronikunternehmens, das die Nutzung von Gen AI durch Mitarbeiter untersagte, nachdem proprietärer Code exponiert wurde.
Kommissionen für Vergütung und Humankapital
Die Governance des Humankapitals wird durch die Automatisierung von Prozessen wie der Auswahl von Bewerbern kompliziert. Ein Beispiel ist ein automatisiertes Einstellungswerkzeug, das Geschlechtervorurteile aufwies und das Bewerber mit Abschlüssen von Frauenhochschulen benachteiligte.
Die Herausforderungen in der Auswahl und der Bewertung von Talenten erfordern eine genaue Überwachung, um Diskriminierung zu vermeiden und die Ethik der Algorithmen sicherzustellen.
ESG-Ausschüsse
Ein weiterer Diskussionspunkt ist die Verwendung von KI in der ESG-Management. Während KI bei der Datensammlung und Compliance helfen kann, müssen auch die Umweltauswirkungen berücksichtigt werden.
Governance- und Nominierungsausschüsse
Die Diskussion über die Optimierung der Vorstandszusammensetzung umfasst auch die Frage, ob ausreichend technologische Expertise vorhanden ist, um die Aufsichtsvorgaben zu erfüllen.
Entwicklungen 2025
Im Jahr 2025 gab es bedeutende Veränderungen im Technologiebereich, einschließlich der Regulierung und Kapitalausgaben. Eine neue Exekutivverordnung zur KI signalisierte einen Wechsel hin zu einer Deregulierung und wettbewerblichen Fortentwicklung.
Die Entwicklungen zeigen die Notwendigkeit für Vorstände, Vigilanz in ihrer Aufsichtsfunktion auszuüben und sich weiterhin im Bereich KI und aufkommender Technologien fortzubilden.