A.I.-Governance: Risiken der Einführung ohne Kompetenz
Die rasante Einführung von KI in Unternehmen birgt Governance-Risiken, insbesondere wenn die Mitarbeitenden nicht über die erforderliche Kompetenz verfügen, um die Systeme verantwortungsvoll zu nutzen. Um diese Risiken zu minimieren, ist es entscheidend, in die Schulung der Mitarbeitenden zu investieren und klare Verantwortungsstrukturen zu schaffen.
A.I. Adoption Without Literacy Is a Governance Risk
In einer Zeit, in der Unternehmen A.I. in ihren Betrieb integrieren, stagniert die Debatte über Governance an der falschen Stelle. Regulierungsbehörden diskutieren über Vorschriften, politische Entscheidungsträger erörtern Schutzmaßnahmen und Entwickler streiten über technische Kontrollen. Diese Fragen sind wichtig, aber sie übersehen den unmittelbarsten Treiber für verantwortungsvolle A.I.-Governance: die Menschen, die diese Systeme täglich nutzen. Ohne Investitionen in die Fähigkeiten der Mitarbeitenden riskieren Organisationen, Schaden in ihren Betrieb einzubetten und haftbar zu werden, wenn etwas schiefgeht.
A.I. Adoption wartet nicht auf Governance
Unternehmen integrieren A.I.-Werkzeuge, wo immer sie können, um Effizienz und Einnahmen zu steigern, mit oder ohne existierende Aufsicht. Neueste Nachrichten aus dem U.K. verdeutlichen diese Spannung zwischen Governance und Innovation. In derselben Woche, in der das Treasury Committee warnte, dass die ad-hoc-Akzeptanz von A.I. im Finanzsektor „ernsthaften Schaden“ für die Gesellschaft und die Wirtschaft verursachen könnte, gab die Lloyds Banking Group bekannt, dass die A.I.-Akzeptanz ihren Umsatz 2025 um £50 Millionen erhöht hat.
Das Governance-Risiko besteht also nicht nur darin, dass A.I. schnell voranschreitet. Es ergibt sich auch daraus, dass A.I. in Arbeitsumgebungen eingebettet wird, in denen die Mitarbeitenden nicht in der Lage sind, ihre Einschränkungen, Fehler oder Compliance-Aspekte zu verstehen. Diese Lücke ist der Ort, an dem neue Governance-Bedenken aufkommen.
Die Governance-Risiken der A.I.-Einführung ohne Literacy
Die vorhersehbarste Folge einer schlecht gesteuerten A.I.-Akzeptanz ist das, was Fachleute als „Shadow A.I.“ bezeichnen. Ohne formale Schulung greifen Mitarbeitende auf nicht genehmigte, konsumertaugliche Werkzeuge zurück, um berufliche Aufgaben zu erledigen, oft ohne Offenlegung. Im U.K. geben 81 Prozent der A.I.-Nutzer an, ihre A.I.-Nutzung nicht gegenüber Vorgesetzten offenzulegen. Sensible Unternehmensdaten können in öffentliche Modelle eingegeben werden, die Eingaben für weiteres Training speichern oder wiederverwenden, was neue regulatorische und reputationsbezogene Risiken schafft.
Das Problem verstärkt sich, wenn Mitarbeitende nicht verstehen, wie A.I. tatsächlich funktioniert. Sie könnten A.I. als faktengestützte Suchmaschine anstatt als musterbasierte Denkmaschine betrachten und versäumen, die Genauigkeit ihrer Ergebnisse kritisch zu bewerten. Ein Beispiel sind häufig berichtete Fälle von Anwälten, die für die Einreichung von A.I.-generierten „Halluzinationen“ in Gerichtsunterlagen sanktioniert wurden. Wenn Nutzer A.I.-Ergebnisse nicht effektiv bewerten können, trägt ihr Arbeitgeber die Haftung, was das Vertrauen bei Klienten und Regulierungsbehörden untergräbt.
Vorurteile stellen eine weitere Governance-Herausforderung dar. A.I.-Systeme übernehmen Muster aus ihren Trainingsdaten. Wenn Mitarbeitende diskriminierende Ergebnisse nicht erkennen, riskieren sie, systemische Vorurteile in operative Entscheidungen einzubetten. Im Jahr 2021 wurde dieses Problem in den USA durch Berichte hervorgehoben, die ergaben, dass automatisierte Kreditvergabesysteme bis zu 80 Prozent der Hypothekenanträge von schwarzen Antragstellern ablehnten. Ähnliche Probleme traten später bei Algorithmen auf, die zur Bewertung von Sozialhilfen und Stellenbewerbungen verwendet werden. Aus einer Governance-Perspektive schafft dies erhebliche ethische, rechtliche und reputationsbezogene Risiken und hat weitreichende Auswirkungen auf Menschenrechte und soziale Gerechtigkeit.
Sogar wenn keine Schäden eintreten, schränkt eine unzureichende Umsetzung die Rendite der Investitionen ein. Technologierollouts sind nicht gleichbedeutend mit digitaler Transformation. Ohne überarbeitete Arbeitsabläufe und geschulte Mitarbeitende erzielt A.I. fragmentierte Produktivitätsgewinne statt eines unternehmensweiten Einflusses.
Governance von Grund auf aufbauen
In Europa wird die Dimension der Mitarbeitenden in der Governance bereits anerkannt. Der EU A.I. Act verankert A.I.-Literacy als gesetzliche Anforderung für Mitarbeitende, die mit A.I.-Systemen arbeiten. In Ermangelung entsprechender Regelungen in den USA müssen Unternehmen diese Initiative selbst vorantreiben. Basierend auf unserer Erfahrung in der Beratung von Organisationen zur A.I.-Governance beruht ein glaubwürdiger Bottom-up-Ansatz auf drei miteinander verbundenen Grundlagen.
Die erste Grundlage ist A.I.-Literacy, differenziert nach Rolle. Für Führungskräfte bedeutet Literacy, die richtigen Fragen zu stellen: Wie überwachen wir Vorurteile? Wer ist verantwortlich für die Modellleistung? Wann übersteigt die menschliche Überprüfung die A.I.-Ergebnisse? Führungskräfte müssen in der Lage sein zu beurteilen, ob A.I. eine strategisch angemessene Antwort auf ein Geschäftsproblem ist, anstatt eine bequeme.
Für technische Teams bedeutet A.I.-Literacy verantwortungsvolle Datenverwaltung, Modellvalidierung, Leistungsüberwachung und Dokumentation. Für Endnutzer in anderen Rollen, wie beispielsweise Recruitern, die A.I.-Screening-Tools verwenden, Marketingfachleuten, die A.I.-unterstützte Kampagnen erstellen, oder Analysten, die generative A.I. als Rechercheassistenten nutzen, umfasst Literacy praktische und prozedurale Aspekte. Es geht darum, genehmigte Werkzeuge zu verstehen, Ergebnisse zu überprüfen, zu wissen, wie man Bedenken eskaliert, und menschliches Urteilsvermögen anzuwenden.
Die Organisationen, mit denen wir zusammenarbeiten und die ihren Wettbewerbern voraus sind, differenzieren die Schulung in Literacy nach Rolle und betrachten sie als operationale Fähigkeit, die mit Verantwortung verbunden ist.
Die zweite Grundlage sind aktualisierte Richtlinien und Verfahren. Klare Richtlinien für die akzeptable Nutzung reduzieren die Wahrscheinlichkeit von Shadow A.I., verhindern eine Überabhängigkeit von Ergebnissen und klären die Verantwortlichkeit für A.I.-unterstützte Entscheidungen.
Richtlinien, die A.I.-Lieferketten und Beschaffungen regeln, erfordern eine genaue Prüfung. A.I.-Anbieter sollten einer strukturierten Due-Diligence-Prüfung unterzogen werden, die Schulung, Datenverwaltung, Prozesse zur Vorurteilsminderung, Überwachungsfähigkeiten und vertragliche Klarheit über die Haftung umfasst. Wie wir im Kontext der Unternehmensnachhaltigkeit geschrieben haben, können selbst gut gemeinte Organisationen ihre Governance-Bemühungen untergraben, indem sie auf eine schlecht geprüfte Lieferkette zurückgreifen.
Die dritte Säule sind klare Verantwortungsstrukturen über den gesamten A.I.-Lebenszyklus. Dies kann funktionsübergreifende A.I.-Governance-Ausschüsse, Verantwortliche für verantwortungsvolle A.I., Aufsicht auf Vorstandsebene oder die Einbeziehung unabhängiger Prüfungsanbieter umfassen. Die Struktur variiert je nach Unternehmensgröße und Sektor. Wichtig ist, dass die Verantwortung klar ist und dass Governance in die Produktentwicklung, Beschaffung, Compliance und Risikomanagement integriert wird, anstatt als separate Übung behandelt zu werden.
Verantwortungsvolle A.I.-Governance als Investition, nicht als Einschränkung
Die Debatten über A.I.-Governance werden auf regulatorischer Ebene fortgesetzt. Standards werden sich entwickeln und die Durchsetzungslandschaften werden sich verändern. Viele dieser Faktoren liegen außerhalb der Kontrolle einzelner Unternehmen. Die Fähigkeit der Mitarbeitenden jedoch nicht.
Die Neugestaltung der A.I.-Governance um Mitarbeitendeninvestitionen, aktualisierte Richtlinien und klare Verantwortlichkeiten verlagert die Entscheidungsgewalt zurück zu den Geschäftsführern. Es bietet auch ein konstruktives Gegengewicht zu den Bedenken hinsichtlich der Arbeitsplatzverdrängung durch A.I.: Anstatt Arbeiter zu ersetzen, befähigt verantwortungsvolle A.I.-Governance sie und schult sie weiter. Die Organisationen, die dies ernst nehmen, werden besser in der Lage sein, Vertrauen bei Klienten, Regulierungsbehörden und der Öffentlichkeit aufrechtzuerhalten, während die Überprüfung der A.I.-Akzeptanz weiter zunimmt.