Warum GenAI ohne starke Governance ins Stocken gerät

Warum GenAI ohne starke Governance ins Stocken gerät

Bei der Umsetzung von Generative AI-Projekten stehen viele Unternehmen vor der Herausforderung, von der Experimentierphase in die Produktionsphase überzugehen. Aktuelle Forschungsergebnisse zeigen, dass 92% der Organisationen besorgt sind, dass GenAI-Pilotprojekte vorangetrieben werden, ohne zuerst grundlegende Datenprobleme anzugehen. Besonders alarmierend ist, dass 67% der Unternehmen nicht in der Lage waren, auch nur die Hälfte ihrer Pilotprojekte in die Produktion zu bringen. Diese Produktionslücke hängt weniger mit der technologischen Reife zusammen als vielmehr mit der Bereitschaft der zugrunde liegenden Daten. Das Potenzial von GenAI hängt von der Stärke des Fundaments ab, auf dem sie steht, und dieses Fundament ist für die meisten Organisationen bestenfalls wackelig.

Warum GenAI in der Pilotphase stecken bleibt

Obwohl GenAI-Lösungen mächtig sind, sind sie nur so effektiv wie die Daten, die sie speisen. Das alte Sprichwort „Garbage in, garbage out“ trifft heute mehr denn je zu. Ohne vertrauenswürdige, vollständige, berechtigte und erklärbare Daten produzieren GenAI-Modelle häufig ungenaue, voreingenommene oder ungeeignete Ergebnisse.

Leider haben Organisationen hastig begonnen, einfach umsetzbare Anwendungsfälle wie KI-gesteuerte Chatbots einzuführen, die maßgeschneiderte Antworten aus verschiedenen internen Dokumenten liefern. Diese verbessern zwar teilweise die Kundenerfahrung, erfordern jedoch keine tiefgreifenden Änderungen an der Dateninfrastruktur eines Unternehmens. Um GenAI strategisch zu skalieren, sei es im Gesundheitswesen, im Finanzdienstleistungsbereich oder in der Automatisierung von Lieferketten, ist ein anderes Niveau der Datenreife erforderlich.

Tatsächlich geben 56% der Chief Data Officers an, dass die Datenzuverlässigkeit eine wesentliche Hürde für die Bereitstellung von KI darstellt. Weitere Probleme sind unvollständige Daten (53%), Datenschutzprobleme (50%) und größere Governance-Lücken in der KI (36%).

Keine Governance, kein GenAI

Um GenAI über die Pilotphase hinaus zu bringen, müssen Unternehmen die Daten-Governance als strategische Notwendigkeit für ihr Geschäft betrachten. Sie müssen sicherstellen, dass die Daten für die Ausbildung von KI-Modellen geeignet sind, und folgende Fragen beantworten:

  • Stammen die Daten, die zum Training des Modells verwendet werden, aus den richtigen Systemen?
  • Haben wir personenbezogene Daten entfernt und alle Datenschutzvorschriften beachtet?
  • Sind wir transparent, und können wir die Herkunft der Daten nachweisen, die das Modell verwendet?
  • Können wir unsere Datenprozesse dokumentieren und bereit sein, zu zeigen, dass die Daten keine Voreingenommenheit aufweisen?

Die Daten-Governance muss auch in die Kultur einer Organisation eingebettet werden. Dazu ist es notwendig, die KI-Kompetenz in allen Teams aufzubauen. Der EU-KI-Gesetzesentwurf formalisiert diese Verantwortung und verlangt von beiden Anbietern und Nutzern von KI-Systemen, die besten Bemühungen anzustellen, um sicherzustellen, dass die Mitarbeiter über ausreichende KI-Kenntnisse verfügen und verstehen, wie diese Systeme funktionieren und wie sie verantwortungsbewusst genutzt werden können. Effektive KI-Übernahme geht jedoch über technisches Wissen hinaus. Sie erfordert auch eine starke Grundlage in Datenfähigkeiten, von der Verständnis der Daten-Governance bis hin zur Formulierung analytischer Fragestellungen. Die KI-Literatur isoliert von der Datenliteratur zu behandeln, wäre kurzsichtig, angesichts ihrer engen Verknüpfung.

In Bezug auf die Daten-Governance gibt es noch Arbeit zu leisten. Unter den Unternehmen, die ihre Investitionen in das Datenmanagement erhöhen möchten, sind 47% der Meinung, dass mangelnde Datenkompetenz ein wichtiges Hindernis darstellt. Dies zeigt, dass der Aufbau von Unterstützung auf höchster Ebene und die Entwicklung der richtigen Fähigkeiten in der gesamten Organisation entscheidend sind. Ohne diese Grundlagen wird selbst die leistungsstärkste LLMs Schwierigkeiten haben, Ergebnisse zu liefern.

Entwicklung von KI, die verantwortlich gemacht werden muss

Im aktuellen regulatorischen Umfeld reicht es nicht mehr aus, dass KI „einfach funktioniert“; sie muss auch verantwortlich und erklärbar sein. Der EU-KI-Gesetzesentwurf und der vorgeschlagene Aktionsplan für KI im Vereinigten Königreich verlangen Transparenz bei hochriskanten KI-Anwendungsfällen. Andere folgen diesem Beispiel, und über 1.000 verwandte Gesetzesentwürfe stehen auf der Tagesordnung in 69 Ländern.

Diese globale Bewegung hin zu mehr Verantwortung ist eine direkte Folge der wachsenden Anforderungen von Verbrauchern und Interessengruppen an Fairness in Algorithmen. Organisationen müssen beispielsweise in der Lage sein, die Gründe anzugeben, warum einem Kunden ein Kredit verweigert oder eine höhere Versicherungsprämie berechnet wurde. Um dies tun zu können, müssen sie wissen, wie das Modell diese Entscheidung getroffen hat, und das hängt wiederum von einer klaren, prüfbaren Spur der Daten ab, die zu dessen Ausbildung verwendet wurde.

Ohne Erklärbarkeit riskieren Unternehmen, das Vertrauen der Kunden zu verlieren und finanzielle sowie rechtliche Konsequenzen zu erleiden. Daher ist die Nachvollziehbarkeit der Datenherkunft und die Rechtfertigung der Ergebnisse keine „schöne Sache“, sondern eine Compliance-Anforderung.

Und da GenAI über die Nutzung einfacher Werkzeuge hinaus zu vollwertigen Agenten expandiert, die Entscheidungen treffen und umsetzen können, steigen die Anforderungen an eine starke Daten-Governance weiter an.

Schritte zum Aufbau vertrauenswürdiger KI

Was bedeutet es also, gute Governance zu praktizieren? Um GenAI verantwortungsvoll zu skalieren, sollten Organisationen eine einheitliche Datenstrategie über drei Säulen hinweg annehmen:

  • KI auf das Geschäft zuschneiden: Katalogisieren Sie Ihre Daten rund um wichtige Geschäftszielen, um sicherzustellen, dass sie den einzigartigen Kontext, die Herausforderungen und Chancen widerspiegeln, die spezifisch für Ihr Unternehmen sind.
  • Vertrauen in KI aufbauen: Etablieren Sie Richtlinien, Standards und Prozesse für die Einhaltung ethischer und verantwortungsvoller KI-Einführungen.
  • KI-Datenbereit-Pipelines aufbauen: Kombinieren Sie Ihre vielfältigen Datenquellen zu einem widerstandsfähigen Datenfundament für robustes KI-Training mit vorgefertigter GenAI-Konnektivität.

Wenn Organisationen dies richtig machen, beschleunigt die Governance den KI-Wert. Im Finanzdienstleistungsbereich beispielsweise setzen Hedgefonds GenAI ein, um menschliche Analysten bei der Vorhersage von Aktienkursen zu übertreffen und gleichzeitig die Kosten erheblich zu senken. In der Fertigung ermöglicht die von KI gesteuerte Optimierung der Lieferkette den Unternehmen, in Echtzeit auf geopolitische Veränderungen und Umweltbelastungen zu reagieren.

Und das sind nicht nur futuristische Ideen; sie geschehen jetzt, angetrieben durch vertrauenswürdige Daten.

Mit starken Datenfundamenten reduzieren Unternehmen das Risiko von Moddrift, verkürzen die Trainingszyklen und erhöhen die Geschwindigkeit zur Wertschöpfung. Deshalb ist Governance kein Hemmnis, sondern ein Innovationstreiber.

Was kommt als Nächstes?

Nach der Experimentierphase bewegen sich Organisationen über Chatbots hinaus und investieren in transformative Fähigkeiten. Vom Personalisieren von Kundeninteraktionen bis hin zur Beschleunigung medizinischer Forschung und der Vereinfachung von regulatorischen Prozessen zeigt GenAI zunehmend sein Potenzial in verschiedenen Branchen.

Doch diese Gewinne hängen ganz von den zugrunde liegenden Daten ab. GenAI beginnt mit dem Aufbau eines starken Datenfundaments, durch starke Daten-Governance. Und während GenAI und agentische KI weiterhin evolvieren, wird sie die menschliche Aufsicht so schnell nicht ersetzen. Stattdessen treten wir in eine Phase der strukturierten Wertschöpfung ein, in der KI zu einem zuverlässigen Co-Piloten wird. Mit den richtigen Investitionen in Datenqualität, Governance und Kultur können Unternehmen GenAI endlich von einem vielversprechenden Piloten in etwas verwandeln, das vollständig abheben kann.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...