Risiken von Generativer KI effektiv mindern

Über den Umgang mit den Risiken von generativer KI

Generative Künstliche Intelligenz (Gen AI) revolutioniert die Geschäftswelt und baut auf jahrelangen Fortschritten in der Daten- und KI-Akzeptanz auf. Ihr Potenzial, einen Wettbewerbsvorteil zu erzielen und Wachstum zu fördern, ist unbestreitbar. Um jedoch von diesen Vorteilen zu profitieren, müssen Organisationen die einzigartigen Risiken vollständig verstehen und mildern, insbesondere bei der Datenverwaltung und der Bewertung der organisatorischen Bereitschaft.

Die sichere Nutzung von Gen AI erfordert, dass Unternehmen nicht nur die Risiken und die Qualität der organisatorischen Daten verstehen, die für die Implementierung von Gen AI spezifisch sind, sondern auch, wie sie diese Daten verwalten. In diesem Zusammenhang müssen Unternehmen Risiken in vier wesentlichen Bereichen angehen.

1. Der menschliche Faktor

Im Gegensatz zur traditionellen KI, bei der Entwicklung und Bereitstellung weitgehend auf spezialisierte Teams beschränkt war, erstreckt sich Gen AI über Funktionen und Geschäftseinheiten. Diese weitreichende Nutzung erhöht das Risiko, dass Mitarbeiter die Ergebnisse von Gen AI falsch interpretieren oder übermäßig darauf vertrauen. Ohne das richtige Verständnis könnten Teams die Ergebnisse als unfehlbar betrachten, insbesondere in entscheidungskritischen Kontexten. Dies könnte zu finanziellen oder reputativen Schäden für die Organisation führen.

2. Datensicherheit und -qualität

Die Verwaltung von Datensicherheit und Datenqualität stellt eine kritische Herausforderung bei der Verwendung von Gen AI dar. Es ist zwar einfach für Organisationen, Richtlinien zu entwickeln, die die Verwendung vertraulicher oder persönlich identifizierbarer Informationen (PII) durch ein Gen AI-Modell verhindern, jedoch ist die technische Durchsetzung dieser Regeln weitaus komplexer. Der Hauptgrund dafür ist die Verbreitung von Verbraucherlösungen mit multimodalen Fähigkeiten, die das Risiko erhöhen, dass Mitarbeiter versehentlich vertrauliche Daten an Drittanbieter weitergeben.

Darüber hinaus könnte die beliebte Annahme von Retrieval Augmented Generation (RAG) Architekturen Schwachstellen schaffen, wenn die Datenquellen nicht ausreichend gesichert sind. Eine Missmanagement in diesen Aspekten öffnet nicht nur die Tür zu regulatorischen Verstößen; es birgt auch das Risiko einer unbeabsichtigten Datenexposition, sowohl intern als auch extern.

3. Erweiterung des Technologie-Stacks

Um Gen AI zu nutzen, müssen viele Organisationen ihren Technologie-Stack erweitern, sei es vor Ort oder in der Cloud. Diese schnelle Skalierung bringt operationale Risiken mit sich, einschließlich Integrationslücken zwischen neuen Tools und bestehenden Systemen sowie eine erhöhte Komplexität des technologischen Fußabdrucks. Neben den Risiken der Datenoffenlegung ist es wichtig, besondere Aufmerksamkeit auf die Risiken zu legen, die mit der Integration von Drittanbieter-Tools und der Sicherstellung der API-Sicherheit verbunden sind.

4. Die Natur der Technologie

Gen AI-Modelle, die alle probabilistisch und nicht deterministisch arbeiten, bringen eine weitere Komplexitätsebene mit sich. Diese Modelle sind für einen spezifischen Zweck vortrainiert, und die Bestimmung, ob ein Modell für den vorgesehenen Zweck geeignet ist, erfordert eine sorgfältige Analyse.

Ein rigoroser Benchmarking-Prozess ist unerlässlich. Unternehmen müssen jede Anwendung des Modells, die Einschränkungen und Sicherheitsvorkehrungen bewerten, um sicherzustellen, dass sie mit ihren betrieblichen Anforderungen und ethischen Standards kompatibel sind. Dieser Prozess mindert nicht nur Risiken, sondern stellt auch sicher, dass die Technologie verantwortungsvoll und effektiv eingesetzt wird.

Innovation und Risiko in Einklang bringen

Trotz dieser Risiken ist es keine Lösung, Gen AI völlig zu vermeiden. Technologie bietet unvergleichliche Möglichkeiten zur Effizienzsteigerung und Innovation, bringt jedoch auch sich entwickelnde Bedrohungen mit sich. Wie können Organisationen, die neu in der Gen AI sind, deren Einführung weise angehen?

1. Anpassung bestehender Risikorahmen

Die meisten Organisationen haben bereits Prozesse zur Risikomanagement von Technologien etabliert. Die Herausforderung besteht darin, diese Rahmenbedingungen so anzupassen, dass sie Gen AI berücksichtigen. Bei einer begrenzten Einführung könnte eine bescheidene Erweiterung des Ansatzes zur Verwaltung technologischer Risiken ausreichen. Bei einer umfassenderen Einführung von Gen AI könnte es notwendig sein, spezielle AI-spezifische Steuerungsausschüsse zu gründen, um Strategien und Risiken, die spezifisch für die Nutzung von KI in der Organisation sind, zu adressieren.

2. Ethische Richtlinien festlegen

Klare ethische Richtlinien sollten die Nutzung von Gen AI regeln, einschließlich verbotener Anwendungsfälle, die außerhalb der Risikobereitschaft der Organisation liegen, und vordefinierter Risikokategorien. Diese Richtlinien bieten Klarheit für Geschäftsbereiche, die Innovationen vorantreiben, und helfen den Risiko- und Prüfungsfunktionen, Kontrollanforderungen festzulegen. Transparenz und Vertrauen sind grundlegend, da die Rolle von KI sich ausbreitet. Dies erfordert das Verständnis von regulatorischen und Compliance-Verpflichtungen, die Verbesserung von Governance-Prozessen, die Zusammenführung von funktionsübergreifenden Stakeholdern und die Zuweisung von Verantwortung zur Minderung von Risiken.

3. Governance phasenweise mit einem risikobasierten Ansatz einführen

Organisationen können Gen AI schrittweise einführen, indem sie die Governance entsprechend dem Risikoniveau proportional zum Stand der Innovationsidee anwenden. Für Prototypen in niedrigrisiko Szenarien (z.B. minimale finanzielle Investitionen oder Datenempfindlichkeit) kann die Aufsicht leichter sein. Wenn Prototypen auf die Bereitstellung zusteuern, sollten umfassendere Bewertungen, einschließlich Sicherheitsbewertungen und Risikoanalysen, durchgeführt werden, um die Abwehrkräfte zu verstärken.

Gen AI: Was kommt als Nächstes?

Die Implementierung von Gen AI sollte nicht grundlegend anders sein als die Einführung herkömmlicher Softwaretools. Wie andere Technologien birgt sie Risiken, die Unternehmen sorgfältig bewerten und mindern müssen. Das bevorstehende Dokument ISO/IEC 42005 für die Auswirkungen von KI-Systemen bietet nützliche Leitlinien, wie die potenziellen Auswirkungen von KI auf die Organisation und deren Stakeholder bewertet werden können.

Darüber hinaus müssen Organisationen entscheiden, in welchem Maß menschliche Aufsicht in den Anwendungsfällen von Gen AI erforderlich ist. Der AI Governance Framework von Singapur bietet eine nützliche Struktur, indem er die Aufsicht in drei Ebenen kategorisiert: menschlich im Loop, menschlich aus dem Loop und menschlich über dem Loop. Welche Option zu wählen ist, hängt von einem ausgewogenen Ansatz ab – Ergebnisse mit großer Auswirkung könnten eine intensivere menschliche Aufsicht erfordern, auch wenn eine schnellere, direkte Entscheidungsfindung nicht möglich ist. Welche Option zu wählen ist, sollte von funktionsübergreifenden Teams getroffen werden, die Risiken bewerten und Kontrollen empfehlen.

Mit Blick auf die Zukunft hat die Entstehung von Agentic AI das Potenzial, die Abläufe noch weiter zu transformieren. Agentic AI, wenn sie in Unternehmen eingebettet ist, kann über die Inhaltsgenerierung hinaus reifen und Argumentation und Entscheidungsfindung umfassen. Dies erfordert eine verstärkte Governance, um ihren Einfluss auf Geschäftsprozesse zu verwalten, einschließlich der Gewährleistung der Widerstandsfähigkeit in Multi-Agenten-Umgebungen und der Ausstattung von Organisationen, um Vorfälle effektiv zu untersuchen und darauf zu reagieren.

Wie bei der heutigen Gen AI liegt der Schlüssel zum Erfolg in einem konsistenten, risikobasierten Ansatz für die Bereitstellung in Kombination mit robuster Cybersicherheit. Durch die Balance zwischen Innovation und Vorsicht können Organisationen das Potenzial von Gen AI ausschöpfen und gleichzeitig ihre exponierten Risiken minimieren.

More Insights

EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

Quebecs KI-Politik für Hochschulen und Cégeps

Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

Neue AI-Strategie: Technisches Sekretariat statt Regulator

Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

KI-Sicherheit als Motor für Innovation in Schwellenländern

Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...