Vertrauen in KI: Die Notwendigkeit von Transparenz

Vertrauen in KI aufbauen: Der Fall für Transparenz

Die künstliche Intelligenz (KI) transformiert schnell die Geschäftswelt, da sie zunehmend in das Gefüge von Organisationen und den Alltag der Kunden integriert wird. Doch die Geschwindigkeit dieser Transformation birgt Risiken, da Organisationen mit Herausforderungen konfrontiert sind, KI verantwortungsvoll zu implementieren und das Risiko von Schäden zu minimieren.

Ein Grundpfeiler verantwortungsvoller KI ist die Transparenz. KI-Systeme – einschließlich der Algorithmen selbst sowie der Datenquellen – sollten verständlich sein, damit wir nachvollziehen können, wie Entscheidungen getroffen werden, und sicherstellen können, dass dies auf eine faire, unvoreingenommene und ethische Weise geschieht.

Transparente KI gut umgesetzt

Ein Beispiel für transparente KI ist die Veröffentlichung des generativen KI-Toolsets Adobe Firefly. Adobe hat seine Nutzer beruhigt, dass es offen und transparent über die Daten ist, die zur Schulung seiner Modelle verwendet wurden. Im Gegensatz zu anderen generativen KI-Tools wie OpenAI’s Dall-E veröffentlichte Adobe Informationen zu allen verwendeten Bildern und versicherte, dass es alle Rechte an diesen Bildern besitzt oder dass sie im öffentlichen Bereich sind. Dies ermöglicht es den Nutzern, informierte Entscheidungen darüber zu treffen, ob sie dem Tool vertrauen können.

Ein weiteres Beispiel ist Salesforce, das Transparenz als ein wichtiges Element der Genauigkeit betrachtet – eines seiner fünf Leitlinien für die Entwicklung vertrauenswürdiger KI. Dies bedeutet, dass sie Schritte unternehmen, um klarzustellen, wenn KI Antworten liefert, bei denen sie sich nicht vollständig sicher ist. Dazu gehört das Zitieren von Quellen und das Hervorheben von Bereichen, die die Nutzer ihrer Tools möglicherweise überprüfen möchten, um sicherzustellen, dass keine Fehler vorliegen.

Das Python SDK von Microsoft für Azure Machine Learning umfasst eine Funktion namens Modell-Erklärbarkeit, die in den neuesten Versionen standardmäßig auf „wahr“ eingestellt ist. Dies gibt Entwicklern Einblicke in die Interpretierbarkeit, was bedeutet, dass sie die Entscheidungen verstehen und sicherstellen können, dass sie fair und ethisch getroffen werden.

Transparente KI schlecht umgesetzt

OpenAI, die Schöpfer von ChatGPT und des Bildgenerierungsmodells Dall-E, wurde beschuldigt, nicht transparent zu sein, welche Daten zur Schulung ihrer Modelle verwendet werden. Dies hat zu Gesetzesklagen von Künstlern und Schriftstellern geführt, die behaupten, dass ihr Material ohne Erlaubnis verwendet wurde. Einige glauben jedoch, dass die Nutzer von OpenAI in Zukunft rechtlichen Schritten ausgesetzt sein könnten, wenn Urheberrechtsinhaber erfolgreich argumentieren können, dass mit den Werkzeugen von OpenAI erstelltes Material ebenfalls gegen ihre IP-Rechte verstößt. Dieses Beispiel zeigt, wie die Intransparenz bei Trainingsdaten potenziell das Vertrauen zwischen einem KI-Dienstanbieter und seinen Kunden untergraben kann.

Andere Bildgeneratoren – darunter Google’s Imagen und Midjourney – wurden kritisiert, weil sie übermäßig Fachleute als weiße Männer darstellen und historische Ungenauigkeiten aufweisen, wie beispielsweise die Darstellung der US-Gründerväter und deutscher Nazi-Soldaten als Personen mit anderer Hautfarbe. Ein Mangel an Transparenz in der KI-Entscheidungsfindung hindert Entwickler daran, diese Probleme leicht zu identifizieren und zu beheben.

Im Bankwesen und in der Versicherung wird KI zunehmend eingesetzt, um Risiken zu bewerten und Betrug aufzudecken. Wenn diese Systeme nicht transparent sind, könnte dies dazu führen, dass Kunden Kredite verweigert, Transaktionen blockiert oder sogar strafrechtlichen Ermittlungen ausgesetzt werden, während sie nicht verstehen, warum sie ausgewählt oder unter Verdacht geraten sind.

Besonders besorgniserregend sind die Gefahren, die sich aus der Intransparenz rund um Systeme und Daten im Gesundheitswesen ergeben. Wenn KI zunehmend für Routineaufgaben wie das Erkennen von Krebszeichen in medizinischen Bildern eingesetzt wird, können voreingenommene Daten zu gefährlichen Fehlern und schlechteren Behandlungsergebnissen führen. Ohne Maßnahmen zur Sicherstellung von Transparenz ist es weniger wahrscheinlich, dass voreingenommene Daten identifiziert und aus den zur Schulung von KI-Tools verwendeten Systemen entfernt werden.

Die Vorteile transparenter KI

Die Gewährleistung, dass KI transparent eingesetzt wird, ist entscheidend für den Aufbau von Vertrauen bei den Kunden. Diese möchten wissen, was, wie und warum Entscheidungen mit ihren Daten getroffen werden, und haben ein angeborenes Misstrauen gegenüber „schwarzen Kisten“, die sich weigern zu erklären, was sie tun!

Darüber hinaus ermöglicht es uns, Probleme zu identifizieren und zu beseitigen, die durch voreingenommene Daten verursacht werden können, indem sichergestellt wird, dass alle verwendeten Daten gründlich geprüft und bereinigt werden.

Zuletzt steigt die Menge an Regulierungen rund um KI. Gesetze wie der bevorstehende EU KI-Gesetz schreiben ausdrücklich vor, dass KI-Systeme in kritischen Anwendungsfällen transparent und erklärbar sein müssen. Dies bedeutet, dass Unternehmen, die opake, schwarze Kasten-KI verwenden, sich großen Geldstrafen aussetzen könnten.

Der Aufbau von Transparenz und Verantwortung in KI-Systemen wird zunehmend als kritischer Bestandteil der Entwicklung ethischer und verantwortungsvoller KI angesehen. Obwohl die hochkomplexe Natur der heutigen fortschrittlichen KI-Modelle dies nicht immer einfach macht, ist es eine Herausforderung, die überwunden werden muss, damit KI ihr Potenzial zur Schaffung positiver Veränderungen und Werte ausschöpfen kann.

More Insights

CII fordert klare Regeln für den Einsatz von KI im Finanzsektor

Der Chartered Insurance Institute (CII) hat klare Verantwortungsrahmen und eine sektorweite Schulungsstrategie gefordert, um den Einsatz von Künstlicher Intelligenz (KI) im Finanzdienstleistungssektor...

Künstliche Intelligenz in New York: Wichtige Gesetzesänderungen für Arbeitgeber im Jahr 2025

Im ersten Halbjahr 2025 hat New York, ähnlich wie andere Bundesstaaten, Gesetze zur Regulierung von Künstlicher Intelligenz (KI) auf Ebene der Bundesstaaten eingeführt. Insbesondere konzentriert sich...

Risikomanagement für Künstliche Intelligenz: Strategien zur Minimierung von Gefahren

Die Risiken von KI-Systemen können durch verschiedene Faktoren wie Datenqualität, Modellarchitektur und betriebliche Herausforderungen beeinflusst werden. Ein effektives Risikomanagement ist...

Wichtige Erkenntnisse zum EU-Gesetz über Künstliche Intelligenz

Die Europäische Union hat das Gesetz über künstliche Intelligenz (AI Act) eingeführt, das darauf abzielt, die Risiken und Möglichkeiten von KI-Technologien in Europa zu verwalten. Dieses Gesetz ist...

Koreas KI-Grundgesetz: Ein neuer Rahmen für künstliche Intelligenz

Südkorea hat sich mit dem Inkrafttreten des Gesetzes über die Entwicklung von Künstlicher Intelligenz und die Schaffung von Vertrauen, bekannt als AI Basic Act, an die Spitze der KI-Regulierung in...

EU AI-Gesetz und DORA: Finanzielle Risiken und Compliance neu definiert

Die EU AI Act und DORA stellen neue Anforderungen an Finanzinstitute, indem sie Transparenz und Resilienz in der Nutzung von KI-Systemen fordern. Unternehmen müssen die finanziellen Risiken...

KI-Regulierung im transatlantischen Kontext

Künstliche Intelligenz (KI) hat sich zu einer der bedeutendsten technologischen Kräfte der Gegenwart entwickelt und hat das Potenzial, Volkswirtschaften, Gesellschaften und die globale Governance...

EU-Kommission plant Maßnahmen zur Förderung von KI-Gigafabriken

Die EU-Kommission möchte die Hürden für den Einsatz von Künstlicher Intelligenz (KI) abbauen und plant, die Infrastruktur für Datenzentren in Europa erheblich auszubauen. Dies geschieht im Rahmen des...