Was Organisationen benötigen, um KI verantwortungsbewusst zu kuratieren
Der Einsatz von Künstlicher Intelligenz (KI) in Organisationen ist weit verbreitet, auch wenn viele dies möglicherweise nicht realisieren. Die entscheidende Frage ist: Wie nutzen Organisationen KI und wie stellen sie sicher, dass dies auf verantwortungsvolle Weise geschieht?
Eine umfassende Herangehensweise an das Thema kann in drei Komponenten unterteilt werden: Menschen, Prozesse und Werkzeuge. Ein zentrales Element ist die menschliche Komponente, die oft als die herausforderndste angesehen wird.
Drei zentrale Grundsätze
Die richtige organisationale Kultur zu finden, ist entscheidend für die verantwortungsvolle Kuratierung von KI. Hier sind einige Schlüsselsätze, die es zu beachten gilt:
Grundsatz 1: Demut
Ein erster Schritt besteht darin, die Diskussion mit großer Demut anzugehen. Mitglieder einer Organisation müssen bereit sein, sowohl zu lernen als auch alte Sichtweisen abzulegen. Es ist wichtig, dass die Diskussion über KI Personen aus verschiedenen Disziplinen und mit unterschiedlichen Hintergründen einbezieht, um eine ganzheitliche Sichtweise zu entwickeln.
Organisationen sollten ihren Mitarbeitern psychologische Sicherheit bieten, um schwierige Gespräche über KI führen zu können.
Grundsatz 2: Unterschiedliche Weltanschauungen
Organisationen müssen anerkennen, dass Menschen aus verschiedenen Welt-Erfahrungen kommen und alle Perspektiven zählen. Die Vielfalt innerhalb der Belegschaft, einschließlich Geschlecht, Rasse, Ethnie und sexueller Orientierung, ist entscheidend für den Erfolg bei der Entwicklung von KI-Modellen.
Es ist unerlässlich, dass Personen mit unterschiedlichen Lebensrealitäten in den Diskurs einbezogen werden, um sicherzustellen, dass die entwickelten Lösungen angemessen sind und potenzielle Probleme frühzeitig erkannt werden.
Grundsatz 3: Multidisziplinarität
Die Teams, die KI-Modelle entwickeln und verwalten, sollten multidisziplinär sein. Dies bedeutet, dass Fachleute aus verschiedenen Bereichen, wie Soziologie, Anthropologie und Recht, an der Entwicklung beteiligt sein sollten, um verantwortungsvolle KI zu schaffen.
Ein Bewusstsein für Vorurteile
Ein weit verbreiteter Mythos über KI ist, dass der gesamte Aufwand in der Programmierung besteht. In Wirklichkeit ist ein erheblicher Teil des Aufwands notwendig, um sicherzustellen, dass die richtigen Daten verwendet werden. Daten sind nicht nur technische Artefakte, sondern spiegeln die menschliche Erfahrung wider.
Es ist wichtig zu erkennen, dass alle Menschen Vorurteile haben – insgesamt 188, so die Erkenntnis. KI fungiert wie ein Spiegel, der die Vorurteile der Menschen reflektiert. Organisationen müssen den Mut haben, sich mit diesen Reflexionen auseinanderzusetzen und sicherzustellen, dass sie mit den Werten der Organisation übereinstimmen.
Transparenz fördern
Organisationen, die KI-Modelle verwalten, müssen transparent darüber sein, warum sie bestimmte Entscheidungen bezüglich Daten oder Ansätzen getroffen haben. Es sollte ein Informationsblatt für ihre KI-Lösungen erstellt werden, das wichtige Details über das Modell enthält, wie z. B. den beabsichtigten Gebrauch, die Herkunft der Daten und die Methodik.
Darüber hinaus müssen die Verantwortlichen in der Lage sein, selbstkritisch zu überprüfen, ob ihre Ansätze mit den Werten der Organisation übereinstimmen. Wenn nicht, sollten sie bereit sein, ihren Ansatz zu ändern.
„Wenn jemand sagt, dass sein KI-Modell überhaupt keine Vorurteile hat, sollte man sich daran erinnern: Alle Daten sind voreingenommen. Der Schlüssel ist, transparent zu sein, warum bestimmte Daten als wichtig erachtet wurden“, wird betont.
Vertrauen in KI ist etwas, das verdient werden muss, nicht einfach gegeben wird. Organisationen sollten bereit sein, schwierige Gespräche über ihre Vorurteile zu führen und zu erkennen, dass die Schaffung eines verantwortungsvollen KI-Modells kein linearer Prozess ist und harte Arbeit erfordert.