Verantwortliche KI beginnt nicht nur mit Regulierung – sie beginnt im Design
Verantwortliche KI ist nicht nur eine Frage von Regeln oder Governance. Sie stellt auch eine technische Herausforderung dar. Eine zentrale Botschaft bei einer internationalen Konferenz für Ingenieure und Technologieführer war, dass es darum geht, Konzepte wie Fairness, Transparenz und Sicherheit in Methoden, Metriken und Kontrollen umzuwandeln, die im gesamten Lebenszyklus der KI-Entwicklung angewendet werden können.
Wenn über Ethik in der künstlichen Intelligenz gesprochen wird, konzentriert sich das Gespräch oft auf Regulierung oder Governance-Rahmen. Doch viele der Entscheidungen, die beeinflussen, wie fair, transparent, sicher oder nachhaltig eine technische Lösung sein wird, werden viel früher getroffen – während des Designs und der Entwicklung. Die Daten, die zur Schulung eines Modells verwendet werden, die als gültig erachteten Metriken und die in das System eingebauten Sicherheiten sind letztlich wissenschaftliche und technische Entscheidungen.
Aus dieser Perspektive wird Ethik nicht mehr als etwas betrachtet, das am Ende des Prozesses hinzugefügt wird. Sie wird zu einer praktischen Disziplin, die in die technologische Entwicklung eingebettet ist. Es geht nicht nur darum, zu fragen, was erlaubt ist, sondern auch darum, was gebaut werden sollte, wie es gebaut werden sollte und unter welchen Bedingungen.
Technologie und Werte
Technologie ist nicht neutral, wenn es um Werte geht. KI-Systeme sind Entscheidungssysteme, und viele ihrer ethischen Implikationen ergeben sich aus den Entscheidungen, die während der Entwicklung getroffen werden. Derzeit befindet sich KI in einer Phase, die die Gesellschaft bereits mit anderen Technologien, wie der Luftfahrt und Elektrizität, erlebt hat. Beide Technologien expandierten zunächst schnell und entwickelten erst später die Sicherheitsstandards und gemeinsamen Rahmenbedingungen, die eine breitere Akzeptanz unterstützen konnten.
Von ethischen Grundlagen bis zu technischen Entscheidungen
Wenn Ethik, Transparenz und Sicherheit als Kern der KI verstanden werden, stellt sich die nächste Frage, wie sie in die Praxis umgesetzt werden können. Der erste Schritt besteht darin, die gleiche Denkweise wie in der Zuverlässigkeitsingenieurwissenschaft zu übernehmen: Systeme mit dem gesamten Lebenszyklus im Hinterkopf zu entwerfen, von der ersten Planung über die Implementierung bis hin zur laufenden Überwachung. Bias kann an vielen Stellen im Prozess auftreten: in historischen Daten, in der Art und Weise, wie die Bevölkerung repräsentiert wird, in der Messung von Variablen oder in der Überwachung, sobald das System bereits im Einsatz ist. Die Bewertung von Fairness erfordert daher eine kontinuierliche, ganzheitliche Perspektive.
In diesem Kontext werden Erklärbarkeit und Metrikbewertung zu praktischen Werkzeugen. Das bedeutet, Qualitätsevaluierungen und Bewertungsmethoden anzuwenden, um sicherzustellen, dass KI-Lösungen Standards für Sicherheit, Datenschutz und Transparenz erfüllen. Es gibt Leitfäden zur Erklärbarkeit und Fairness sowie Metriken und Bibliotheken, die bei der Erklärung der Entscheidungen, die von KI-Modellen getroffen werden, helfen und sicherstellen, dass sie bei der Arbeit mit realen Daten genau und zuverlässig bleiben.
Die Bedeutung von Fairness
Einer der wichtigsten Lektionen aus der Arbeit zur KI-Entwicklung betrifft die Fairness im maschinellen Lernen. Es gibt keine universelle Definition dafür, was fair ist. Fairness hängt vom Kontext, dem spezifischen Anwendungsfall, den beteiligten Gruppen und dem potenziellen Schaden ab. Daher müssen Teams in hochwirksamen Modellen explizit entscheiden, basierend auf dem Anwendungsfall, welches Fairness-Kriterium oder welche Metrik in jedem Fall am angemessensten ist – und erklären, warum.
Schließlich kodieren KI-Systeme unsere Werte, ob wir es beabsichtigen oder nicht. Dies zu erkennen, ist der erste Schritt, um sie auf eine sicherere, transparentere und verantwortungsvollere Weise zu gestalten.