Ethical AI benötigt menschliche Dispositionen, keine universellen Verhaltenskodizes
Die Bemühungen um die Regulierung von Künstlicher Intelligenz (KI) haben sich weitgehend darauf konzentriert, Schaden zu verhindern und die Einhaltung von Vorschriften zu gewährleisten. Experten warnen jedoch, dass Ethik über die Regulierung hinausgeht. In vielen alltäglichen Situationen müssen KI-Systeme moralische Entscheidungen treffen, die von individuellen Werten abhängen, anstatt von gesetzlichen Vorgaben.
Herausforderung der individuellen Ethik
Diese Herausforderung wird in der Studie „Individuelle Ethik und Dispositionen in der digitalen Welt“ untersucht, die ein rechnerisches Modell vorschlägt, um persönliche moralische Präferenzen in KI-Systeme einzubetten. Die Forschung argumentiert, dass ethische KI berücksichtigen muss, wie Individuen in ihrem Urteil unterschiedlich sind, selbst wenn sie unter demselben rechtlichen Rahmen operieren.
Die Forschung kommt zu einem Zeitpunkt, an dem die regulatorischen Bemühungen zunehmen, einschließlich des KI-Gesetzes der Europäischen Union, das Sicherheit, Verantwortung und rechtliche Konformität priorisiert. Während solche Rahmenbedingungen nicht verhandelbare Grenzen für das Verhalten von KI festlegen, argumentieren die Autoren, dass Regulierung allein die ethische Vielfalt menschlichen Entscheidens nicht abdecken kann. Stattdessen schlagen sie ein formales Modell vor, das es KI-Systemen ermöglicht, sich an die moralischen Präferenzen einzelner Nutzer anzupassen, während sie innerhalb rechtlicher und ethischer Grenzen bleiben.
Warum universelle KI-Ethik nicht ausreicht
Ein Großteil der öffentlichen Debatte über KI-Ethik hat sich auf extreme Szenarien konzentriert, wie autonome Waffen oder Entscheidungen über Leben und Tod, die von selbstfahrenden Autos getroffen werden. Die Autoren lenken jedoch die Aufmerksamkeit auf eine ruhigere, aber weitverbreitete Realität: KI-Systeme agieren zunehmend als digitale Partner in alltäglichen, moralisch aufgeladenen Situationen, die das tägliche Leben prägen.
Diese Situationen umfassen Entscheidungen wie die Priorisierung ethischer Produkte gegenüber günstigeren Alternativen oder die Abwägung von Energieeinsparungen zu Lasten des persönlichen Komforts. In solchen Kontexten sind ethische Entscheidungen selten binär oder universell. Sie hängen von persönlichen Werten, sozialen Normen, Lebenserfahrungen und situativen Kontexten ab.
Das Modell moralischen Verhaltens
Die Studie diskutiert das Konzept der moralischen Dispositionen, das aus philosophischen Theorien über dispositive Eigenschaften abgeleitet ist. Eine Disposition reflektiert, wie ein Individuum geneigt ist zu handeln, wenn bestimmte Bedingungen erfüllt sind, ohne zu garantieren, dass die Handlung immer erfolgt. Die Autoren wenden diesen Rahmen auf Ethik in digitalen Umgebungen an und modellieren moralische Präferenzen als Dispositionen, die je nach Kontext zum Ausdruck kommen können.
Um diese Idee zu operationalisieren, schlagen die Forscher eine strukturierte Methode zur Erfassung individueller moralischer Dispositionen mithilfe von szenariobasierten Fragebögen vor. Die Teilnehmer werden mit alltäglichen ethischen Dilemmata konfrontiert und gebeten, einen Handlungsweg zu wählen sowie ihre Entscheidung unter vier Bewertungsdimensionen zu rechtfertigen: Auswirkungen auf andere, Auswirkungen auf sich selbst, Übereinstimmung mit sozialen Normen und Übereinstimmung mit persönlichen Erfahrungen.
Von Fragebögen zu ethischen Handlungen in KI-Systemen
Die Forschung präsentiert ein formales rechnerisches Modell, das menschliche Antworten in maschinenlesbare ethische Profile übersetzt. Diese Profile ermöglichen es KI-Systemen zu erkennen, welche Aktionen am besten mit den moralischen Neigungen eines Nutzers in neuen Situationen übereinstimmen.
Das Modell verknüpft drei Elemente: eine Beschreibung des Weltsettings, eine Reihe möglicher Handlungen und eine bevorzugte Handlung, die die Disposition des Nutzers in diesem Kontext widerspiegelt. Wenn eine ähnliche Situation auftritt, kann das KI-System den neuen Kontext mit zuvor erlebten vergleichen und die Aktion auswählen, die am besten mit dem ethischen Profil des Nutzers übereinstimmt.
Personalisierung und ethische Sicherheitsvorkehrungen
Die Autoren erkennen an, dass persönliche Präferenzen voreingenommen, schädlich oder im Widerspruch zu sozialen Normen stehen können. Daher arbeitet das Modell ausdrücklich innerhalb harter ethischer Grenzen. Rechtliche Anforderungen und grundlegende Rechte bleiben nicht verhandelbar. Präferenzen, die diese Einschränkungen verletzen, können nicht umgesetzt werden, auch wenn sie genau erfasst werden.
Folgen für Politik, Design und KI-Governance
Die Forschung stellt einfache Narrative über KI-Ethik in Frage. Sie betrachtet ethische KI nicht als ein einmal zu lösendes Problem, sondern als ein fortlaufendes Verhandlungsspiel zwischen Individuen, Technologie und Institutionen. Für politische Entscheidungsträger hebt sie die Grenzen der Regulierung hervor, während sie für KI-Entwickler einen konkreten Weg hin zu einem menschenzentrierten Design bietet.
Fazit
Durch das Einbetten ethischer Dispositionen anstelle fester Regeln können Systeme anpassungsfähiger, transparenter und respektvoller gegenüber der Autonomie der Nutzer werden. Das formale Modell ist zudem kompatibel mit bestehenden Praktiken der Softwareentwicklung.