Goertzel & Lanier im Konflikt über KI-Autonomie und Kontrolle
Der Geschäftsführer von SingularityNET und ein Technologe haben kontrastierende Ansichten zur Verantwortung und zum moralischen Status autonomer KI in einer neuen Episode der Reihe „Die zehn Bewertungen von AGI“ der Artificial Superintelligence Alliance vorgestellt.
Die Reichweite der Empathie
Die Episode mit dem Titel „Die Bewertung der Kontrolle“ dreht sich darum, wie weit Empathie gegenüber KI-Systemen und zukünftiger künstlicher allgemeiner Intelligenz reichen sollte und wie die Gesellschaft Sicherheit, Autonomie und menschliche Verantwortung behandeln sollte.
Ein Technologe argumentiert, dass rechtliche und soziale Systeme eine klare Verantwortung für Handlungen, die mit KI verbunden sind, benötigen. Ohne Verantwortlichkeit könne die Gesellschaft nicht funktionieren.
Debatte über Verantwortlichkeit
Die Diskussion spiegelt eine breitere Spaltung in der KI-Governance wider. Viele Forscher und Entscheidungsträger betrachten KI als Werkzeug, das unter menschlicher Kontrolle bleibt. Andere erwarten, dass KI-Systeme autonomer werden und sich weniger wie Software und mehr wie Agenten verhalten.
Ein Technologe plädiert für eine einzige verantwortliche Partei, selbst wenn KI-Systeme mit einem hohen Maß an Unabhängigkeit agieren. Er betont, dass die Gesellschaft auf der Realität von Menschen basiere und dass die Übertragung dieser Verantwortung auf Technologie unmoralisch sei.
Der Geschäftsführer hingegen hinterfragt die Annahme, dass die moralische Vorrangstellung des Menschen fix bleiben sollte, während sich KI-Systeme weiterentwickeln. Er sieht die Anerkennung von Autonomie als eine Governance-Entscheidung und nicht als technische Schwelle.
Besorgnis über das Training
Beide Sprecher erkennen die Grenzen der aktuellen KI an, die als leistungsstark, aber anfällig für Missbrauch beschrieben wird. Die Diskussion widmet sich auch der Rolle von Trainings- und Bereitstellungsentscheidungen, die das Verhalten fortschrittlicher Systeme prägen.
Der Geschäftsführer verbindet zukünftige Ergebnisse mit politischen und institutionellen Bedingungen. Wenn die Gesellschaft rational und demokratisch ist, könnten Fortschritte in der KI positive Wirkungen zeigen; andernfalls bestehe die Gefahr, dass sie außer Kontrolle gerät.
Dezentralisierte Ansätze
Der Geschäftsführer plädiert für einen Weg, der über die heutigen proprietären Modellentwicklungen hinausgeht und hin zu dezentralisierten Systemen führt. Diese Verschiebung wird als Frage der Sicherheit und Governance dargestellt.
Er beschreibt einen Designansatz, der Werte in Systeme integriert, anstatt unerwünschtes Verhalten nur zu blockieren. Bei der Entwicklung von AGI sollte Mitgefühl integriert werden, um sicherzustellen, dass Systeme verstehen, warum Schaden wichtig ist.
Fazit
Die Diskussion über Verantwortung wurde in den letzten Jahren prominenter, da Organisationen KI-Modelle in verschiedenen Bereichen einsetzen. Die Debatte über die Verantwortung für Schäden bleibt in verschiedenen Jurisdiktionen ungelöst, während Regierungen beginnen, Rahmenbedingungen für Risikoabschätzungen zu entwerfen.