NSU-Seminar untersucht ethische Grenzen des KI-Modells Claude von Anthropic
Die School of Humanities and Social Sciences (SHSS) organisierte ein Seminar, das am 5. Februar stattfand und sich mit den philosophischen und ethischen Fragen rund um das KI-Modell Claude von Anthropic beschäftigte.
Philosophische Kritik an Anthropics „Verfassung“
Das Seminar mit dem Titel „Eine philosophische Kritik an Anthropics ‚Verfassung‘ für das KI-Modell ‚Claude‘“ brachte Fakultätsmitglieder, Akademiker, Forscher und Studenten zusammen, um über künstliche Intelligenz, Ethik und Philosophie zu diskutieren. Die Sitzung wurde von einem Senior Lecturer moderiert.
Die Hauptpräsentation hielt ein Professor, der die verfassungsbasierte Herangehensweise an die KI-Governance von Anthropic untersuchte. Er konzentrierte sich auf die Behauptungen, dass Claude ethische Prinzipien in Bezug auf Sicherheit, Privatsphäre und Genauigkeit befolgt.
Ethische Überlegungen zur KI
Der Professor hinterfragte, ob eine verfassungsbasierte Governance tatsächlich ethisches Denken, moralisches Urteilsvermögen oder Bewusstsein in künstlichen Systemen unterstützen kann, insbesondere angesichts des Fehlens von Lebenserfahrung und kontextuellem Bewusstsein. Er argumentierte, dass KI-Systeme zwar komplexes Verhalten simulieren können, dies jedoch nicht zu echtem Bewusstsein führt.
Im Rahmen einer Frage-Antwort-Runde fragten die Teilnehmer, ob verfassungsgeleitete KI-Systeme jemals Bewusstsein erlangen könnten, da sie sich auf Mustererkennung anstelle von Verständnis stützen. Der Professor äußerte Skepsis und erklärte, dass Simulation allein kein Bewusstsein darstellt.
Grenzen und Verantwortung der KI
Weitere Fragen konzentrierten sich auf die Grenzen des maschinellen Lernens im Vergleich zur menschlichen moralischen Fehlbarkeit und ob die Gesellschaft der KI übermäßige ethische Verantwortung auferlege. Der Professor differenzierte zwischen KI-induzierter und KI-assoziierter Psychose und schlug vor, solche Fälle eher durch die Linse der Psychopathologie zu untersuchen, statt Handlungen direkt künstlichen Systemen zuzuschreiben.
Er bemerkte, dass Claude so konzipiert ist, dass er allgemeinen ethischen Richtlinien folgt und innerhalb eingebauter Einschränkungen operiert, anstatt moralische Autonomie auszuüben.
Wissen und Urheberrecht
Diskussionen behandelten auch das Urheberrecht und den Zugang zu Wissen, insbesondere ob KI-Systeme, die mit großen Mengen öffentlich zugänglicher Materialien trainiert wurden, Studenten ohne Zugang zu bestimmten akademischen Ressourcen begünstigen könnten. Der Professor stellte fest, dass Claudes Wissensbasis Millionen von Büchern und anderen rechtlich verfügbaren Materialien umfasst.
Er fügte hinzu, dass ethische Spannungen weiterhin in den Debatten über Zugang und Fairness bestehen.
Bewusstsein in KI-Modellen
Eine weitere Frage bezog sich darauf, wie das Fehlen von Bewusstsein in KI-Modellen bewertet werden könnte. Der Professor erklärte, dass es schwierig sei, ein Negativ zu beweisen, argumentierte jedoch, dass das beobachtbare Verhalten zeigt, dass die Art von „Wissen“, das Systeme wie Claude besitzen, nicht ausreicht, um die volle Komplexität menschlichen Denkens zu replizieren.
Schlussfolgerung
Nach dem Vortrag betonte ein anderer Professor, dass ethische Rahmenbedingungen, die in KI-Systeme eingebettet sind, kulturelle und ideologische Vorurteile widerspiegeln könnten, die durch ihre soziokulturellen Ursprünge geprägt sind. Er unterstrich, dass die zentrale Frage nicht nur darin besteht, wie solche Technologien gestaltet werden, sondern auch, wie Gesellschaften kritisch auf sie reagieren und mit ihnen umgehen.