Gibt es so etwas wie ethische KI?
Die Lebensmittel, die wir essen, die Kleidung, die wir tragen, und die Medien, die wir konsumieren, sind zunehmend von ethischen Fragen geprägt. Wir leben in einer Zeit, in der Konsumverhalten sowohl weit verbreitet als auch mit moralischen Bedenken verbunden ist – selbst das Sofa, auf dem wir über diese heiklen Themen nachdenken, könnte ein ethisches Dilemma darstellen.
Es gibt viele Gründe, sich um die Ethik der KI-Nutzung zu sorgen. Diese reichen von konkreten Aspekten wie der Umweltbelastung bis hin zu Urheberrechtsfragen, etwa ob die Daten, die zur Schulung von Systemen verwendet werden, verantwortungsbewusst gesammelt wurden. Es ist sowohl einfach als auch wichtig, die Ethik von KI-Unternehmen und ihren Produkten sorgfältig zu bedenken. Manchmal ist es jedoch nicht notwendig: Wir haben bereits ein sehr gutes Beispiel dafür, was unethische KI ist.
In den letzten Wochen wurde Grok – der von einem bekannten Unternehmer entwickelte Chatbot – genutzt, um sexualisierte und gewalttätige Bilder, insbesondere von Frauen, zu generieren. Das Fehlverhalten von Grok ist tatsächlich ein Standardzustand für solche Systeme. KI ist darauf ausgelegt, gefügig zu sein und hat keine eigenen moralischen Codes, die sie zurückhalten könnten, was bedeutet, dass sie alles tun wird, um auf jede Anfrage zu reagieren. Andere KI-Systeme produzieren solche Bilder nur, weil sie von ihren Schöpfern spezifisch daran gehindert wurden.
Die ethischen Bedenken
Diese Situation wirft größere, komplexere Fragen auf, die die grundlegende Frage betreffen, wie wir als Menschen sein sollten: Welchen Schaden verursacht die Nutzung von KI für uns als Menschen, und sind wir unethisch, wenn wir sie überhaupt nutzen? Diese Frage wird zunehmend dringlicher. Eine kürzlich veröffentlichte Studie zeigte, dass es eine Geschlechterkluft bei der Nutzung von KI gibt: Frauen nutzen sie weniger als Männer, hauptsächlich wegen der damit verbundenen Risiken. Die Studie fand eine Kluft von bis zu 18 Prozent zwischen den Geschlechtern und schlug vor, dass Frauen „mehr soziales Mitgefühl, traditionelle moralische Bedenken und das Streben nach Gerechtigkeit“ zeigen.
Zu den ethischen Bedenken gehört unter anderem die Frage, ob die Nutzung von Chatbots zur Erledigung von Arbeiten unfair oder gleichbedeutend mit Betrug ist. Darüber hinaus gibt es viele weitere Bedenken: die potenziell sensiblen und persönlichen Daten, die sie sammeln; die Möglichkeiten, wie KI für unethisches Verhalten genutzt werden könnte; und die wachsenden Sorgen darüber, wie diese Systeme Vorurteile und andere Formen von Ungerechtigkeit weiter verfestigen.
Einige Experten argumentieren, dass unkontrollierte KI Frauenfeindlichkeit, Belästigung und Ungleichheit verstärken kann – von virtuellen Assistenten, die standardmäßig weibliche Stimmen in untergeordneten Rollen verwenden, bis hin zu Vorurteilen bei Einstellungsalgorithmen und der Erstellung von Deepfake-Inhalten. Sie fordern, dass ethische KI mit einem Bewusstsein für diese Risiken entworfen werden sollte.
Der Trainingsprozess von KI
Die potenziellen ethischen Probleme von KI beginnen bereits zu Beginn des Prozesses. Diese Modelle sind mächtig, weil sie auf einer riesigen Menge an Text trainiert wurden, um zu lernen, wie Worte zusammenpassen. Es gibt jedoch keinen sauberen Weg, um auf eine solch große Menge Text zuzugreifen. Viele KI-Unternehmen haben auf das Scraping von Texten aus dem Internet zurückgegriffen, was Fragen zum Urheberrecht aufwirft.
Einige dieser ethischen Bedenken wurden bereits vor Gericht ausgefochten, wo Argumente über die moralische Vertretbarkeit dieser Art der Nutzung diskutiert wurden. Im vergangenen Sommer stellte ein US-Richter fest, dass die Nutzung von Büchern ohne Erlaubnis ihrer Autoren im Rahmen der „Fair-Use“-Regeln lag. Gleichzeitig wurde ein Unternehmen für die Kopie und Speicherung von über sieben Millionen raubkopierten Büchern gerügt.
Es ist sowohl wichtig als auch notwendig, sorgfältig über die Ethik von KI-Unternehmen und ihren Produkten nachzudenken. Wenn ein neues Modell erstellt wird, durchläuft es einen Trainingsprozess, der unter anderem auch die Bewertung möglicher Antworten durch einen menschlichen Prüfer umfasst. Diese Bewertungen werden dann zurück in das System eingespeist. Einige Unternehmen haben auch „konstitutionelle KI“ verwendet, um ihre Assistenten zu entwickeln. Diese Prinzipien sind oft inspiriert von den drei Gesetzen der Robotik und beinhalten Vorgaben, die darauf abzielen, menschliches Wohlergehen zu fördern.
Fazit
Im Angesicht des Widerstands von Verbrauchern könnte die Lösung eine relativ altmodische sein: Geschmack. Die Wahl der KI-Nutzer könnte zunehmend eine Frage von Forschung und ethischen sowie ästhetischen Präferenzen werden.