Google und die Ethik: Vorwurf der Unterstützung militärischer Überwachung

Ex-Mitarbeiter beschuldigt Google, IDF-Auftragnehmer mit KI unterstützt zu haben und gegen Ethikrichtlinien verstoßen zu haben

Ein ehemaliger Google-Mitarbeiter hat das Unternehmen beschuldigt, gegen seine Ethikrichtlinien für Künstliche Intelligenz (KI) verstoßen zu haben, indem es einem israelischen Militärauftragnehmer half, Drohnenaufnahmen im Jahr 2024 zu analysieren. Diese Beschwerde wurde bei der US-Börsenaufsichtsbehörde (SEC) eingereicht und wirft Google vor, gegen die eigenen „KI-Prinzipien“ verstoßen zu haben, die zu diesem Zeitpunkt festlegten, dass das Unternehmen keine KI-Technologie zur Durchführung von Überwachungen verwenden würde, die gegen „international akzeptierte Normen“ oder im Zusammenhang mit Waffen verstoßen.

Der Beschwerde zufolge erhielt die Cloud-Computing-Abteilung von Google eine Kundenanfrage, die angeblich von einer IDF-E-Mail-Adresse gesendet wurde. Der Name des Kunden, der mit der Anfrage verbunden war, stimmte mit einem Mitarbeiter eines israelischen Technologieunternehmens überein. Die Beschwerde behauptet zudem, dass dieses Unternehmen ein Auftragnehmer der IDF ist.

In den internen Dokumenten, die der Beschwerde beigefügt waren, wurde beschrieben, dass der Kunde Hilfe anforderte, nachdem er einen Fehler festgestellt hatte, während er versuchte, Googles Gemini-KI zur Analyse von Luftaufnahmen zu nutzen. Dieser Fehler führte dazu, dass die Software gelegentlich Drohnen, Soldaten und andere Objekte nicht erkannte. Der Kundenservice von Googles Cloud-Einheit antwortete offenbar mit Vorschlägen und führte interne Tests in Bezug auf die Anfrage durch.

Behauptungen und Reaktionen

Nach mehreren Nachrichtenwechseln zwischen dem CloudEx-Mitarbeiter und dem Support-Mitarbeiter löste sich das Problem anscheinend von selbst. Ein zusätzlicher Google-Mitarbeiter war in die Anfrage eingebunden, und die Beschwerde dokumentiert, dass dieser Mitarbeiter an dem Google Cloud-Konto der IDF arbeitete. Die Beschwerde behauptet, dass die Luftaufnahmen mit israelischen Operationen in Gaza während des Israel-Hamas-Kriegs in Verbindung standen, liefert jedoch keine spezifischen Beweise zur Unterstützung dieser Behauptung.

Der Whistleblower behauptet zudem, dass die Antwort des Kundenservices den öffentlich erklärten und zuvor eingereichten Richtlinien von Google widerspricht und dass die Firma gegen die Wertpapiergesetze verstoßen hat, da sie Regulierung und Investoren irreführte. Google hat zuvor erklärt, dass alle Arbeiten, die es mit der israelischen Regierung oder Beamten durchgeführt hat, „nicht auf hochsensible, klassifizierte oder militärische Arbeitslasten in Bezug auf Waffen oder Nachrichtendienste“ gerichtet waren.

Vorwürfe der Doppelstandards

Der ehemalige Mitarbeiter erklärte, dass viele seiner Projekte bei Google internen Ethikprüfungen für KI unterzogen wurden. „Dieser Prozess ist robust, und wir werden regelmäßig daran erinnert, wie wichtig die KI-Prinzipien des Unternehmens sind“, sagte er in einer anonymen Erklärung, da er angeblich Angst vor Repressalien von Google hat. Er fügte hinzu, dass „im Fall von Israel und Gaza das Gegenteil der Fall war“.

Der ehemalige Mitarbeiter reichte die SEC-Beschwerde ein, weil er der Meinung war, dass das Unternehmen für den angeblichen „Doppelstandard“ zur Verantwortung gezogen werden müsse. Ein Sprecher von Google wies die Behauptung des „Doppelstandards“ zurück und erklärte, dass der Kundenservice keine Ethikrichtlinien für KI verletzt habe, da die Nutzung der Gemini-Dienste durch den Anfragenden zu gering gewesen sei, um als „bedeutend“ betrachtet zu werden.

Die Beschwerde bei der SEC kann von jeder Person eingereicht werden und führt nicht automatisch zu einer weiteren Untersuchung. Im Februar 2025 aktualisierte Google den Abschnitt seiner KI-Richtlinien, der die Nutzung seiner Technologie für Überwachung und Waffen verbietet, und erklärte, dass es demokratisch gewählten Regierungen helfen müsse, mit der globalen Nutzung von KI Schritt zu halten.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...