Google entfernt Waffen-Pledge und veröffentlicht verantwortungsbewussten KI-Bericht

Google veröffentlicht Bericht über verantwortungsbewusste KI

Der aktuelle verantwortungsbewusste KI-Bericht von Google könnte das, was er nicht erwähnt, am meisten ins Gewicht fallen. Insbesondere wird in dem Bericht kein Wort über Waffen und Überwachung verloren.

Am Dienstag veröffentlichte Google seinen sechsten jährlichen Bericht über den Fortschritt verantwortungsbewusster KI, der „Methoden zur Governance, Kartierung, Messung und Verwaltung von KI-Risiken“ beschreibt, sowie „Updates, wie wir verantwortungsbewusste KI-Innovation bei Google operationalisieren.“

Sicherheitsforschung und Ausbildungsinvestitionen

Im Bericht verweist Google auf die zahlreichen Sicherheitsforschungsarbeiten, die 2024 veröffentlicht wurden (über 300), die Ausgaben für KI-Ausbildung und -Training (120 Millionen US-Dollar) sowie verschiedene Governance-Benchmarks. Dazu gehört, dass die Cloud-KI von Google eine „ausgereifte“ Bereitschaftsbewertung vom National Institute of Standards and Technology (NIST) erhalten hat.

Red-Teaming und Projektschutz

Der Bericht konzentriert sich stark auf Sicherheits- und inhaltsfokussiertes Red-Teaming und vertieft sich in Projekte wie Gemini, AlphaFold und Gemma. Dabei wird erläutert, wie das Unternehmen Modelle schützt, um die Erzeugung oder Verbreitung schädlicher Inhalte zu verhindern.

Google lobt auch SynthID, ein Werkzeug zur Inhalts-Wasserzeichen-Technologie, das entwickelt wurde, um KI-generierte Fehlinformationen besser nachverfolgen zu können.

Aktualisierung des Frontier Safety Frameworks

Google hat auch sein Frontier Safety Framework aktualisiert und neue Sicherheitsempfehlungen, Verfahren zur Missbrauchsminderung und „Risiken der täuschenden Ausrichtung“ hinzugefügt, die sich mit dem Risiko befassen, dass ein autonomes System menschliche Kontrolle absichtlich untergräbt.

Diese Art der Ausrichtungsfälschung, bei der ein KI-System seine Schöpfer täuscht, um Autonomie zu wahren, wurde in Modellen wie OpenAI o1 und Claude 3 Opus festgestellt.

Verantwortungsvolle KI und deren Definition

Der Bericht bleibt bei den Themen Benutzersicherheit, Datenprivatsphäre und Sicherheit, während er innerhalb eines relativ geschützten Bereichs der Konsumenten-KI bleibt. Dabei wird die Frage aufgeworfen: Was ist verantwortungsvolle KI?

Gleichzeitig hat das Unternehmen jedoch sein Versprechen, KI nicht zur Entwicklung von Waffen oder zur Überwachung von Bürgern zu verwenden, von seiner Webseite entfernt. Dieses Versprechen war zuletzt sichtbar, wurde jedoch offenbar gelöscht.

Google hat seine KI-Prinzipien um „drei Kernprinzipien“ erneuert: wagemutige Innovation, kollaborativer Fortschritt und verantwortungsvolle Entwicklung und Bereitstellung.

Im aktualisierten KI-Prinzipien wird die verantwortungsvolle Bereitstellung als Ausrichtung auf „Benutzerziele, soziale Verantwortung und allgemein akzeptierte Prinzipien des internationalen Rechts und der Menschenrechte“ beschrieben.

Dieser Wandel fügt ein weiteres Puzzlestück zu dem langsam wachsenden Mosaik von Technologiegiganten hinzu, die ihre Haltung zu militärischen Anwendungen von KI überdenken.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...