Google veröffentlicht Bericht über verantwortungsbewusste KI
Der aktuelle verantwortungsbewusste KI-Bericht von Google könnte das, was er nicht erwähnt, am meisten ins Gewicht fallen. Insbesondere wird in dem Bericht kein Wort über Waffen und Überwachung verloren.
Am Dienstag veröffentlichte Google seinen sechsten jährlichen Bericht über den Fortschritt verantwortungsbewusster KI, der „Methoden zur Governance, Kartierung, Messung und Verwaltung von KI-Risiken“ beschreibt, sowie „Updates, wie wir verantwortungsbewusste KI-Innovation bei Google operationalisieren.“
Sicherheitsforschung und Ausbildungsinvestitionen
Im Bericht verweist Google auf die zahlreichen Sicherheitsforschungsarbeiten, die 2024 veröffentlicht wurden (über 300), die Ausgaben für KI-Ausbildung und -Training (120 Millionen US-Dollar) sowie verschiedene Governance-Benchmarks. Dazu gehört, dass die Cloud-KI von Google eine „ausgereifte“ Bereitschaftsbewertung vom National Institute of Standards and Technology (NIST) erhalten hat.
Red-Teaming und Projektschutz
Der Bericht konzentriert sich stark auf Sicherheits- und inhaltsfokussiertes Red-Teaming und vertieft sich in Projekte wie Gemini, AlphaFold und Gemma. Dabei wird erläutert, wie das Unternehmen Modelle schützt, um die Erzeugung oder Verbreitung schädlicher Inhalte zu verhindern.
Google lobt auch SynthID, ein Werkzeug zur Inhalts-Wasserzeichen-Technologie, das entwickelt wurde, um KI-generierte Fehlinformationen besser nachverfolgen zu können.
Aktualisierung des Frontier Safety Frameworks
Google hat auch sein Frontier Safety Framework aktualisiert und neue Sicherheitsempfehlungen, Verfahren zur Missbrauchsminderung und „Risiken der täuschenden Ausrichtung“ hinzugefügt, die sich mit dem Risiko befassen, dass ein autonomes System menschliche Kontrolle absichtlich untergräbt.
Diese Art der Ausrichtungsfälschung, bei der ein KI-System seine Schöpfer täuscht, um Autonomie zu wahren, wurde in Modellen wie OpenAI o1 und Claude 3 Opus festgestellt.
Verantwortungsvolle KI und deren Definition
Der Bericht bleibt bei den Themen Benutzersicherheit, Datenprivatsphäre und Sicherheit, während er innerhalb eines relativ geschützten Bereichs der Konsumenten-KI bleibt. Dabei wird die Frage aufgeworfen: Was ist verantwortungsvolle KI?
Gleichzeitig hat das Unternehmen jedoch sein Versprechen, KI nicht zur Entwicklung von Waffen oder zur Überwachung von Bürgern zu verwenden, von seiner Webseite entfernt. Dieses Versprechen war zuletzt sichtbar, wurde jedoch offenbar gelöscht.
Google hat seine KI-Prinzipien um „drei Kernprinzipien“ erneuert: wagemutige Innovation, kollaborativer Fortschritt und verantwortungsvolle Entwicklung und Bereitstellung.
Im aktualisierten KI-Prinzipien wird die verantwortungsvolle Bereitstellung als Ausrichtung auf „Benutzerziele, soziale Verantwortung und allgemein akzeptierte Prinzipien des internationalen Rechts und der Menschenrechte“ beschrieben.
Dieser Wandel fügt ein weiteres Puzzlestück zu dem langsam wachsenden Mosaik von Technologiegiganten hinzu, die ihre Haltung zu militärischen Anwendungen von KI überdenken.