Google entfernt Waffen-Pledge und veröffentlicht verantwortungsbewussten KI-Bericht

Google veröffentlicht Bericht über verantwortungsbewusste KI

Der aktuelle verantwortungsbewusste KI-Bericht von Google könnte das, was er nicht erwähnt, am meisten ins Gewicht fallen. Insbesondere wird in dem Bericht kein Wort über Waffen und Überwachung verloren.

Am Dienstag veröffentlichte Google seinen sechsten jährlichen Bericht über den Fortschritt verantwortungsbewusster KI, der „Methoden zur Governance, Kartierung, Messung und Verwaltung von KI-Risiken“ beschreibt, sowie „Updates, wie wir verantwortungsbewusste KI-Innovation bei Google operationalisieren.“

Sicherheitsforschung und Ausbildungsinvestitionen

Im Bericht verweist Google auf die zahlreichen Sicherheitsforschungsarbeiten, die 2024 veröffentlicht wurden (über 300), die Ausgaben für KI-Ausbildung und -Training (120 Millionen US-Dollar) sowie verschiedene Governance-Benchmarks. Dazu gehört, dass die Cloud-KI von Google eine „ausgereifte“ Bereitschaftsbewertung vom National Institute of Standards and Technology (NIST) erhalten hat.

Red-Teaming und Projektschutz

Der Bericht konzentriert sich stark auf Sicherheits- und inhaltsfokussiertes Red-Teaming und vertieft sich in Projekte wie Gemini, AlphaFold und Gemma. Dabei wird erläutert, wie das Unternehmen Modelle schützt, um die Erzeugung oder Verbreitung schädlicher Inhalte zu verhindern.

Google lobt auch SynthID, ein Werkzeug zur Inhalts-Wasserzeichen-Technologie, das entwickelt wurde, um KI-generierte Fehlinformationen besser nachverfolgen zu können.

Aktualisierung des Frontier Safety Frameworks

Google hat auch sein Frontier Safety Framework aktualisiert und neue Sicherheitsempfehlungen, Verfahren zur Missbrauchsminderung und „Risiken der täuschenden Ausrichtung“ hinzugefügt, die sich mit dem Risiko befassen, dass ein autonomes System menschliche Kontrolle absichtlich untergräbt.

Diese Art der Ausrichtungsfälschung, bei der ein KI-System seine Schöpfer täuscht, um Autonomie zu wahren, wurde in Modellen wie OpenAI o1 und Claude 3 Opus festgestellt.

Verantwortungsvolle KI und deren Definition

Der Bericht bleibt bei den Themen Benutzersicherheit, Datenprivatsphäre und Sicherheit, während er innerhalb eines relativ geschützten Bereichs der Konsumenten-KI bleibt. Dabei wird die Frage aufgeworfen: Was ist verantwortungsvolle KI?

Gleichzeitig hat das Unternehmen jedoch sein Versprechen, KI nicht zur Entwicklung von Waffen oder zur Überwachung von Bürgern zu verwenden, von seiner Webseite entfernt. Dieses Versprechen war zuletzt sichtbar, wurde jedoch offenbar gelöscht.

Google hat seine KI-Prinzipien um „drei Kernprinzipien“ erneuert: wagemutige Innovation, kollaborativer Fortschritt und verantwortungsvolle Entwicklung und Bereitstellung.

Im aktualisierten KI-Prinzipien wird die verantwortungsvolle Bereitstellung als Ausrichtung auf „Benutzerziele, soziale Verantwortung und allgemein akzeptierte Prinzipien des internationalen Rechts und der Menschenrechte“ beschrieben.

Dieser Wandel fügt ein weiteres Puzzlestück zu dem langsam wachsenden Mosaik von Technologiegiganten hinzu, die ihre Haltung zu militärischen Anwendungen von KI überdenken.

More Insights

EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

Quebecs KI-Politik für Hochschulen und Cégeps

Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

Neue AI-Strategie: Technisches Sekretariat statt Regulator

Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

KI-Sicherheit als Motor für Innovation in Schwellenländern

Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...