Google entfernt Waffen-Pledge und veröffentlicht verantwortungsbewussten KI-Bericht

Google veröffentlicht Bericht über verantwortungsbewusste KI

Der aktuelle verantwortungsbewusste KI-Bericht von Google könnte das, was er nicht erwähnt, am meisten ins Gewicht fallen. Insbesondere wird in dem Bericht kein Wort über Waffen und Überwachung verloren.

Am Dienstag veröffentlichte Google seinen sechsten jährlichen Bericht über den Fortschritt verantwortungsbewusster KI, der „Methoden zur Governance, Kartierung, Messung und Verwaltung von KI-Risiken“ beschreibt, sowie „Updates, wie wir verantwortungsbewusste KI-Innovation bei Google operationalisieren.“

Sicherheitsforschung und Ausbildungsinvestitionen

Im Bericht verweist Google auf die zahlreichen Sicherheitsforschungsarbeiten, die 2024 veröffentlicht wurden (über 300), die Ausgaben für KI-Ausbildung und -Training (120 Millionen US-Dollar) sowie verschiedene Governance-Benchmarks. Dazu gehört, dass die Cloud-KI von Google eine „ausgereifte“ Bereitschaftsbewertung vom National Institute of Standards and Technology (NIST) erhalten hat.

Red-Teaming und Projektschutz

Der Bericht konzentriert sich stark auf Sicherheits- und inhaltsfokussiertes Red-Teaming und vertieft sich in Projekte wie Gemini, AlphaFold und Gemma. Dabei wird erläutert, wie das Unternehmen Modelle schützt, um die Erzeugung oder Verbreitung schädlicher Inhalte zu verhindern.

Google lobt auch SynthID, ein Werkzeug zur Inhalts-Wasserzeichen-Technologie, das entwickelt wurde, um KI-generierte Fehlinformationen besser nachverfolgen zu können.

Aktualisierung des Frontier Safety Frameworks

Google hat auch sein Frontier Safety Framework aktualisiert und neue Sicherheitsempfehlungen, Verfahren zur Missbrauchsminderung und „Risiken der täuschenden Ausrichtung“ hinzugefügt, die sich mit dem Risiko befassen, dass ein autonomes System menschliche Kontrolle absichtlich untergräbt.

Diese Art der Ausrichtungsfälschung, bei der ein KI-System seine Schöpfer täuscht, um Autonomie zu wahren, wurde in Modellen wie OpenAI o1 und Claude 3 Opus festgestellt.

Verantwortungsvolle KI und deren Definition

Der Bericht bleibt bei den Themen Benutzersicherheit, Datenprivatsphäre und Sicherheit, während er innerhalb eines relativ geschützten Bereichs der Konsumenten-KI bleibt. Dabei wird die Frage aufgeworfen: Was ist verantwortungsvolle KI?

Gleichzeitig hat das Unternehmen jedoch sein Versprechen, KI nicht zur Entwicklung von Waffen oder zur Überwachung von Bürgern zu verwenden, von seiner Webseite entfernt. Dieses Versprechen war zuletzt sichtbar, wurde jedoch offenbar gelöscht.

Google hat seine KI-Prinzipien um „drei Kernprinzipien“ erneuert: wagemutige Innovation, kollaborativer Fortschritt und verantwortungsvolle Entwicklung und Bereitstellung.

Im aktualisierten KI-Prinzipien wird die verantwortungsvolle Bereitstellung als Ausrichtung auf „Benutzerziele, soziale Verantwortung und allgemein akzeptierte Prinzipien des internationalen Rechts und der Menschenrechte“ beschrieben.

Dieser Wandel fügt ein weiteres Puzzlestück zu dem langsam wachsenden Mosaik von Technologiegiganten hinzu, die ihre Haltung zu militärischen Anwendungen von KI überdenken.

More Insights

So klassifizieren Sie Ihr KI-System unter dem EU KI-Gesetz in Minuten

Der EU AI Act wird die Art und Weise verändern, wie KI in Europa entwickelt, bewertet und bereitgestellt wird. Der EU AI Act Risk Classification Wizard hilft Teams dabei, schnell die Risikokategorie...

KI-Rechtsangleichung im Fokus der AIPPI 2025

Die AIPPI wird vom 13. bis 16. September 2025 in Yokohama, Japan, mit mehr als 2.700 Teilnehmern stattfinden, wobei der Schwerpunkt auf der Harmonisierung von KI-Rechtsvorschriften liegt...

KI-gestützte Überwachung: Sicherheit und Privatsphäre im Gleichgewicht

KI-gestützte Überwachung verspricht in einigen Kontexten echte operationale Vorteile, erfordert jedoch eine sorgfältige Governance, um legitime Sicherheitsgewinne zu bewahren, ohne die Bürgerrechte zu...

Verantwortliche KI im Finanzwesen: Von der Theorie zur Praxis

Die globale Diskussion über künstliche Intelligenz hat eine neue Phase erreicht, in der der Fokus darauf liegt, wie diese Werkzeuge verantwortungsvoll genutzt werden können, insbesondere im...

Zertifizierung für vertrauenswürdige KI und eine nachhaltige Zukunft

Zertifizierungen können Vertrauen in KI-Systeme schaffen, indem sie Standards für Zuverlässigkeit und Erklärbarkeit festlegen, was das Vertrauen der Nutzer stärkt. Regulierung wird zu einem...

Vertrauen in erklärbare KI: Ein Blick auf die Unsichtbaren

Erklärbare KI (XAI) ist entscheidend für den Aufbau von Vertrauen, Gewährleistung von Transparenz und Ermöglichung von Verantwortung in sensiblen Bereichen wie Gesundheitswesen und Finanzen. Die EU...

Verantwortungsvolle KI-Workflows für UX-Forschung

Dieser Artikel untersucht, wie KI verantwortungsvoll in den Arbeitsabläufen der UX-Forschung integriert werden kann, um Geschwindigkeit und Effizienz zu steigern, während gleichzeitig die menschliche...