NIST-Entwurf: Leitlinien für KI-Sicherheit im Cyberbereich

NIST veröffentlicht Entwurf eines Rahmens für die Cybersicherheit von KI und fordert öffentliche Kommentare: Was Organisationen wissen sollten

Das National Institute of Standards and Technology (NIST) hat kürzlich Entwurfsempfehlungen veröffentlicht, um das Cybersecurity Framework auf Organisationen anzuwenden, die künstliche Intelligenz (KI) einsetzen. NIST fordert öffentliche Kommentare zu seinem „Ersten vorläufigen Entwurf“ des Cybersecurity-Rahmenprofils für künstliche Intelligenz (das „Cyber AI-Profil“) bis Mitternacht am 30. Januar 2026.

Obwohl nicht verbindlich, ist das Cyber AI-Profil von Bedeutung, da es Organisationen Richtlinien für das Management von Cybersicherheitsrisiken im Zusammenhang mit KI-Systemen bietet. Es stellt den ersten umfassenden Versuch des NIST dar, KI-spezifische Risiken und Chancen direkt in das NIST Cybersecurity Framework 2.0 (CSF) zu integrieren, den weit verbreiteten Standard zur Verwaltung von Cybersicherheitsrisiken. Organisationen, die KI-Systeme entwickeln, implementieren, beschaffen oder darauf angewiesen sind, sollten das Cyber AI-Profil als frühes Zeichen dafür betrachten, wie Regulierungsbehörden, Prüfer und Gegenparteien „angemessene“ Cybersicherheits- und Governance-Praktiken für KI-gestützte Systeme bewerten könnten.

Wesentliche Punkte

Der Entwurf ist als „Erster vorläufiger Entwurf“ des Cyber AI-Profils gedacht. Er soll das aktuelle Denken zur Richtung der KI-Governance vermitteln, und die Autoren suchen Feedback, um zukünftige Iterationen zu informieren. Die Frist für öffentliche Kommentare ist der 30. Januar 2026.

Das Cyber AI-Profil ersetzt keine bestehenden Cybersicherheits- oder KI-Governance-Rahmenwerke; vielmehr ergänzt es die KI-spezifischen Prioritäten und Überlegungen des CSF 2.0.

Das Cyber AI-Profil hat das Potenzial, ein de facto Maßstab für Regulierungsbehörden, Bundesbehörden und Kläger zu werden, die die Cybersicherheitsdiligence im Zusammenhang mit KI bewerten.

Was ist das Cyber AI-Profil?

Das Cyber AI-Profil ist ein Community-Profil des NIST Cybersecurity Framework, das Organisationen hilft, Cybersicherheitsziele im Kontext von KI-Systemen zu priorisieren. Wichtig ist, dass NIST absichtlich vermeidet, „KI“ eng zu definieren, sondern den Begriff „KI-Systeme“ verwendet, um jedes System zu bezeichnen, das KI-Funktionen nutzt, unabhängig davon, ob es sich um eigenständige KI-Systeme oder um Anwendungen, Infrastrukturen und Organisationen handelt, die KI integrieren. Somit soll das Cyber AI-Profil breit anwendbar sein, einschließlich großer Sprachmodelle (LLMs), generativer KI, prädiktiver Analytik, Empfehlungssysteme und agentischer Systeme.

Im Allgemeinen:

  • Verwendet das CSF 2.0 Funktionen, Kategorien und Unterkategorien (Govern, Identify, Protect, Detect, Respond, Recover), die ähnliche Cybersicherheitsmaßnahmen gruppieren, die Organisationen umsetzen können;
  • Fügt KI-spezifische Überlegungen und vorgeschlagene Prioritäten für jede Unterkategorie hinzu, wie zum Beispiel die Durchführung von KI-Audits zur Berücksichtigung KI-spezifischer Bedürfnisse (wie Erklärbarkeit); und
  • Erkennt an, dass Organisationen in sehr unterschiedlichen Phasen der KI-Adoption sein können – von begrenzten maschinellen Lernwerkzeugen bis hin zu vollständig agentischen oder generativen KI-Implementierungen.

Anwendung und verwandte Initiativen

Das Cyber AI-Profil richtet sich an eine breite Palette von Organisationen. Dazu gehören solche, die KI-Technologien entwickeln oder nutzen, sei es als eigenständige KI-Systeme oder als KI-gestützte Fähigkeiten, die in andere Systeme integriert sind. Ebenso umfasst es Organisationen, die die Cybersicherheitsfähigkeiten, die KI bieten kann, verstehen und nutzen möchten oder die sich besser gegen KI-gestützte Cyberangriffe verteidigen wollen.

Um das Cyber AI-Profil zu ergänzen und die Einführung des separaten AI Risk Management Frameworks zu unterstützen, entwickelt NIST eine Reihe von Kontrollüberlagerungen zur Sicherung von KI-Systemen (COSAiS) unter Verwendung der NIST Special Publication (SP) 800-53 Kontrollen. Dieses Vorhaben soll es Organisationen ermöglichen, ihre Basissicherheitsmaßnahmen oder „Kontrollen“ an ihren spezifischen Kontext und ihre Bedürfnisse anzupassen. COSAiS plant, zusätzliche Implementierungsrichtlinien bereitzustellen und KI-Nutzern sowie -Entwicklern zu helfen, ihre einzigartigen Risiken in verschiedenen Anwendungsfällen zu managen, etwa bei der Anpassung und Verwendung generativer KI, bei der Nutzung und Feinabstimmung prädiktiver KI sowie bei der Verwendung agentischer KI.

Gleichzeitig hat NIST eine Anfrage nach Informationen veröffentlicht, wie die sichere Entwicklung und Bereitstellung von agentischen KI-Systemen gemessen und verbessert werden kann, um die Grundlage für genauere Anleitungen zu schaffen.

Separat hat der National Defense Authorization Act für das Geschäftsjahr 2026 das Pentagon aufgefordert, einen Sicherheitsbewertungsrahmen für die beschafften KI-Technologien zu erstellen und umzusetzen. Angesichts der Häufigkeit, mit der das Pentagon die Einhaltung von NIST-Cybersicherheitsstandards fordert, wird es wahrscheinlich NISTs wachsende Liste von KI-Richtlinien, einschließlich des sich entwickelnden Cyber AI-Profils, bei der Erstellung dieser neuen KI-Sicherheitsanforderungen berücksichtigen.

Fazit

Das Cyber AI-Profil sendet eine klare Botschaft: KI ist ein Thema der Cybersicherheits-Governance. Organisationen, die darauf warten, dass verbindliche Vorschriften erlassen werden, bevor sie ihre Programme anpassen, könnten hinter den sich entwickelnden Erwartungen zurückbleiben.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...