Zero Trust für Künstliche Intelligenz: Neue Tools und Leitfäden

Neue Werkzeuge und Leitfäden: Ankündigung von Zero Trust für KI

Im vergangenen Jahr wurden zahlreiche Gespräche mit Sicherheitsverantwortlichen aus verschiedenen Bereichen geführt, und die Energie rund um KI ist unbestritten. Organisationen handeln schnell, und Sicherheitsteams passen sich an. Immer wieder wird die Frage gestellt: „Wir übernehmen KI schnell, wie stellen wir sicher, dass unsere Sicherheit Schritt hält?“

Diese Frage haben wir aufgegriffen und unsere bestehenden Werkzeuge und Leitfäden aktualisiert. Wir kündigen einen neuen Ansatz für Zero Trust für KI (ZT4AI) an. Zero Trust für KI erweitert bewährte Prinzipien des Zero Trust auf den gesamten KI-Lebenszyklus – von der Datenerfassung über das Modelltraining bis hin zur Bereitstellung und dem Verhalten von Agenten.

Warum Zero Trust-Prinzipien auf KI ausgeweitet werden müssen

KI-Systeme passen nicht gut in traditionelle Sicherheitsmodelle. Sie bringen neue Vertrauensgrenzen mit sich – zwischen Benutzern und Agenten, Modellen und Daten sowie Menschen und automatisierten Entscheidungsfindungen. Bei der Einführung autonomer und semi-autonomer KI-Agenten entsteht eine neue Risikoklasse: Überprivilegierte, manipulierte oder fehlgeleitete Agenten können als „Doppelagenten“ auftreten, die gegen die Ergebnisse arbeiten, für die sie entwickelt wurden.

Die Anwendung dreier grundlegender Prinzipien des Zero Trust auf KI umfasst:

  • Explizit verifizieren – Kontinuierliche Bewertung der Identität und des Verhaltens von KI-Agenten, Workloads und Benutzern.
  • Minimalrechte anwenden – Den Zugriff auf Modelle, Eingabeaufforderungen, Plugins und Datenquellen auf das Notwendige beschränken.
  • Annahme eines Breaches – KI-Systeme so gestalten, dass sie gegen Eingabeaufforderungsinjektionen, Datenvergiftungen und laterale Bewegungen widerstandsfähig sind.

Ein einheitlicher Weg: Strategie → Bewertung → Implementierung

Die häufigste Herausforderung, die wir von Sicherheitsverantwortlichen hören, ist das Fehlen eines klaren, strukturierten Weges vom Wissen zum Handeln. Der Ansatz für Zero Trust für KI wurde entwickelt, um zu helfen, die nächsten Schritte und Maßnahmen schnell zu erreichen.

Zero Trust Workshop – jetzt mit einem KI-Segment

Der Zero Trust Workshop wurde um ein spezielles KI-Segment erweitert, das nun 700 Sicherheitskontrollen über 116 logische Gruppen und 33 funktionale Bereiche abdeckt. Er ist szenariobasiert und vorschreibend, um Teams von der Bewertung zur Ausführung mit Klarheit und Geschwindigkeit zu bewegen.

Der Workshop hilft Organisationen:

  • Sicherheit, IT und Geschäftsinteressengruppen auf gemeinsame Ergebnisse auszurichten.
  • Zero Trust-Prinzipien über alle Säulen, einschließlich KI, anzuwenden.
  • Reale KI-Szenarien und die spezifischen Risiken zu erkunden, die sie mit sich bringen.
  • Produktübergreifende Integrationen zu identifizieren, die Silos aufbrechen und messbare Fortschritte fördern.

Zero Trust Assessment – erweitert um Daten und Netzwerk

Da KI-Agenten leistungsfähiger werden, sind die Risiken in Bezug auf Daten- und Netzwerksicherheit höher denn je. Unzureichend gesteuerte Agenten können sensible Daten offenlegen, auf bösartige Eingabeaufforderungen reagieren oder Informationen auf schwer zu erkennende und kostspielige Weise leaken. Datenklassifizierung, -kennzeichnung, -verwaltung und Verlustprävention sind wesentliche Kontrollen.

Das Zero Trust Assessment wurde entwickelt, um die Sicherheitskonfigurationen über Identität, Endpunkte, Daten und Netzwerkkontrollen zu automatisieren. Es bewertet Hunderte von Kontrollen, die an die Prinzipien des Zero Trust angepasst sind.

Zero Trust für KI Referenzarchitektur

Unsere neue Zero Trust für KI Referenzarchitektur zeigt, wie policy-gesteuerte Zugriffskontrollen, kontinuierliche Verifizierung, Überwachung und Governance zusammenarbeiten, um KI-Systeme zu sichern und die Widerstandsfähigkeit bei Vorfällen zu erhöhen.

Praktische Muster und Praktiken für die KI-Sicherheit

Das Wissen darüber, was zu tun ist, ist das eine. Zu wissen, wie man es im großen Maßstab umsetzt, ist etwas anderes. Unsere Muster und Praktiken bieten bewährte Ansätze für die komplexesten Herausforderungen der KI-Sicherheit.

Fazit

Zero Trust für KI bringt bewährte Sicherheitsprinzipien in die Realität der modernen KI. Die bereitgestellten Werkzeuge, Architekturen und Leitfäden sind darauf ausgelegt, Organisationen bei der Sicherung von Agenten, beim Schutz von Modellen und Daten sowie bei der Skalierung von KI ohne neue Risiken zu unterstützen.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...