AI-Sicherheitsinstitut: Verantwortung der Käufer im Fokus

Was das AI Security Institute im Vereinigten Königreich für Käufer bedeutet, nicht für Entwickler

Die Gründung des AI Security Institute (AISI) durch die britische Regierung wurde von Käufern und Beschaffungsteams zunächst als eine Art Beruhigung angesehen, da sie einfache Indikatoren erhalten, um zu wissen, welche AI-Frontmodelle eine staatliche Sicherheitsbewertung durchlaufen haben. Wie sich jedoch ein AI-Dienst verhält, liegt nach wie vor fest in der Verantwortung des Anwenders. Dies bedeutet, dass Organisationen weiterhin ihre eigene Sorgfaltspflicht erfüllen müssen, um sicherzustellen, dass Modelle und zugehörige Dienste wie beabsichtigt funktionieren.

Die Rolle des AISI

Das AISI verwendet fortschrittliche Sicherheitswerkzeuge, um nach Wegen zu suchen, die Sicherheitsvorkehrungen der Modelle zu umgehen, einschließlich Tests vor der Bereitstellung, Red-Teaming und Bewertungen für Randfälle, die in regulären Tests nicht gefunden werden. Das Mandat des AISI ist jedoch eng und hat sich seit dem letzten Jahr weiter verengt, seit es von AI Safety Institute zu AI Security Institute umbenannt wurde, was auf einen Fokus auf sicherheitsbezogene Risiken hinweist, anstatt auf algorithmische Vorurteile oder Redefreiheit.

Was müssen Käufer tun?

Für Käufer bewertet das AISI nicht die Auswirkungen eines AI-Frontmodells auf spezifische Organisationen, Bereitstellungen und Branchen. Es bietet auch keine Leitlinien dazu, wie eine Organisation AI sicher bereitstellen oder die Risiken mindern sollte, die in der Bewertung eines AI-Frontmodells angesprochen werden. Dies bedeutet, dass die Anwender von AI-Systemen für alles verantwortlich sind, was während der Bereitstellung schiefgeht.

Obwohl das AISI ein „vertrauenswürdiges Anbieter“-Siegel für diese Modelle bereitstellen kann, funktioniert es eher wie ein Sicherheitsstandards-Aussteller für Elektrowerkzeuge. Wenn der Käufer dann jedoch in ein Live-Kabel bohrt oder versäumt, Schutzausrüstung zu tragen, ist er für die Folgen dieser Handlungen verantwortlich.

Im Gegensatz zu einem Elektrowerkzeug sind einige der Risiken bei der Bereitstellung von AI nicht so offensichtlich. Käufer müssen sich der Einhaltung von Vorschriften bewusst sein, einschließlich der Einhaltung regionaler und nationaler Vorschriften sowie des Datenschutzes und der korrekten Verarbeitung von Daten. Das Verständnis, wie eine AI während eines Ausfalls oder bei falschen Eingaben reagiert, kann kostspielige Reputationsschäden vermeiden. Organisationen müssen auch die Modellabweichung im Auge behalten, um die Stabilität der Leistung zu gewährleisten.

Überwachung von AI-Modellen

Ein Teil dieser Beobachtung erfolgt nach der Bereitstellung, während die Regulierungsbehörden die Vorschriften rund um AI häufig ändern. Die Überwachung von Ausfällen und Modellabweichungen ist ein kontinuierlicher Prozess. Käufer müssen sich über den Lebenszyklus jedes Modells klar sein und sicherstellen, dass sie einen aktiven AI-Modellanbieter haben, der regelmäßig Updates zur Verbesserung der Sicherheit und des Schutzes des Modells bereitstellt.

Für Käufer besteht die praktische Reaktion nicht darin, sich auf das AISI zu verlassen, sondern ihre eigenen Beschaffungs- und Vertragsstandards weiterzuentwickeln. Das AISI und andere AI-Sicherheitsinstitute weltweit haben AI als hochriskante Software eingestuft, und daher sollte die Beschaffung dieser Software anderen sicherheitskritischen Softwarekäufen ähneln, anstatt den Standardprozessen für SaaS-Beschaffungen.

Wie mehrere Rechtsexperten festgestellt haben, kann Verantwortung nicht durch Beschaffung ausgelagert werden. Die Diskussion über den Einsatz von AI in einem Gerichtssaal verdeutlicht, dass „man sicherstellen muss, dass man die richtige Art von AI für eine Aufgabe beschafft, und die richtige Art wird teilweise durch die Notwendigkeit menschlicher Verantwortung bestimmt.“

Schlussfolgerung

Wo das AISI hilfreich sein kann, ist, AI-Anbieter dazu zu bringen, mehr Feedback, Verantwortung und Transparenz in Bezug auf Modellfehler und Updates bereitzustellen. Wenn mehr Augen auf die internen Abläufe eines Modells gerichtet sind und mehr Tests von neutralen Akteuren durchgeführt werden, haben Käufer weitaus bessere Informationen beim Einkauf.

Was dies jedoch nicht vollständig eliminiert, ist das Risiko, und der entscheidende Punkt ist, dass das AISI die Verantwortung nicht verringert, sondern die Erwartungen aller beteiligten Akteure erhöht hat. Das AISI kann die wirklich schlechten AI-Modelle aus den Beschaffungszyklen filtern, legt jedoch auch die Verantwortung noch mehr auf die Käufer, um AI-Modelle angemessen zu testen und sicherzustellen, dass sie perfekt für ihre eigene Bereitstellung geeignet sind.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...