Maßgeschneiderte verantwortungsvolle KI mit neuen Schutzebenen in Amazon Bedrock Guardrails
Amazon Bedrock Guardrails bietet konfigurierbare Schutzmaßnahmen, die helfen, vertrauenswürdige generative KI-Anwendungen in großem Maßstab zu entwickeln. Es stellt Organisationen integrierte Sicherheits- und Datenschutzschutzmaßnahmen zur Verfügung, die über mehrere Foundation Models (FMs) hinweg funktionieren, einschließlich Modelle, die in Amazon Bedrock verfügbar sind, sowie Modelle, die außerhalb von Amazon Bedrock von anderen Anbietern und Cloud-Anbietern gehostet werden.
Mit der eigenständigen ApplyGuardrail API bietet Amazon Bedrock Guardrails einen modellagnostischen und skalierbaren Ansatz zur Umsetzung verantwortungsvoller KI-Richtlinien für generative KI-Anwendungen. Guardrails bietet derzeit sechs wichtige Schutzmaßnahmen: Inhaltsfilter, verbotene Themen, Wortfilter, Filter für sensible Informationen, kontextuelle Grundierungsprüfungen und Automatisierte Prüfungen der Argumentation (Vorschau), um unerwünschte Inhalte zu verhindern und KI-Interaktionen mit den verantwortungsvollen KI-Richtlinien der Organisation in Einklang zu bringen.
Einführung der Schutzebenen
Um die Herausforderungen zu meistern, die Organisationen bei der Umsetzung verantwortungsvoller KI-Praktiken gegenüberstehen, haben wir Schutzebenen für Amazon Bedrock Guardrails eingeführt. Diese ermöglichen es, geeignete Schutzmaßnahmen basierend auf den spezifischen Bedürfnissen auszuwählen. Beispielsweise kann ein Unternehmen im Finanzdienstleistungssektor umfassenden, mehrsprachigen Schutz für kundenorientierte KI-Assistenten implementieren, während es für interne Analysewerkzeuge gezielte, latenzoptimierte Schutzmaßnahmen verwendet.
Vorteile der Schutzebenen
Die Einführung von Schutzebenen in Amazon Bedrock Guardrails bietet drei wesentliche Vorteile:
- Tier-basierter Ansatz: Kontrolle darüber, welche Schutzmaßnahmen für Inhaltsfilter und verbotene Themen verwendet werden sollen, um das geeignete Schutzniveau für jeden Anwendungsfall auszuwählen.
- Cross-Region Inference Support (CRIS): Nutzung von Rechenkapazitäten über mehrere Regionen hinweg, um eine bessere Skalierung und Verfügbarkeit der Schutzmaßnahmen zu gewährleisten.
- Erweiterte Fähigkeiten: Als konfigurierbare Tier-Option für Anwendungsfälle, bei denen robustere Schutzmaßnahmen oder eine breitere Sprachunterstützung von entscheidender Bedeutung sind.
Qualitätsverbesserungen mit der Standardebene
Die neue Standardebene verbessert die Rückrufquote für schädliche Inhaltsfilter um mehr als 15% im Vergleich zur Classic-Ebene. Ein herausragendes Merkmal der neuen Standardebene ist ihre mehrsprachige Unterstützung, die eine starke Leistung mit über 78% Rückrufquote und über 88% ausgewogene Genauigkeit für die häufigsten 14 Sprachen aufrechterhält.
Anwendungsbeispiele
Ein globales Finanzdienstleistungsunternehmen könnte für seinen KI-gestützten Kundenservice-Assistenten die Standardebene für sowohl Inhaltsfilter als auch verbotene Themen wählen, um umfassenden Schutz über viele Sprachen hinweg zu gewährleisten. Für interne Analysewerkzeuge könnte es die Classic-Ebene für Inhaltsfilter verwenden, um die Latenz zu priorisieren, während es die Standardebene für verbotene Themen implementiert, um einen robusten Schutz gegen die Offenlegung sensibler Finanzinformationen zu bieten.
Implementierung der Schutzebenen
Die Konfiguration der Schutzebenen für Inhaltsfilter und verbotene Themen kann über die AWS Management Console oder programmgesteuert über das Amazon Bedrock SDK und APIs erfolgen. Ihre bestehenden Schutzmaßnahmen sind standardmäßig auf die Classic-Ebene eingestellt, um sicherzustellen, dass sich das Verhalten Ihrer Schutzmaßnahmen nicht ändert.
Bewertung der Schutzmaßnahmen
Um die Leistung Ihrer Schutzmaßnahmen gründlich zu bewerten, sollten Sie einen Testdatensatz erstellen, der sichere Beispiele, schädliche Beispiele, Grenzfälle und Beispiele in mehreren Sprachen umfasst. Ideal ist es, wenn Ihr Datensatz mit den erwarteten Antworten für jeden Fall gekennzeichnet ist, um die Genauigkeit und den Rückruf Ihrer Schutzmaßnahmen zu beurteilen.
Fazit
Die Einführung von Schutzebenen in Amazon Bedrock Guardrails stellt einen bedeutenden Fortschritt in unserem Engagement für verantwortungsvolle KI dar. Durch die Bereitstellung flexibler, leistungsstarker und sich weiterentwickelnder Sicherheitswerkzeuge für generative KI-Anwendungen befähigen wir Organisationen, KI-Lösungen zu implementieren, die nicht nur innovativ, sondern auch ethisch und vertrauenswürdig sind. Diese maßgeschneiderte Herangehensweise ermöglicht es, das richtige Schutzniveau für verschiedene Anwendungen zu implementieren, während ein Weg für kontinuierliche Verbesserungen in der KI-Sicherheit und Ethik geschaffen wird.