Personnaliser l’IA responsable avec les nouveaux niveaux de protection dans Amazon Bedrock Guardrails
Amazon Bedrock Guardrails propose des garde-fous configurables pour aider à construire des applications d’IA générative de confiance à grande échelle. Cette solution intègre des mécanismes de sécurité et de confidentialité qui fonctionnent à travers plusieurs modèles de base (FMs), y compris ceux disponibles dans Amazon Bedrock, ainsi que ceux hébergés en dehors d’Amazon Bedrock par d’autres fournisseurs de modèles et de services cloud.
Avec l’API indépendante ApplyGuardrail, Amazon Bedrock Guardrails offre une approche évolutive et indépendante du modèle pour appliquer des politiques d’IA responsable. Actuellement, les garde-fous offrent six mesures clés de protection : filtres de contenu, sujets refusés, filtres de mots, filtres d’informations sensibles, vérifications de contextualisation, et vérifications de raisonnement automatisé (en aperçu), afin d’éviter les contenus indésirables et d’aligner les interactions d’IA avec les politiques d’IA responsable de l’organisation.
Introduction des niveaux de protection
À mesure que les organisations s’efforcent de mettre en œuvre des pratiques d’IA responsable à travers divers cas d’utilisation, elles sont confrontées au défi d’équilibrer les contrôles de sécurité avec des exigences de performance et de langue variées. Pour répondre à cette problématique, des niveaux de protection ont été introduits dans Amazon Bedrock Guardrails, permettant de choisir des mesures appropriées en fonction des besoins spécifiques.
Par exemple, une entreprise de services financiers peut mettre en œuvre une protection complète et multilingue pour les assistants IA destinés aux clients, tout en utilisant des garde-fous plus ciblés et à faible latence pour les outils d’analyse internes. Cela garantit que chaque application respecte les principes d’IA responsable avec le bon niveau de protection, sans compromettre la performance ou la fonctionnalité.
Avantages des niveaux de protection
Les niveaux de protection appliqués au niveau des politiques de garde-fou, spécifiquement pour les filtres de contenu et les sujets refusés, offrent plusieurs avantages :
- Approche par niveaux : Donne le contrôle sur les mises en œuvre des garde-fous que vous souhaitez utiliser.
- Soutien à l’inférence inter-régionale (CRIS) : Permet d’utiliser la capacité de calcul à travers plusieurs régions pour améliorer la mise à l’échelle et la disponibilité.
- Capacités avancées : Options configurables pour des cas d’utilisation nécessitant une protection plus robuste ou un support linguistique plus large.
Les deux niveaux disponibles
Deux niveaux sont disponibles :
- Niveau classique (par défaut) : Maintient le comportement existant des garde-fous Amazon Bedrock, avec un support linguistique limité (anglais, français, espagnol).
- Niveau standard : Nouvelle capacité avec un support multilingue pour plus de 60 langues, protection avancée contre les attaques sur les invites et détection améliorée des sujets complexes.
Les entreprises peuvent configurer les niveaux de protection pour les filtres de contenu et les sujets refusés dans chaque garde-fou à travers la console de gestion AWS ou par programmation via le SDK et les API d’Amazon Bedrock.
Évaluation des garde-fous
Pour évaluer la performance de vos garde-fous, il est recommandé de créer un ensemble de données de test qui comprend des exemples sûrs, nuisibles, des cas limites, et des exemples dans plusieurs langues, surtout avec le niveau standard. Cela permet d’évaluer l’exactitude et le rappel des garde-fous.
Meilleures pratiques pour mettre en œuvre des niveaux
Lors de la configuration des niveaux pour Amazon Bedrock Guardrails, il est conseillé de :
- Commencer par des tests par étapes avec un échantillon représentatif de vos entrées et réponses attendues.
- Considérer les exigences linguistiques, surtout pour les applications multilingues.
- Évaluer la sécurité et la performance pour prendre des décisions éclairées.
Conclusion
L’introduction des niveaux de protection dans Amazon Bedrock Guardrails représente un progrès significatif dans l’engagement en faveur de l’IA responsable. En offrant des outils de sécurité flexibles et puissants, les organisations peuvent mettre en œuvre des solutions d’IA qui sont à la fois innovantes et éthiques, tout en respectant les valeurs organisationnelles et en maintenant la confiance des utilisateurs.