Nouveaux niveaux de sécurité pour une IA responsable avec Amazon Bedrock Guardrails

A lockbox

Personnaliser l’IA responsable avec les nouveaux niveaux de protection dans Amazon Bedrock Guardrails

Amazon Bedrock Guardrails propose des garde-fous configurables pour aider à construire des applications d’IA générative de confiance à grande échelle. Cette solution intègre des mécanismes de sécurité et de confidentialité qui fonctionnent à travers plusieurs modèles de base (FMs), y compris ceux disponibles dans Amazon Bedrock, ainsi que ceux hébergés en dehors d’Amazon Bedrock par d’autres fournisseurs de modèles et de services cloud.

Avec l’API indépendante ApplyGuardrail, Amazon Bedrock Guardrails offre une approche évolutive et indépendante du modèle pour appliquer des politiques d’IA responsable. Actuellement, les garde-fous offrent six mesures clés de protection : filtres de contenu, sujets refusés, filtres de mots, filtres d’informations sensibles, vérifications de contextualisation, et vérifications de raisonnement automatisé (en aperçu), afin d’éviter les contenus indésirables et d’aligner les interactions d’IA avec les politiques d’IA responsable de l’organisation.

Introduction des niveaux de protection

À mesure que les organisations s’efforcent de mettre en œuvre des pratiques d’IA responsable à travers divers cas d’utilisation, elles sont confrontées au défi d’équilibrer les contrôles de sécurité avec des exigences de performance et de langue variées. Pour répondre à cette problématique, des niveaux de protection ont été introduits dans Amazon Bedrock Guardrails, permettant de choisir des mesures appropriées en fonction des besoins spécifiques.

Par exemple, une entreprise de services financiers peut mettre en œuvre une protection complète et multilingue pour les assistants IA destinés aux clients, tout en utilisant des garde-fous plus ciblés et à faible latence pour les outils d’analyse internes. Cela garantit que chaque application respecte les principes d’IA responsable avec le bon niveau de protection, sans compromettre la performance ou la fonctionnalité.

Avantages des niveaux de protection

Les niveaux de protection appliqués au niveau des politiques de garde-fou, spécifiquement pour les filtres de contenu et les sujets refusés, offrent plusieurs avantages :

  • Approche par niveaux : Donne le contrôle sur les mises en œuvre des garde-fous que vous souhaitez utiliser.
  • Soutien à l’inférence inter-régionale (CRIS) : Permet d’utiliser la capacité de calcul à travers plusieurs régions pour améliorer la mise à l’échelle et la disponibilité.
  • Capacités avancées : Options configurables pour des cas d’utilisation nécessitant une protection plus robuste ou un support linguistique plus large.

Les deux niveaux disponibles

Deux niveaux sont disponibles :

  • Niveau classique (par défaut) : Maintient le comportement existant des garde-fous Amazon Bedrock, avec un support linguistique limité (anglais, français, espagnol).
  • Niveau standard : Nouvelle capacité avec un support multilingue pour plus de 60 langues, protection avancée contre les attaques sur les invites et détection améliorée des sujets complexes.

Les entreprises peuvent configurer les niveaux de protection pour les filtres de contenu et les sujets refusés dans chaque garde-fou à travers la console de gestion AWS ou par programmation via le SDK et les API d’Amazon Bedrock.

Évaluation des garde-fous

Pour évaluer la performance de vos garde-fous, il est recommandé de créer un ensemble de données de test qui comprend des exemples sûrs, nuisibles, des cas limites, et des exemples dans plusieurs langues, surtout avec le niveau standard. Cela permet d’évaluer l’exactitude et le rappel des garde-fous.

Meilleures pratiques pour mettre en œuvre des niveaux

Lors de la configuration des niveaux pour Amazon Bedrock Guardrails, il est conseillé de :

  • Commencer par des tests par étapes avec un échantillon représentatif de vos entrées et réponses attendues.
  • Considérer les exigences linguistiques, surtout pour les applications multilingues.
  • Évaluer la sécurité et la performance pour prendre des décisions éclairées.

Conclusion

L’introduction des niveaux de protection dans Amazon Bedrock Guardrails représente un progrès significatif dans l’engagement en faveur de l’IA responsable. En offrant des outils de sécurité flexibles et puissants, les organisations peuvent mettre en œuvre des solutions d’IA qui sont à la fois innovantes et éthiques, tout en respectant les valeurs organisationnelles et en maintenant la confiance des utilisateurs.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...