Nouveaux niveaux de sécurité pour une IA responsable avec Amazon Bedrock Guardrails

A lockbox

Personnaliser l’IA responsable avec les nouveaux niveaux de protection dans Amazon Bedrock Guardrails

Amazon Bedrock Guardrails propose des garde-fous configurables pour aider à construire des applications d’IA générative de confiance à grande échelle. Cette solution intègre des mécanismes de sécurité et de confidentialité qui fonctionnent à travers plusieurs modèles de base (FMs), y compris ceux disponibles dans Amazon Bedrock, ainsi que ceux hébergés en dehors d’Amazon Bedrock par d’autres fournisseurs de modèles et de services cloud.

Avec l’API indépendante ApplyGuardrail, Amazon Bedrock Guardrails offre une approche évolutive et indépendante du modèle pour appliquer des politiques d’IA responsable. Actuellement, les garde-fous offrent six mesures clés de protection : filtres de contenu, sujets refusés, filtres de mots, filtres d’informations sensibles, vérifications de contextualisation, et vérifications de raisonnement automatisé (en aperçu), afin d’éviter les contenus indésirables et d’aligner les interactions d’IA avec les politiques d’IA responsable de l’organisation.

Introduction des niveaux de protection

À mesure que les organisations s’efforcent de mettre en œuvre des pratiques d’IA responsable à travers divers cas d’utilisation, elles sont confrontées au défi d’équilibrer les contrôles de sécurité avec des exigences de performance et de langue variées. Pour répondre à cette problématique, des niveaux de protection ont été introduits dans Amazon Bedrock Guardrails, permettant de choisir des mesures appropriées en fonction des besoins spécifiques.

Par exemple, une entreprise de services financiers peut mettre en œuvre une protection complète et multilingue pour les assistants IA destinés aux clients, tout en utilisant des garde-fous plus ciblés et à faible latence pour les outils d’analyse internes. Cela garantit que chaque application respecte les principes d’IA responsable avec le bon niveau de protection, sans compromettre la performance ou la fonctionnalité.

Avantages des niveaux de protection

Les niveaux de protection appliqués au niveau des politiques de garde-fou, spécifiquement pour les filtres de contenu et les sujets refusés, offrent plusieurs avantages :

  • Approche par niveaux : Donne le contrôle sur les mises en œuvre des garde-fous que vous souhaitez utiliser.
  • Soutien à l’inférence inter-régionale (CRIS) : Permet d’utiliser la capacité de calcul à travers plusieurs régions pour améliorer la mise à l’échelle et la disponibilité.
  • Capacités avancées : Options configurables pour des cas d’utilisation nécessitant une protection plus robuste ou un support linguistique plus large.

Les deux niveaux disponibles

Deux niveaux sont disponibles :

  • Niveau classique (par défaut) : Maintient le comportement existant des garde-fous Amazon Bedrock, avec un support linguistique limité (anglais, français, espagnol).
  • Niveau standard : Nouvelle capacité avec un support multilingue pour plus de 60 langues, protection avancée contre les attaques sur les invites et détection améliorée des sujets complexes.

Les entreprises peuvent configurer les niveaux de protection pour les filtres de contenu et les sujets refusés dans chaque garde-fou à travers la console de gestion AWS ou par programmation via le SDK et les API d’Amazon Bedrock.

Évaluation des garde-fous

Pour évaluer la performance de vos garde-fous, il est recommandé de créer un ensemble de données de test qui comprend des exemples sûrs, nuisibles, des cas limites, et des exemples dans plusieurs langues, surtout avec le niveau standard. Cela permet d’évaluer l’exactitude et le rappel des garde-fous.

Meilleures pratiques pour mettre en œuvre des niveaux

Lors de la configuration des niveaux pour Amazon Bedrock Guardrails, il est conseillé de :

  • Commencer par des tests par étapes avec un échantillon représentatif de vos entrées et réponses attendues.
  • Considérer les exigences linguistiques, surtout pour les applications multilingues.
  • Évaluer la sécurité et la performance pour prendre des décisions éclairées.

Conclusion

L’introduction des niveaux de protection dans Amazon Bedrock Guardrails représente un progrès significatif dans l’engagement en faveur de l’IA responsable. En offrant des outils de sécurité flexibles et puissants, les organisations peuvent mettre en œuvre des solutions d’IA qui sont à la fois innovantes et éthiques, tout en respectant les valeurs organisationnelles et en maintenant la confiance des utilisateurs.

Articles

G7 : Un manqué sur la gouvernance mondiale de l’IA

Les dirigeants du G7 se sont réunis en Alberta, au Canada, mais le sujet de la gouvernance des modèles et systèmes d'intelligence artificielle a été remarquablement absent des discussions. Cette...

L’Afrique et l’avenir de l’IA : Vers une gouvernance souveraine

Des dirigeants africains ont appelé à des actions urgentes pour construire des systèmes d'IA souverains et éthiques adaptés aux besoins locaux. La discussion a souligné l'importance de garantir que...

Régulations et défis de conformité pour l’IA : enjeux clés à considérer

L'évolution de l'IA à travers le monde rend de plus en plus difficile l'application de réglementations efficaces. Les systèmes d'IA génèrent des défis en matière de gouvernance et de conformité...

L’IA incarnée en Chine : une voie unique vers l’innovation

La compétition entre les États-Unis et la Chine dans le domaine de l'intelligence artificielle est considérée comme la rivalité technologique déterminante de notre époque. La Chine possède des...

Travail Responsable : Workday et ses Accréditations en IA

Workday a récemment reçu deux accréditations tierces pour son programme de gouvernance de l'IA, soulignant son engagement envers le développement d'une IA responsable et transparente. Le responsable...

L’IA dans la finance britannique : entre adoption et inquiétudes de conformité

Une nouvelle enquête de Smarsh révèle que, bien que les outils d'IA soient rapidement adoptés dans les services financiers au Royaume-Uni, de nombreux employés restent préoccupés par la supervision et...

Éthique de l’IA : La neutralité au cœur de la rivalité technologique États-Unis-Chine

Alors que la rivalité technologique entre les États-Unis et la Chine s'intensifie, une agence de l'ONU plaide en faveur de normes mondiales sur l'éthique de l'IA. L'UNESCO a organisé son troisième...

Sécuriser l’IA : Conformité et Gouvernance avec DSPM

Le DSPM joue un rôle essentiel en aidant les organisations à se conformer aux exigences strictes de la loi sur l'IA de l'UE, en garantissant un déploiement sécurisé de l'IA et la sécurité des données...

L’Acte sur l’IA Non Adversaire : Vers une Interdiction des Technologies Chinoises

Un groupe bipartisan de législateurs a introduit un nouveau projet de loi visant à interdire l'utilisation d'outils d'intelligence artificielle développés dans des nations adversariales par le...