Nouveaux niveaux de sécurité pour une IA responsable avec Amazon Bedrock Guardrails

A lockbox

Personnaliser l’IA responsable avec les nouveaux niveaux de protection dans Amazon Bedrock Guardrails

Amazon Bedrock Guardrails propose des garde-fous configurables pour aider à construire des applications d’IA générative de confiance à grande échelle. Cette solution intègre des mécanismes de sécurité et de confidentialité qui fonctionnent à travers plusieurs modèles de base (FMs), y compris ceux disponibles dans Amazon Bedrock, ainsi que ceux hébergés en dehors d’Amazon Bedrock par d’autres fournisseurs de modèles et de services cloud.

Avec l’API indépendante ApplyGuardrail, Amazon Bedrock Guardrails offre une approche évolutive et indépendante du modèle pour appliquer des politiques d’IA responsable. Actuellement, les garde-fous offrent six mesures clés de protection : filtres de contenu, sujets refusés, filtres de mots, filtres d’informations sensibles, vérifications de contextualisation, et vérifications de raisonnement automatisé (en aperçu), afin d’éviter les contenus indésirables et d’aligner les interactions d’IA avec les politiques d’IA responsable de l’organisation.

Introduction des niveaux de protection

À mesure que les organisations s’efforcent de mettre en œuvre des pratiques d’IA responsable à travers divers cas d’utilisation, elles sont confrontées au défi d’équilibrer les contrôles de sécurité avec des exigences de performance et de langue variées. Pour répondre à cette problématique, des niveaux de protection ont été introduits dans Amazon Bedrock Guardrails, permettant de choisir des mesures appropriées en fonction des besoins spécifiques.

Par exemple, une entreprise de services financiers peut mettre en œuvre une protection complète et multilingue pour les assistants IA destinés aux clients, tout en utilisant des garde-fous plus ciblés et à faible latence pour les outils d’analyse internes. Cela garantit que chaque application respecte les principes d’IA responsable avec le bon niveau de protection, sans compromettre la performance ou la fonctionnalité.

Avantages des niveaux de protection

Les niveaux de protection appliqués au niveau des politiques de garde-fou, spécifiquement pour les filtres de contenu et les sujets refusés, offrent plusieurs avantages :

  • Approche par niveaux : Donne le contrôle sur les mises en œuvre des garde-fous que vous souhaitez utiliser.
  • Soutien à l’inférence inter-régionale (CRIS) : Permet d’utiliser la capacité de calcul à travers plusieurs régions pour améliorer la mise à l’échelle et la disponibilité.
  • Capacités avancées : Options configurables pour des cas d’utilisation nécessitant une protection plus robuste ou un support linguistique plus large.

Les deux niveaux disponibles

Deux niveaux sont disponibles :

  • Niveau classique (par défaut) : Maintient le comportement existant des garde-fous Amazon Bedrock, avec un support linguistique limité (anglais, français, espagnol).
  • Niveau standard : Nouvelle capacité avec un support multilingue pour plus de 60 langues, protection avancée contre les attaques sur les invites et détection améliorée des sujets complexes.

Les entreprises peuvent configurer les niveaux de protection pour les filtres de contenu et les sujets refusés dans chaque garde-fou à travers la console de gestion AWS ou par programmation via le SDK et les API d’Amazon Bedrock.

Évaluation des garde-fous

Pour évaluer la performance de vos garde-fous, il est recommandé de créer un ensemble de données de test qui comprend des exemples sûrs, nuisibles, des cas limites, et des exemples dans plusieurs langues, surtout avec le niveau standard. Cela permet d’évaluer l’exactitude et le rappel des garde-fous.

Meilleures pratiques pour mettre en œuvre des niveaux

Lors de la configuration des niveaux pour Amazon Bedrock Guardrails, il est conseillé de :

  • Commencer par des tests par étapes avec un échantillon représentatif de vos entrées et réponses attendues.
  • Considérer les exigences linguistiques, surtout pour les applications multilingues.
  • Évaluer la sécurité et la performance pour prendre des décisions éclairées.

Conclusion

L’introduction des niveaux de protection dans Amazon Bedrock Guardrails représente un progrès significatif dans l’engagement en faveur de l’IA responsable. En offrant des outils de sécurité flexibles et puissants, les organisations peuvent mettre en œuvre des solutions d’IA qui sont à la fois innovantes et éthiques, tout en respectant les valeurs organisationnelles et en maintenant la confiance des utilisateurs.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...