Personalização de IA Responsável com Novos Níveis de Salvaguardas no Amazon Bedrock Guardrails
O Amazon Bedrock Guardrails fornece salvaguardas configuráveis para ajudar na construção de aplicações de IA generativa confiáveis em larga escala. Ele oferece às organizações salvaguardas integradas de segurança e privacidade que funcionam em múltiplos modelos de fundação (FMs), incluindo modelos disponíveis no Amazon Bedrock e modelos hospedados fora do Amazon Bedrock de outros provedores de modelos e provedores de nuvem.
Com a API ApplyGuardrail, o Amazon Bedrock Guardrails oferece uma abordagem escalável e independente do modelo para implementar políticas de IA responsável em suas aplicações de IA generativa. Atualmente, o Guardrails oferece seis salvaguardas principais: filtros de conteúdo, tópicos negados, filtros de palavras, filtros de informações sensíveis, verificações de fundamentação contextual e verificações de raciocínio automatizado (em pré-visualização), para ajudar a evitar conteúdo indesejado e alinhar as interações da IA com as políticas de IA responsável da organização.
Desafios na Implementação de Práticas de IA Responsável
À medida que as organizações se esforçam para implementar práticas de IA responsável em diversos casos de uso, enfrentam o desafio de equilibrar os controles de segurança com as diversas exigências de desempenho e linguagem em diferentes aplicações, tornando uma abordagem única ineficaz. Para abordar isso, foram introduzidos níveis de salvaguarda para o Amazon Bedrock Guardrails, permitindo que você escolha salvaguardas apropriadas com base em suas necessidades específicas.
Por exemplo, uma empresa de serviços financeiros pode implementar uma proteção abrangente e multilíngue para assistentes de IA voltados para o cliente, enquanto utiliza salvaguardas mais focadas e de menor latência para ferramentas analíticas internas, garantindo que cada aplicação mantenha os princípios de IA responsável com o nível certo de proteção sem comprometer o desempenho ou a funcionalidade.
Visão Geral da Solução
Até agora, ao usar o Amazon Bedrock Guardrails, era fornecido um único conjunto de salvaguardas associado a regiões específicas da AWS e um conjunto limitado de idiomas suportados. A introdução dos níveis de salvaguarda oferece três vantagens principais para implementar controles de segurança em IA:
- Abordagem em níveis que dá controle sobre quais implementações de guardrails você deseja usar para filtros de conteúdo e tópicos negados, permitindo selecionar o nível de proteção apropriado para cada caso de uso.
- Suporte à Inferência Cross-Region (CRIS) para o Amazon Bedrock Guardrails, permitindo que você use capacidade de computação em várias regiões, alcançando melhor escalabilidade e disponibilidade para suas salvaguardas.
- Capacidades avançadas como uma opção de nível configurável para casos de uso onde proteção mais robusta ou suporte a idiomas mais amplo são prioridades críticas.
Níveis de Salvaguarda Disponíveis
Os níveis de salvaguarda são aplicados no nível da política de guardrail, especificamente para filtros de conteúdo e tópicos negados. Você pode adaptar sua estratégia de proteção para diferentes aspectos de sua aplicação de IA. Vamos explorar os dois níveis disponíveis:
- Nível Clássico (padrão):
- Mantém o comportamento existente do Amazon Bedrock Guardrails
- Suporte limitado a idiomas: inglês, francês e espanhol
- Não requer CRIS para o Amazon Bedrock Guardrails
- Otimizado para aplicações de baixa latência
- Nível Padrão:
- Disponibilizado como uma nova capacidade que você pode habilitar para guardrails existentes ou novos
- Suporte multilíngue para mais de 60 idiomas
- Robustez aprimorada contra erros de digitação e entradas manipuladas
- Proteção aprimorada contra ataques de prompts, incluindo técnicas modernas de jailbreak e injeção de prompts
- Detecção aprimorada de tópicos com melhor compreensão e manuseio de tópicos complexos
- Requer o uso de CRIS e pode ter um aumento modesto no perfil de latência em comparação com a opção de nível Clássico
Aplicação dos Níveis de Salvaguarda
A configuração dos níveis de salvaguarda para filtros de conteúdo e tópicos negados em cada guardrail pode ser feita através do AWS Management Console ou programaticamente através do Amazon Bedrock SDK e APIs. Você pode usar um guardrail novo ou existente. Para informações sobre como criar ou modificar um guardrail, consulte a seção apropriada na documentação da AWS.
Os guardrails existentes são automaticamente definidos para o nível Clássico por padrão, para garantir que não haja impacto no comportamento dos seus guardrails.
Aprimoramentos de Qualidade com o Nível Padrão
De acordo com nossos testes, o novo nível Padrão melhora o recall de filtragem de conteúdo prejudicial em mais de 15%, com um ganho de mais de 7% na precisão equilibrada em comparação com o nível Clássico. Um recurso diferenciador do novo nível Padrão é seu suporte multilíngue, mantendo um desempenho forte com mais de 78% de recall e mais de 88% de precisão equilibrada para os 14 idiomas mais comuns.
Benefícios dos Níveis de Salvaguarda
Diferentes aplicações de IA têm requisitos de segurança distintos com base em seu público, domínio de conteúdo e alcance geográfico. Por exemplo:
- Aplicações voltadas para o cliente frequentemente exigem proteção mais robusta contra possíveis abusos em comparação com aplicações internas.
- Aplicações que atendem clientes globais precisam de guardrails que funcionem efetivamente em muitos idiomas.
- Ferramentas empresariais internas podem priorizar o controle de tópicos específicos em apenas algumas línguas principais.
A combinação dos níveis de salvaguarda com CRIS também aborda diversas necessidades operacionais com benefícios práticos que vão além das diferenças de recursos.
Configurando Níveis de Salvaguardas no Console do Amazon Bedrock
No console do Amazon Bedrock, você pode configurar os níveis de salvaguarda para seu guardrail nas seções Filtro de conteúdo ou Tópicos negados selecionando seu nível preferido.
Avaliando Seus Guardrails
Para avaliar completamente o desempenho dos seus guardrails, considere criar um conjunto de dados de teste que inclua:
- Exemplos seguros – Conteúdo que deve passar pelos guardrails
- Exemplos prejudiciais – Conteúdo que deve ser bloqueado
- Casos extremos – Conteúdo que testa os limites de suas políticas
- Exemplos em múltiplos idiomas – Especialmente importante ao usar o nível Padrão
Com seu conjunto de dados pronto, você pode utilizar a API ApplyGuardrail para testar o comportamento do seu guardrail para entradas de usuários sem invocar FMs, economizando custos associados à geração de respostas de modelos de linguagem grandes (LLMs).
Melhores Práticas para Implementação de Níveis
Recomendamos considerar os seguintes aspectos ao configurar seus níveis para o Amazon Bedrock Guardrails:
- Comece com testes em estágios – Teste ambos os níveis com uma amostra representativa de suas entradas e respostas esperadas antes de tomar decisões de implantação amplas.
- Considere suas necessidades de idioma – Se sua aplicação atende usuários em múltiplos idiomas, o suporte expandido do nível Padrão pode ser essencial.
- Equilibre segurança e desempenho – Avalie as melhorias de precisão e diferenças de latência para tomar decisões informadas.
- Use seleção de nível em nível de política – Aproveite a capacidade de selecionar diferentes níveis para diferentes políticas para otimizar seus guardrails.
- Lembre-se dos requisitos de cross-region – O nível Padrão requer inferência cross-region; portanto, verifique se sua arquitetura pode acomodar isso.
Conclusão
A introdução dos níveis de salvaguarda no Amazon Bedrock Guardrails representa um avanço significativo no compromisso com a IA responsável. Ao fornecer ferramentas de segurança flexíveis, poderosas e em evolução para aplicações de IA generativa, estamos capacitando as organizações a implementar soluções de IA que são não apenas inovadoras, mas também éticas e confiáveis.
Essa abordagem baseada em capacidades permite que você personalize suas práticas de IA responsável para cada caso de uso específico, implementando o nível certo de proteção para suas diferentes aplicações enquanto cria um caminho para a melhoria contínua na segurança e ética da IA.