Microsoft adiciona Claude ao Copilot e os desafios de governança da IA em ambientes de nuvem

Microsoft Adiciona Claude ao Copilot: Desafios de Governança da IA em Nuvem Cruzada

A Microsoft ampliou os modelos de fundação de IA dentro de sua suíte Microsoft 365 Copilot ao adicionar os modelos Claude Sonnet 4 e Claude Opus 4.1 da Anthropic, além da família GPT da OpenAI. Com essa atualização, os usuários podem alternar entre os modelos da OpenAI e da Anthropic no agente Researcher ou ao construir agentes no Microsoft Copilot Studio.

Suporte da Anthropic no Researcher e Copilot Studio

A Microsoft descreveu o Researcher como um agente de raciocínio pioneiro que agora pode ser alimentado tanto pelos modelos de raciocínio profundo da OpenAI quanto pelo Claude Opus 4.1 da Anthropic. O Researcher foi projetado para ajudar os usuários a construir estratégias de mercado detalhadas, analisar tendências emergentes de produtos ou criar relatórios trimestrais abrangentes. Ele é capaz de lidar com pesquisas complexas e em múltiplas etapas, raciocinando através da web, dados de terceiros confiáveis e conteúdo interno da organização, como e-mails, chats, reuniões e arquivos.

No Copilot Studio, os modelos Claude Sonnet 4 e Claude Opus 4.1 permitem que os usuários criem e personalizem agentes de nível empresarial. As empresas podem construir, orquestrar e gerenciar agentes alimentados pelos modelos da Anthropic para raciocínio profundo, automação de fluxo de trabalho e tarefas flexíveis. Com sistemas de múltiplos agentes e ferramentas de prompts no Copilot Studio, os usuários terão a opção de misturar modelos entre Anthropic, OpenAI e outros do Azure AI Model Catalog para tarefas especializadas.

A Microsoft apresenta Claude não como um substituto para os modelos GPT, mas como uma opção complementar. Segundo especialistas, Claude produziu apresentações e modelos financeiros mais refinados, enquanto os modelos GPT ofereceram velocidade e fluência na redação.

Redundância como Resiliência

Durante anos, as empresas associaram o Copilot exclusivamente à OpenAI, criando uma dependência indesejada. A interrupção do ChatGPT em setembro resultou na perda de acesso aos modelos GPT, enquanto o Copilot e Claude continuaram funcionando. Esse incidente ajudou as empresas a entender o risco de confiar em um único modelo e mostrou a importância da resiliência na IA.

Complicações de Nuvem Cruzada

Ao contrário dos modelos GPT da OpenAI, que operam na Azure, os modelos Claude da Anthropic são hospedados na AWS. A Microsoft alertou os clientes de que os modelos da Anthropic estão hospedados fora dos ambientes gerenciados pela Microsoft e estão sujeitos aos Termos de Serviço da Anthropic. Cada vez que Claude é usado, isso atravessa fronteiras de nuvem que trazem desafios de governança e novas taxas de egressos.

Os CIOs devem projetar estruturas de roteamento e monitoramento cientes dos modelos, catalogar onde os modelos são usados, impor guardrails para dados do Graph e vincular cada solicitação a um usuário, região e tag de modelo. O tráfego em nuvem cruzada expõe pontos fracos, como DNS, firewalls e CASB.

As melhores práticas incluem vincular o uso da Anthropic à região mais próxima da AWS, cache de contexto repetido para economizar ciclos e pré-limpar as regras de firewall antes que os usuários cliquem em “Tentar Claude”. Os oficiais de risco exigirão provas de que os dados do Graph permanecem limitados, portanto, os CIOs devem construir registros e monitoramento antes da adoção.

Assim, a introdução dos modelos da Anthropic ao lado dos da OpenAI destaca a mudança da Microsoft em direção a uma estratégia de multi-modelo, que também atua como uma solução de backup. Se um sistema falhar, outro assume, diversificando suas parcerias de IA e evitando a dependência total dos modelos da OpenAI.

More Insights

A ruptura dos EUA com a ONU sobre a supervisão global da IA

Oficiais dos EUA rejeitaram um esforço para estabelecer uma estrutura de governança global de IA na Assembleia Geral das Nações Unidas, apesar do apoio de muitas nações, incluindo a China. O diretor...

Riscos e Necessidades de Governança da IA Agentiva para Empresas

As empresas estão cada vez mais adotando sistemas de IA agentiva, mas a proliferação desses sistemas está criando um novo desafio conhecido como "expansão da IA agentiva". Essa situação pode resultar...

ONU busca consenso global para uma IA segura e confiável

As Nações Unidas estão se esforçando para influenciar diretamente a política global sobre inteligência artificial, promovendo padrões de políticas e técnicos em torno de uma IA "segura, protegida e...

Quando Cientistas de Dados Definem Políticas

Recentemente, em uma conversa em Cingapura, os executivos Thomas Roehm e Frankie Phua discutiram como a regulamentação da IA pode evoluir à medida que a tecnologia avança mais rapidamente do que as...