Microsoft erweitert Copilot um Claude: Neue Herausforderungen in der Governance durch Cross-Cloud KI
Mit der Hinzufügung von Anthropics Claude Sonnet 4 und Claude Opus 4.1 zu seiner Microsoft 365 Copilot Suite hat Microsoft die KI-Grundlagenmodelle erweitert. Diese Aktualisierung ermöglicht es Nutzern, zwischen den Modellen von OpenAI und Anthropic zu wechseln, sowohl im Researcher-Agent als auch beim Erstellen von Agenten im Microsoft Copilot Studio.
Neue Unterstützung für Researcher und Copilot Studio
Microsoft beschreibt Researcher als einen neuartigen Reasoning-Agent, der nun entweder durch die tiefgreifenden Denkmodelle von OpenAI oder durch Claude Opus 4.1 unterstützt werden kann. Researcher hilft Nutzern, detaillierte Go-to-Market-Strategien zu entwickeln, aufkommende Produkttrends zu analysieren und umfassende Quartalsberichte zu erstellen. Es kann komplexe, mehrstufige Recherchen durchführen, indem es über das Web, vertrauenswürdige Drittanbieter-Daten und interne Inhalte einer Organisation hinweg denkt.
Im Copilot Studio ermöglichen Claude Sonnet 4 und Claude Opus 4.1 den Nutzern, unternehmensgerechte Agenten zu erstellen und anzupassen. Unternehmen können Agenten erstellen, orchestrieren und verwalten, die durch Anthropics Modelle für tiefes Denken, Workflow-Automatisierung und flexible agentische Aufgaben angetrieben werden. Mit Multi-Agenten-Systemen und Prompt-Tools im Copilot Studio haben Nutzer die Möglichkeit, Modelle von Anthropic, OpenAI und anderen aus dem Azure AI Model Catalog für spezialisierte Aufgaben zu kombinieren.
Redundanz als Resilienz
Über Jahre hinweg wurde Copilot mit OpenAI gleichgesetzt, was zu einer unerwünschten Abhängigkeit führte. Der September-Ausfall von ChatGPT führte dazu, dass Nutzer keinen Zugriff auf GPT-Modelle hatten, während Copilot und Claude weiterhin funktionierten. Ein ähnlicher Vorfall ereignete sich im Juni des Vorjahres. Diese Vorfälle halfen Unternehmen, das Risiko zu erkennen, sich auf ein einzelnes Modell zu verlassen, und zeigten, wie wichtig Resilienz in der KI ist.
Cross-Cloud-Komplikationen
Im Gegensatz zu OpenAIs GPT-Modellen, die auf Azure laufen, wird Anthropics Claude auf AWS gehostet. Microsoft hat die Kunden gewarnt, dass die Modelle von Anthropic außerhalb von Microsoft-verwalteten Umgebungen gehostet werden und den AGB von Anthropic unterliegen. Jedes Mal, wenn Claude verwendet wird, überschreitet es Cloud-Grenzen, was zu Governance-Herausforderungen und neuen Egress-Kosten führen kann.
„Deterministische Routing ist das entscheidende Problem. Unternehmen müssen katalogisieren, wo Modelle verwendet werden, Richtlinien für Graphdaten durchsetzen und jede Anfrage an einen Benutzer, eine Region und ein Modell-Tag binden“, fügte ein Analyst hinzu. Er betonte, dass Unternehmen nicht davon ausgehen sollten, dass Multi-Model Plug-and-Play ist, sondern es als Multi-Cloud behandeln sollten. Latency-Probleme sollten erwartet werden, wenn der Datenverkehr Azure verlässt, und die Compliance-Teams sollten Fragen stellen, warum dies so ist.
Die besten Praktiken bestehen darin, die Nutzung von Anthropic auf die nächstgelegene AWS-Region zu beschränken, wiederholte Kontexte zwischenzuspeichern, um Zyklen zu sparen, und Firewall-Regeln im Voraus zu klären, bevor die Nutzer „Try Claude“ anklicken. Risikomanager werden Nachweise verlangen, dass Graphdaten gebunden bleiben, sodass CIOs Protokollierungs- und Überwachungsmaßnahmen vor der Einführung und nicht nach der ersten Eskalation aufbauen sollten.