Microsoft integriert Claude in Copilot: Neue Herausforderungen bei der Datenverwaltung

Microsoft erweitert Copilot um Claude: Neue Herausforderungen in der Governance durch Cross-Cloud KI

Mit der Hinzufügung von Anthropics Claude Sonnet 4 und Claude Opus 4.1 zu seiner Microsoft 365 Copilot Suite hat Microsoft die KI-Grundlagenmodelle erweitert. Diese Aktualisierung ermöglicht es Nutzern, zwischen den Modellen von OpenAI und Anthropic zu wechseln, sowohl im Researcher-Agent als auch beim Erstellen von Agenten im Microsoft Copilot Studio.

Neue Unterstützung für Researcher und Copilot Studio

Microsoft beschreibt Researcher als einen neuartigen Reasoning-Agent, der nun entweder durch die tiefgreifenden Denkmodelle von OpenAI oder durch Claude Opus 4.1 unterstützt werden kann. Researcher hilft Nutzern, detaillierte Go-to-Market-Strategien zu entwickeln, aufkommende Produkttrends zu analysieren und umfassende Quartalsberichte zu erstellen. Es kann komplexe, mehrstufige Recherchen durchführen, indem es über das Web, vertrauenswürdige Drittanbieter-Daten und interne Inhalte einer Organisation hinweg denkt.

Im Copilot Studio ermöglichen Claude Sonnet 4 und Claude Opus 4.1 den Nutzern, unternehmensgerechte Agenten zu erstellen und anzupassen. Unternehmen können Agenten erstellen, orchestrieren und verwalten, die durch Anthropics Modelle für tiefes Denken, Workflow-Automatisierung und flexible agentische Aufgaben angetrieben werden. Mit Multi-Agenten-Systemen und Prompt-Tools im Copilot Studio haben Nutzer die Möglichkeit, Modelle von Anthropic, OpenAI und anderen aus dem Azure AI Model Catalog für spezialisierte Aufgaben zu kombinieren.

Redundanz als Resilienz

Über Jahre hinweg wurde Copilot mit OpenAI gleichgesetzt, was zu einer unerwünschten Abhängigkeit führte. Der September-Ausfall von ChatGPT führte dazu, dass Nutzer keinen Zugriff auf GPT-Modelle hatten, während Copilot und Claude weiterhin funktionierten. Ein ähnlicher Vorfall ereignete sich im Juni des Vorjahres. Diese Vorfälle halfen Unternehmen, das Risiko zu erkennen, sich auf ein einzelnes Modell zu verlassen, und zeigten, wie wichtig Resilienz in der KI ist.

Cross-Cloud-Komplikationen

Im Gegensatz zu OpenAIs GPT-Modellen, die auf Azure laufen, wird Anthropics Claude auf AWS gehostet. Microsoft hat die Kunden gewarnt, dass die Modelle von Anthropic außerhalb von Microsoft-verwalteten Umgebungen gehostet werden und den AGB von Anthropic unterliegen. Jedes Mal, wenn Claude verwendet wird, überschreitet es Cloud-Grenzen, was zu Governance-Herausforderungen und neuen Egress-Kosten führen kann.

„Deterministische Routing ist das entscheidende Problem. Unternehmen müssen katalogisieren, wo Modelle verwendet werden, Richtlinien für Graphdaten durchsetzen und jede Anfrage an einen Benutzer, eine Region und ein Modell-Tag binden“, fügte ein Analyst hinzu. Er betonte, dass Unternehmen nicht davon ausgehen sollten, dass Multi-Model Plug-and-Play ist, sondern es als Multi-Cloud behandeln sollten. Latency-Probleme sollten erwartet werden, wenn der Datenverkehr Azure verlässt, und die Compliance-Teams sollten Fragen stellen, warum dies so ist.

Die besten Praktiken bestehen darin, die Nutzung von Anthropic auf die nächstgelegene AWS-Region zu beschränken, wiederholte Kontexte zwischenzuspeichern, um Zyklen zu sparen, und Firewall-Regeln im Voraus zu klären, bevor die Nutzer „Try Claude“ anklicken. Risikomanager werden Nachweise verlangen, dass Graphdaten gebunden bleiben, sodass CIOs Protokollierungs- und Überwachungsmaßnahmen vor der Einführung und nicht nach der ersten Eskalation aufbauen sollten.

More Insights

USA bricht mit UN über globale KI-Regulierung

Die US-Beamten lehnten einen Vorschlag zur Schaffung eines globalen KI-Governance-Rahmens bei der dieswöchigen Generalversammlung der Vereinten Nationen ab, obwohl der Plan von vielen Ländern...

Agentic AI: Risiken und Governance für Unternehmen

In der schnelllebigen Welt der künstlichen Intelligenz wenden sich Unternehmen zunehmend agentischen KI-Systemen zu, die Entscheidungen treffen und Aufgaben autonom ausführen können. Diese...

Die wachsende Rolle von KI als Meinungswächter und die alarmierenden versteckten Vorurteile

Die wachsende Rolle von KI als Meinungsgatekeeper wirft Bedenken hinsichtlich versteckter Vorurteile auf. Eine neue Studie warnt davor, dass subtile Vorurteile in KI-Systemen den öffentlichen Diskurs...

Regulierungsdruck auf KI: Eine neue Ära der Verantwortung

Die aufkommende Welt der Künstlichen Intelligenz (KI) befindet sich an einem kritischen Punkt, da eine Welle von Regulierungsmaßnahmen und rechtlichen Präzedenzfällen einen globalen Wandel hin zu mehr...

Die Auswahl der richtigen KI-Governance-Tools

Mit der beschleunigten Einführung von generativer KI steigen auch die Risiken. Um diese Herausforderungen zu bewältigen, haben wir mit Tokio Marine Holdings und Tokio Marine & Nichido Systems...

UN fördert globale Standards für sichere KI

Die Vereinten Nationen setzen sich dafür ein, einen globalen Konsens über „sichere, geschützte und vertrauenswürdige“ KI zu schaffen, indem sie Richtlinien und technische Standards fördern. Ein neuer...

Die Algorithmenregierung: Wie Datenwissenschaftler die Politik gestalten

In einer fesselnden Diskussion in Singapur sprachen Thomas Roehm von SAS und Frankie Phua von der United Overseas Bank über die Herausforderungen der KI-Regulierung. Ihr Gespräch beleuchtete das...

Vorbereitung von KMUs auf die KI-Regulierungen der EU

Klein- und Mittelunternehmen (KMU) stehen vor erheblichen Herausforderungen durch die KI-Verordnung der EU, insbesondere im Hinblick auf die Einhaltung strenger Vorschriften und potenziell hohe...