Claude MCP Apps: Warum Governance für Unternehmens-AI-Agenten notwendig ist
Anthropic fördert eine integrierte Arbeitsweise mit Claude. Durch eine neue Erweiterung des Model Context Protocol (MCP) können Tools wie Slack, Asana, Figma und Canva als interaktive Erlebnisse direkt innerhalb des Chatfensters genutzt werden. Statt einer reinen Textantwort und dem Wechseln zwischen Tabs können Nutzer ihre Arbeiten direkt im Chatfenster vorschauen, verfeinern und anpassen.
Dies stellt ein solides Upgrade der Benutzerfreundlichkeit dar und spiegelt einen breiteren Wandel wider, wie KI produktiv genutzt wird: Chats werden zur Steuerungsoberfläche, und Anwendungen zu eingebetteten Arbeitsbereichen.
MCP-Apps verbessern die Benutzererfahrung, nicht das Risikomodell
Die interaktive App-Erfahrung im Chat adressiert eine häufige Schwäche früherer KI-Integrationen. Wenn Assistenten nur Text zurückgeben, müssen Nutzer diesen in die Zielanwendung kopieren und einfügen, Formatierungen korrigieren, Ausgaben validieren und mit der Lücke zwischen dem, was der Assistent vorschlug, und dem, was die Anwendung tatsächlich akzeptieren kann, umgehen.
Eingebettete, interaktive Apps verringern diese Reibung und fördern die Überprüfung. Ein Nutzer kann eine Slack-Nachricht sehen, bevor sie gesendet wird, oder ein Canva-Dokument anpassen, bevor es exportiert und geteilt wird. Dies kann Nacharbeit minimieren und einfache Fehler reduzieren.
Deshalb gewinnt das Konzept „Apps innerhalb des Chats“ im Markt an Bedeutung. Nutzer möchten keinen separaten Assistenten neben der Arbeit, sondern eine beschleunigte Integration in die Systeme, die sie bereits nutzen.
Unternehmens-AI-Agenten sind nun eine Identitäts- und Berechtigungsherausforderung
Der Zugang zu Tools wird zu einer Grundvoraussetzung. Die Herausforderung für Unternehmen ist die delegierte Autorität.
Das Entwerfen einer Slack-Nachricht ist unkritisch, das Posten in den falschen Kanal nicht. Neue Räume zu erstellen, externe Gäste einzuladen, Kundendaten in Gespräche einzubringen oder Aktionen in verbundenen Systemen auszulösen kann Compliance- und Sicherheitsimplikationen haben.
Sobald ein AI-Agent mehr tun kann als Entwürfe zu erstellen, stellen sich weitere Fragen: Welche Identität verwendet der Agent bei Aktionen? Handelt er als Mitarbeiter, Bot oder Dienstkonto? Welche Berechtigungen erbt er, und können diese auf bestimmte Aufgaben beschränkt und zeitlich begrenzt werden? Können Admins den Agenten auf „nur Entwurf“ beschränken oder eine Genehmigung vor Veröffentlichung verlangen?
MCP könnte den Zugriff auf Tools und Daten standardisieren, löst jedoch nicht automatisch Identitäts- und Governance-Probleme. Für Unternehmen sind solche Kontrollen die Basis für eine sichere Bereitstellung.
UC-Plattformen machen die Governance von AI-Agenten zu einem vordergründigen Thema
Dies gilt besonders im Bereich der Unified Communications. Kollaborationstools sind zentral für die tägliche Arbeit. Entscheidungen fallen in Threads, Dateien werden in Kanälen geteilt und Statusupdates bilden das institutionelle Gedächtnis. Kundeninformationen und betriebliche Details gelangen häufig über Chats und Meeting-Protokolle.
UC-Plattformen werden so zu Governance-Oberflächen. Aufbewahrungsrichtlinien, eDiscovery, Informationsbarrieren und Kontrollen für den Datenschutz werden hier umgesetzt. Wenn Unternehmens-AI-Agenten zentrale Akteure dieser Systeme werden, kann Governance nicht nachträglich hinzugefügt werden.
Eine einfache, eingebettete App-Erfahrung reicht nicht aus. Sicherheitsteams benötigen Transparenz über Aktionen der Agenten, Compliance-Teams brauchen Nachvollziehbarkeit und IT-Teams die Kontrolle, welche Aktionen unter welchen Bedingungen erlaubt sind.
Die fehlende Fähigkeit, für die Unternehmen bezahlen werden: Nachweis
Unternehmen wollen nicht nur, dass AI-Agenten Inhalte generieren, sondern auch den Nachweis, dass die Aktionen korrekt waren.
Das erfordert operationale Disziplin. Wenn ein Agent ein Update vornimmt, müssen Teams nachvollziehen können, ob richtige Daten verwendet, Quellen korrekt referenziert und Workflows ordnungsgemäß abgeschlossen wurden. Bei Fehlern muss die Ursache rückverfolgbar sein. Protokolle und Audit-Trails müssen aufzeigen, welche Zugriffe, Änderungen und Berechtigungen verwendet wurden.
Viele „Agenten“-Demonstrationen scheitern in realen Umgebungen: Ein Workflow bricht ab, eine API liefert unerwartete Ergebnisse oder Berechtigungen fehlen. Selbstbewusste Fehlentscheidungen können sich dann stark auswirken.
Interaktive MCP-Apps können Fehler reduzieren, indem sie Nutzer nah an der Ausgabe halten und Kontext bieten. Doch die Akzeptanz in Unternehmen hängt von breiter Zuverlässigkeit und Verantwortlichkeit ab. Beobachtbarkeit und Nachvollziehbarkeit sind keine Extras, sondern Grundanforderungen.
Fazit
MCP ist eine wertvolle Infrastruktur, die Integrationsbarrieren verringert und Ökosysteme skalierbar macht. Eingebettete App-Erlebnisse in Claude machen AI-Workflows benutzerfreundlicher und besser überprüfbar.
Erfolgreiche Unternehmens-AI-Agenten entstehen aber nicht nur durch technische Verbindungen, sondern durch klare Identität, Berechtigungen, Governance und Nachweisführung. Anbieter, die sichere Delegation ermöglichen und transparent dokumentieren, werden erfolgreich sein.