AI Agents, die auf Anthropics Claude aufbauen, verfügen nun über eine gehostete Produktionsinfrastruktur, da das Unternehmen am 8. April Claude Managed Agents in der öffentlichen Beta eingeführt hat. Der Service übernimmt Sandboxing, Zustandsverwaltung, Credential-Handling und Fehlerwiederherstellung, wofür Engineering-Teams zuvor drei bis sechs Monate benötigten, bevor sie auch nur eine einzige Zeile Agent-Logik schreiben konnten.
Anthropics @claudeai-Account kündigte den Launch am 8. April um 23:14 Uhr MEZ an und zog 5,09 Millionen Aufrufe an. Der Service basiert auf dem, was Anthropic eine „Brain versus Hands"-Designphilosophie nennt: Claude selbst ist die Reasoning-Schicht, während jede Sitzung in einem verwerfbaren, isolierten Linux-Container läuft, der Code-Ausführung, Dateimanipulation und Tool-Aufrufe übernimmt. Wenn das nächste Claude-Modell ausgeliefert wird, muss die Infrastruktur nicht neu aufgebaut werden. Das Gehirn wird aktualisiert und die Hände bleiben gleich.
Die Preisgestaltung ist nutzungsbasiert. Die 0,08 $ pro Laufzeitstunde gelten für die Sitzung; die Standard-Claude-Token-Preise gelten zusätzlich für die Modellnutzung.
Die Deployment-Muster bei Notion, Asana und Rakuten veranschaulichen drei unterschiedliche Enterprise-Anwendungsfälle. Notion hat Claude direkt in Workspaces integriert, sodass Ingenieure Code ausliefern und Wissensarbeiter Präsentationen und Websites generieren können, ohne die Plattform zu verlassen, wobei Dutzende paralleler Aufgaben laufen, während Teams gleichzeitig an Outputs zusammenarbeiten. Asana hat sogenannte AI Teammates entwickelt, Agents, die in Projektmanagement-Workflows eingebettet sind und zugewiesene Aufgaben übernehmen, Ergebnisse entwerfen und Outputs zur menschlichen Überprüfung zurückgeben. Rakuten hat Agents in fünf Geschäftsfunktionen eingerichtet, die jeweils in Slack und Teams eingebunden sind, Aufgabenzuweisungen akzeptieren und strukturierte Ergebnisse zurückgeben, wobei jede Funktion in weniger als einer Woche live ging. Sentry ging einen anderen Weg und verband seinen bestehenden Debugging-Agent mit einem von Claude betriebenen Gegenstück, das Patches schreibt und Pull Requests autonom öffnet – von einem gemeldeten Fehler bis zu einem abgeschlossenen Pull Request ohne menschliches Eingreifen.
Entwickler definieren den Agent, indem sie das Modell, den System-Prompt, Tools, MCP-Server-Verbindungen und Leitplanken spezifizieren, und konfigurieren dann eine Cloud-Umgebung mit vorinstallierten Paketen und Netzwerkzugriffsregeln. Anthropics Infrastruktur übernimmt Tool-Orchestrierung, Kontextverwaltung, Checkpointing und Crash-Wiederherstellung. Sitzungen bleiben bei Verbindungsabbrüchen bestehen, eine praktische Anforderung für komplexe Workflows. Die eine wesentliche Einschränkung besteht darin, dass der Service nur auf Anthropics Infrastruktur läuft und derzeit nicht über Amazon Bedrock oder Google Vertex AI verfügbar ist, was für Organisationen mit Multi-Cloud-Strategien relevant ist.
Wie crypto.news berichtet hat, bestimmt die KI-Integration, die Unternehmensentscheidungen im Jahr 2026 vorantreibt, zunehmend die Mitarbeiterzahl, und der betriebliche Overhead, den Claude Managed Agents eliminiert, war eine erhebliche Adoptionsbarriere für Teams ohne spezialisierte DevOps-Ressourcen. Wie crypto.news festgestellt hat, ist der Aufbau der KI-Infrastruktur, von der Anthropics Agent-Plattform ein direktes Beispiel ist, einer der Haupttreiber von Kapitalallokationsentscheidungen, die Auswirkungen auf krypto-nahe AI-Token-Märkte haben. Die Multi-Agent-Koordinationsfunktion, die es Agents ermöglicht, Partner Affiliate für komplexe Aufgaben zu erstellen, befindet sich in der Research Preview, wobei der frühe Zugang über die Claude Platform Console verfügbar ist.


