Cloudflare hat beschrieben, welchen internen AI-Engineering-Stack das Unternehmen für seine R&D-Organisation gebaut hat: The AI engineering stack we built internally. Der entscheidende Punkt ist nicht ein einzelnes Modell. Der Punkt ist Infrastruktur.
Cloudflare verbindet Authentifizierung, zentrales LLM-Routing, MCP-Server, Sandbox-Ausführung, langlebige Agentensitzungen, einen Service-Katalog, AGENTS.md-Dateien, Engineering-Standards und AI Code Review.
| Produktionsproblem | Infrastrukturschicht |
|---|---|
| Viele AI-Clients und Provider | Zentrales Routing, Provider-Policy, Kostenkontrolle |
| Agenten brauchen interne Tools | MCP-Server und Portal-Schicht |
| Agenten müssen Code sicher ausführen | Sandbox-Runtimes |
| Agenten brauchen Repo-Kontext | AGENTS.md und Engineering-Standards |
| Agenten brauchen Organisationswissen | Service-Katalog und Abhängigkeitsgraph |
| Agentenergebnisse müssen geprüft werden | AI Code Review mit Standards |
So sieht produktionsreife AI Agent Infrastructure aus: keine Chat-App mit längerem Kontextfenster, sondern eine Umgebung, in der Agenten den richtigen Kontext finden, die richtigen Tools nutzen, innerhalb klarer Grenzen handeln und überprüfbare Spuren hinterlassen.
MCP ist eine wichtige Protokollschicht. Die offizielle Model Context Protocol documentation beschreibt MCP als Standard, um Modelle mit Tools und Datenquellen zu verbinden.
Das löst aber nicht automatisch das Infrastrukturproblem.
Wenn alles nur ein Live-API-Call ist, bleiben bekannte Lücken:
MCP ist das Zugriffsprotokoll. Es ist nicht automatisch Memory, Storage, Permissioning, Audit und Recovery.
Baue mit puppyone eine verwaltete Kontextschicht für AgentenGet startedEin Agents Filesystem ist ein Dateiarbeitsbereich, der für KI-Agenten statt für Menschen entworfen wurde.
Klassische Dateisysteme setzen voraus, dass ein Mensch entscheidet, was sicher, aktuell, relevant oder commit-würdig ist. Agenten handeln anders. Sie lesen, was sichtbar ist, schreiben, wo sie dürfen, und benutzen Dateien als Teil ihrer Arbeits- und Denkschleife.
Ein produktionsreifes Agents Filesystem sollte fünf Fähigkeiten haben:
| Fähigkeit | Warum sie wichtig ist |
|---|---|
| Einheitlicher Kontext | Agenten greifen über einen Dateiraum auf SaaS-Daten, Repo-Dokumente, Tickets, Spezifikationen und frühere Ergebnisse zu. |
| Scoped Access | Jeder Agent sieht nur Pfade, die er lesen oder schreiben darf. |
| Native Agentenschnittstellen | Zugriff über Bash, MCP, REST, CLI oder Sandbox-Mounts. |
| Dauerhafte Writes | Pläne, Scratch-Dateien, Reports und generierter Code überleben die Sitzung. |
| Operative Spuren | Reads, Writes, Diffs und Permission-Fehler sind sichtbar. |
Das ist mehr als ein geteilter Ordner. Dropbox, S3, Git, lokale Festplatten und Vektordatenbanken lösen jeweils nur einen Teil. Sie kombinieren meist nicht Agentenidentität, per-agent Permissions, MCP-Verteilung, Sandbox-Mounts und automatische Versionierung.
Mehr zu Dateisicherheit steht in unserem Guide filesystem design for AI agents.
Agenten lesen Kontext nicht nur. Sie verändern ihn.
Sie schreiben Pläne, fassen Meetings zusammen, transformieren Datensätze, generieren Reports, ändern Dokumentation und öffnen Pull Requests. Sobald Agenten schreiben, braucht das System ein Wiederherstellungsmodell.
Darum ist der Begriff Versioned Control Filesystem nützlich. Natürlich klingt "version-controlled filesystem" natürlicher, aber die Aussage ist: Versionierung darf keine Gewohnheit sein, an die der Agent denken muss. Sie muss in der Speicherschicht liegen.
Ein Versioned Control Filesystem für Agenten bedeutet:
Wenn ein Agent einen Ordner löscht, eine Policy überschreibt oder ein Dataset beschädigt, kann das Team prüfen und zurückrollen. Git hat gezeigt, wie wertvoll Diffs und Rollbacks für Code sind. Agenten brauchen ähnliche Semantik für Kontext.
User- oder Workflow-Request
-> Agent Client / Orchestrierung
-> Model Routing und Policy
-> MCP- und Toolzugriff
-> Agents Filesystem
- synchronisierter SaaS-Kontext
- Repo- und Projektkontext
- generierte Artefakte
- per-agent Permissions
- Version History und Audit Logs
-> Sandbox-Ausführung
-> Review, Approval, Deployment
Das Agents Filesystem liegt in der Mitte, weil Kontext dort operativ wird. Es verbindet Quellen, MCP, Sandbox und Review. Ohne diese Schicht entstehen fragile Fragmente: lokale Ordner, Vektorindizes, einzelne MCP-Server, Wikis, Object Storage und manuelle Audit-Notizen.
puppyone ist ein Datei-Workspace für Multi-Agenten-Zusammenarbeit. In dieser Architektur stellt es die Agents-Filesystem- und Versioned-Control-Filesystem-Schicht bereit.
Konkret:
puppyone ersetzt nicht jede Schicht aus Cloudflares Stack. Model Policy, Runtime Isolation, CI, Review und interne Standards bleiben wichtig. Aber mit einem Agents Filesystem sind Kontext und Artefakte nicht mehr über das Unternehmen verstreut.
Weitere Muster: MCP in Agentic AI und AI audit best practices for secure agent deployments.
| Frage | Wenn nein |
|---|---|
| Findet jeder Agent Kontext ohne Copy-Paste? | Kontext-Ingestion und Normalisierung fehlen. |
| Sieht jeder Agent nur erlaubte Dateien und Tools? | Scoped Permissions fehlen. |
| Überleben Agentenartefakte die Sitzung? | Dauerhafter Artefaktspeicher fehlt. |
| Kann man Änderungen zwischen Läufen diffen? | Versionierte Dateihistorie fehlt. |
| Kann man falsche Writes zurückrollen? | Checkpoints und Restore fehlen. |
| Mountet die Sandbox nur autorisierten Kontext? | Filesystem-aware Access Control fehlt. |
| Prüfen Menschen Artefakte statt Chatlogs? | File-basierte Workflows fehlen. |
Das ist die eigentliche Suchintention hinter ai agent infrastructure: Agenten sollen sicher lesen, schreiben, ausführen, zusammenarbeiten und überprüft werden.
Nein. MCP ist ein Protokoll für Tool- und Datenzugriff. Ein Agents Filesystem ist die Speicher- und Kontextschicht für Dateien, Artefakte, Rechte, Versionen und Audit-Trails.
Ja. Eine Vektordatenbank hilft bei semantischer Suche. Sie bietet normalerweise keinen normalen Lese-/Schreib-Workspace mit Pfadberechtigungen, Rollback, Diffs und Sandbox-Mounts.
Weil Agenten Änderungen machen. Versionierung sollte automatisch im Dateisystem passieren, nicht davon abhängen, dass ein Agent an einen Commit denkt.
Sobald Agenten von Experimenten zu geteilten Workflows werden: mehrere Agenten, mehrere Datenquellen, sensible Dateien, lange Tasks, wiederverwendbare Artefakte oder menschlicher Review.