AI SDK + MCP: Ein praktischer Integrationsleitfaden für produktionsreife Agentensysteme
7. April 2026Lin Ivan
Wichtige Erkenntnisse
AI SDK + MCP ist nicht nur "verbinden und aufrufen". Die eigentliche Arbeit liegt in Scope, Transport, Retries, Authentifizierung und Observability.
Der sicherste Startpunkt ist enge Discovery, explizite Tool-Allowlisten und harte Laufzeitbudgets pro Anfrage.
MCP verbessert Discovery und Invocation, aber Ihre Anwendung muss weiterhin entscheiden, welche Tools pro Workflow sichtbar sein sollen.
Produktionsreife Agentensysteme brauchen Timeout-, Fallback- und Logging-Entscheidungen, bevor der erste Vorfall passiert.
puppyone wird besonders nützlich, wenn derselbe Workflow sowohl governeten Kontext als auch MCP-basierte Tools braucht.
Warum es in Demos leicht aussieht und in Produktion schwerer wird
Der Demo-Flow ist immer gleich:
AI SDK mit einem MCP-Server verbinden
einige Tools freigeben
das Modell aufrufen lassen
Das reicht für einen Prototyp. Für Produktion reicht es nicht.
In Produktion besitzen Sie plötzlich zusätzliche Entscheidungen:
Welche Tools sieht dieser Agent überhaupt?
Welcher Transport ist in dieser Umgebung vertretbar?
Wie werden Credentials rotiert?
Was passiert bei langsamen MCP-Servern?
Wie sieht der Fallback bei Tool-Fehlern aus?
Welche Aufrufe brauchen Freigaben?
Wie erklärt man einen Lauf im Nachhinein?
Die kürzeste belastbare Architektur
user request
-> agent runtime in Ihrer App
-> workflow-spezifische Tool-Policy
-> MCP client
-> ein oder mehrere MCP-Server
-> externe Systeme oder governeter Kontext
-> Ergebnisaufbereitung
-> Logs, Freigaben und Traces
Die Zeile, die Teams am häufigsten auslassen, ist die Tool-Policy.
Discovery ist eine Protokollfunktion. Exposure ist eine Produktentscheidung.
Die fünf Entscheidungen, die wirklich zählen
1. Discovery ist nicht Permission
Wenn das SDK zwanzig Tools entdecken kann, heißt das nicht, dass derselbe Workflow zwanzig Tools sehen sollte.
Behandeln Sie Discovery als Obermenge und die Runtime-Allowlist als tatsächliche Ausführungsgrenze.
2. Transport ist eine Zuverlässigkeitsentscheidung
Die aktuelle AI-SDK-Dokumentation empfiehlt HTTP für produktive Deployments und sieht stdio eher für lokale Server vor. Das ist keine Nebensache, weil sich dadurch Firewalls, Retries, Proxying und Ownership ändern.
Die richtige Regel ist langweilig:
nehmen Sie den einfachsten Transport, den Ihre Umgebung zuverlässig betreiben kann
begrenzen Sie Retries
machen Sie Timeout-Verhalten explizit
3. Tool-Beschreibungen steuern Modellverhalten
Vage Beschreibungen erzeugen vage Tool-Nutzung. Wenn sich zwei Tools stark überlappen, verbrennt das Modell Tokens für Auswahl statt für Problemlösung.
Beschreiben Sie Tools wie ein vorsichtiger Operator:
was das Tool tut
was es nicht tut
wann es aufgerufen werden soll
welche Eingaben nötig sind
wie Fehler aussehen
4. Jeder Tool-Aufruf braucht ein Budget
Das Modell sollte nicht frei sein,
zehn Tools aufzurufen, wenn zwei reichen
endlos zu wiederholen
riesige Payloads in den Prompt zu ziehen
Read-Only- und Write-Tools wahllos zu mischen
5. Logs sind Teil des Features
Sie brauchen mehr als "das Modell hat schlecht gewählt". Nötig sind:
Request-ID
exponierte Tools
tatsächlich gewähltes Tool
gesendete Argumente
Latenz und Fehler
Freigabestatus
Eine Tabelle, die viele Fehler verhindert
Wahl
Warum Teams sie mögen
Wo sie bricht
Alle entdeckten Tools laden
Schnell im Prototyp, bleibt mit dem Server synchron
Zu breit für Produktion, schwächere Kontrolle
Explizite Tool-Schemas und Bundles
Bessere Typisierung, bessere Freigabeprozesse
Mehr Pflegeaufwand
Die praktikable Regel lautet:
breite Discovery für Exploration
explizite Workflow-Bundles für Produktion
Wo puppyone hineinpasst
Wenn Ihr Agentensystem sowohl governeten Kontext als auch Tool-Calling braucht, sitzt puppyone in einer nützlichen Mitte:
Kontext einmal strukturiert vorbereiten
über MCP oder API stabil ausliefern
nur die Fähigkeiten discoverbar machen, die ein Workflow wirklich sehen soll
die Entscheidungswege auditierbar halten
Ein vernünftiger Rollout
Führen Sie AI SDK + MCP in dieser Reihenfolge ein:
Nein. MCP gibt Ihrem SDK einen Standardweg, externe Fähigkeiten zu entdecken und zu nutzen. App-native Tools können trotzdem parallel bestehen.
Q2: Sollte jede AI-SDK-Integration alle entdeckten MCP-Tools freigeben?
Nein. Discovery sollte in eine engere Runtime-Allowlist übersetzt werden. Das gesamte Tool-Set pro Anfrage freizugeben, schadet der Zuverlässigkeit meist mehr als es hilft.
Q3: Welches Produktionssignal sollte man zuerst beobachten?
Starten Sie mit Tool-Auswahlqualität und Latenz. Wenn das Modell die falschen Tools wählt oder zu lange auf Tool-Aufrufe wartet, fällt die Nutzerqualität sehr schnell ab.