
Produktionsprobleme bei Agenten entstehen selten nur durch das Modell. Sie entstehen, wenn das System rund um das Modell den falschen Kontext, veralteten Kontext oder unzureichend begrenzten Kontext liefert.
Sobald ein Agent internes Wissen lesen, Tools aufrufen und Folgeaktionen auslösen kann, wird Kontext zu einer Governance-Oberfläche. Er bestimmt, was der Agent weiß, worauf er sich stützen darf, was er tun darf und was ein Team später überhaupt belegen kann.
Viele Teams sprechen über AI Governance immer noch vor allem über Modellrisiko, Eval-Scores und Prompt-Sicherheit. Für agentische Systeme reicht das nicht mehr.
In der Praxis liegen die größeren Risiken oft daneben:
Deshalb muss Governance sowohl die Kontext-Ebene als auch die Ausführungsebene abdecken. Das passt gut zur NIST AI Risk Management Framework, die Governance als durchgehende Organisations- und Lebenszyklusaufgabe beschreibt.
Wenn Teams von "Kontext" sprechen, meinen sie oft Retrieval-Treffer, Chat-Verlauf oder Memory. Das ist zu eng.
Business-Kontext umfasst:
Ein Support-Agent kann beispielsweise die aktuelle Refund-Policy korrekt zusammenfassen und trotzdem falsch handeln, wenn er nicht weiß, dass Enterprise-Kunden ab einer Schwelle manuelle Freigaben brauchen oder Rechnungsstreitfälle an Finance gehen müssen.
Für Agenten bedeutet Contextual Intelligence deshalb:
| Kontexttyp | Inhalt | Typischer Fehler | Governance-Frage |
|---|---|---|---|
| Business-Kontext | Ziele, Policies, SOPs, Freigaberegeln | Agent folgt Text, verfehlt aber die eigentliche Regel | Was wäre hier eine gültige Aktion? |
| Betriebs-Kontext | Umgebung, Kontostatus, Quoten, Vorfälle, Workflow-Status | Richtige Aktion in falscher Umgebung | Was ist jetzt gerade wahr? |
| Policy- und Berechtigungskontext | Scopes, Rechte, Tool-Berechtigungen, Risikoklassen | Technisch möglicher, logisch verbotener Aufruf | Was darf dieser Agent tun? |
| Herkunfts- und Aktualitätskontext | Quelle, Owner, Version, Zeitstempel, Trust-Level | Veralteter oder schwacher Kontext steuert Entscheidungen | Warum sollten wir diesem Kontext jetzt vertrauen? |
Diese Trennung macht Governance implementierbar. Ein Retrieval-Treffer allein reicht nicht. Das System muss auch wissen, ob die Quelle autoritativ, aktuell und für diese Aufgabe überhaupt zulässig ist.
Jeder Agent sollte eine engere Identität haben als der Mensch oder Prozess, der ihn gestartet hat.
Nicht jeder Kontext ist gleich vertrauenswürdig.
verifiedinternalexternalunknownDer entscheidende Punkt: Unvertrauenswürdiger Kontext darf nicht stillschweigend zu handlungsleitender Evidenz werden.
Wenn ein Team nur weiß, was der Agent getan hat, aber nicht, was er gesehen hat, fehlt die eigentliche Rekonstruktionsspur.
Mindestens geloggt werden sollten:
Wissenssysteme sind oft auf Retrieval optimiert, nicht auf kontrollierte Änderungen. In agentischen Systemen ist genau das gefährlich. Der übliche Fehler ist nicht "keine Antwort", sondern "falsche oder veraltete Antwort".
Prompt-Text ist keine Governance.
Wenn ein Agent Datensätze ändert, Nachrichten sendet oder Exporte startet, muss die letzte Freigabe außerhalb des Modells in deterministischer Logik liegen.
Nützlich ist ein kompakter Vertrag am Kontextelement:
{
"source_id": "refund_policy_v17",
"owner": "finops",
"trust_level": "verified",
"approved_at": "2026-04-10T10:20:00Z",
"expires_at": "2026-07-10T00:00:00Z",
"audience": ["support-agent", "billing-agent"],
"risk_class": "high"
}
Vor der Nutzung sollten fünf Fragen beantwortet werden:
Ein einfacher Ablauf:
retrieve context
-> check provenance
-> check freshness
-> check authorization
-> check for conflicts
-> allow, block, or escalate
Als ergänzende Lektüre passen AI Pipeline Workflow und Version Control for AI Agent Context gut dazu.
Der Vorteil dieser Trennung: Dieselbe Prompt-Schicht ist nicht gleichzeitig für Evidenzwahl, Policy-Interpretation und Ausführung zuständig.
Viele Agenten-Deployments scheitern an der Kontext-Zusammenstellung. Policies liegen in einem System, Betriebsfakten im nächsten, Freigaberegeln in einem dritten. Dann soll der Agent zur Laufzeit alles korrekt zusammensetzen.
Eine regierte Kontextschicht hilft hier:
Für den technischen Hintergrund sind Ultimate Guide to Agent Context Base: Hybrid Indexing und Context Engineering: When RAG Is Not Enough die passendsten Nachbarartikel.
Nutze puppyone, wenn Agent-Governance kontrollierten Kontext statt Ad-hoc-Retrieval brauchtGet startedAI Governance ist das größere Feld aus Modellrisiko, Kontrollen und Verantwortlichkeit. Contextual Governance fokussiert darauf, welche Informationen ein Agent nutzen darf, wie vertrauenswürdig sie sind und ob sie für diese konkrete Aufgabe angemessen sind.
Weil Agenten nicht nur durch Halluzination scheitern, sondern auch durch das Übersehen der Geschäftsregel rund um einen Fakt.
Nein. Retrieval liefert Kontext, entscheidet aber nicht, ob dieser Kontext zulässig, aktuell und sicher nutzbar ist.