
本番環境でのエージェント障害は、モデルが十分に賢くないから起きるとは限りません。多くは、モデルの周辺システムが間違ったコンテキスト、古いコンテキスト、あるいは境界のないコンテキストを渡してしまうことから始まります。
多くのチームは、いまだに AI Governance を eval、prompt、安全性の話として捉えがちです。しかし agentic system ではそれだけでは足りません。
本当に高くつくリスクは、その周辺にあります。
だからこそ、コンテキスト層と実行層の両方をガバナンス対象にする必要があります。これは NIST AI Risk Management Framework の考え方とも整合します。
「エージェントに必要なコンテキスト」と言うと、retrieval 結果や chat 履歴、memory を思い浮かべがちです。しかしそれでは狭すぎます。
ビジネスコンテキストには、次が含まれます。
エージェントにとっての contextual intelligence とは、次をできることです。
| コンテキストの種類 | 含まれるもの | よくある失敗 | 問うべきこと |
|---|---|---|---|
| ビジネスコンテキスト | 目標、policy、SOP、承認ルール | テキストは守るが本当の業務ルールを外す | ここで妥当な行動は何か |
| 運用コンテキスト | 環境、アカウント状態、クォータ、障害、ワークフロー状態 | 正しい行動を間違った環境で実行する | 今なにが真実か |
| ポリシーや認可コンテキスト | scope、権限、tool permission、リスク区分 | 技術的には可能でも業務上は禁止の操作をする | このエージェントに何を許すか |
| 出所と鮮度のコンテキスト | source、owner、version、timestamp、trust level | 古い、または低信頼の情報が判断を支配する | なぜ今この情報を信じるのか |
すべてのコンテキストを同じように扱うべきではありません。
verifiedinternalexternalunknown重要なのは、低信頼のコンテキストをそのまま行動根拠にしないことです。
エージェントが何をしたかだけでなく、何を見たかも分からなければ、実用的な audit trail にはなりません。
本番で困るのは「答えがない」ことより、「古い答えや矛盾した答えが残っている」ことです。
prompt の指示は governance ではありません。データ更新、外部送信、エクスポートのような操作は、モデルの外側にある決定ロジックで最終許可されるべきです。
{
"source_id": "refund_policy_v17",
"owner": "finops",
"trust_level": "verified",
"approved_at": "2026-04-10T10:20:00Z",
"expires_at": "2026-07-10T00:00:00Z",
"audience": ["support-agent", "billing-agent"],
"risk_class": "high"
}
確認したいのは次の五点です。
retrieve context
-> check provenance
-> check freshness
-> check authorization
-> check for conflicts
-> allow, block, or escalate
関連する実装論としては AI Pipeline Workflow と Version Control for AI Agent Context が近い記事です。
多くの agent deployment は、コンテキストの組み立てで壊れます。policy は一つの system、運用事実は別の system、承認ルールはさらに別の system にあるからです。
governed context layer があると、
背景として読むなら Ultimate Guide to Agent Context Base: Hybrid Indexing と Context Engineering: When RAG Is Not Enough が最も近いです。
agent governance に即席 retrieval ではなく制御された context が必要なら puppyone を使うGet started前者はモデルリスクや統制全体の話で、後者はエージェントがどの情報を、どの条件で使ってよいかに焦点を当てます。
エージェントは事実を hallucinate するだけでなく、事実の周りにある業務ルールを取り違えて失敗するからです。
なりません。retrieval は情報を渡す仕組みであって、その情報が妥当か、最新か、安全に使えるかを判断する仕組みではありません。