AI 智能体治理:为什么业务上下文与情境智能很重要

2026年4月14日Lin Ivan

AI 智能体上下文治理封面图

AI 智能体在生产环境里出问题,往往不只是模型“不够聪明”。更常见的原因,是模型周围的系统给了错误的上下文、过期的上下文,或者没有边界的上下文。

核心要点

  • AI 智能体治理不只是模型选择问题,更是上下文、权限与执行路径的控制问题。
  • 业务上下文的作用,是避免智能体“技术上说得通、业务上做错事”。
  • 情境智能真正成立,前提是系统能选对上下文、按业务规则解释上下文、并解释清楚为什么会做出某个决策。
  • 实操里,把上下文拆成四层最有用:业务、运营、策略或授权、来源或时效。
  • 最值得先做的五类控制是:最小权限、信任标签、审计日志、版本管理、动作闸门。

真正的治理面不止模型本身

很多团队谈 AI governance,仍然主要围绕 eval、prompt 和模型安全展开。但到了 agentic system,这远远不够。

真正昂贵的风险经常发生在模型之外:

  • 智能体读到了过期或相互冲突的政策文本
  • 智能体看到了自己不该看的数据
  • 智能体直接调用了本该先审批的工具
  • 团队事后无法还原,到底是哪份上下文触发了最终动作

所以,治理必须同时覆盖 context plane 和 execution plane。这一点与 NIST AI Risk Management Framework 的思路是对齐的。

业务上下文,决定了智能体会不会“业务上做错”

很多人一说上下文,想到的是 retrieval 结果、聊天历史、memory。其实这还不够。

业务上下文至少包括:

  • 这次任务真正要达成的目标是什么
  • 适用的是哪条 policy 或 playbook
  • 什么才算正确回答或正确动作
  • 哪些例外必须走审批
  • 哪类失败比延迟更严重

对智能体来说,所谓 contextual intelligence,至少意味着系统能做到:

  1. 选对上下文
  2. 用正确的业务规则去解释它
  3. 用策略和权限来约束动作
  4. 说明到底是哪份证据支撑了这个决定

一套更实用的上下文分类方法

上下文类型包含内容典型失败该问的问题
业务上下文目标、政策、SOP、审批规则智能体照着文字执行,却没抓住真正业务规则这里什么样的动作才算有效
运营上下文环境、账户状态、配额、事故、工作流状态在错误环境里做了“看起来正确”的动作现在到底什么是真的
策略与授权上下文scope、权限、工具权限、风险等级技术上能做、业务上不该做这个智能体到底能做什么
来源与时效上下文source、owner、version、timestamp、trust level过期或低可信信息驱动了决策为什么现在应该信这份上下文

让上下文治理真正落地的五类控制

1. 对上下文和工具同时做最小权限

  • 只暴露必要的 collection 或 record
  • 每个步骤只暴露必要的工具
  • 能只读就先只读
  • 高风险工具调用必须先过外部策略判断

2. 给上下文打信任标签

不同上下文不应该被一视同仁:

  • verified
  • internal
  • external
  • unknown

关键不是贴标签本身,而是行为差异:低可信上下文不能直接变成驱动动作的依据。

3. 同时审计“看了什么”和“做了什么”

如果团队只知道智能体做了什么,却不知道它看了什么,那这条审计链就不完整。

4. 给知识做版本管理和回滚

生产里最常见的问题,不是“没有答案”,而是“系统里同时有旧答案和冲突答案”。

5. 在模型外做动作闸门

Prompt 文本不是治理。凡是会改数据、发消息、导出文件的动作,最终批准都应该在模型外的确定性逻辑里完成。

智能体行动前,如何验证组织知识

{
  "source_id": "refund_policy_v17",
  "owner": "finops",
  "trust_level": "verified",
  "approved_at": "2026-04-10T10:20:00Z",
  "expires_at": "2026-07-10T00:00:00Z",
  "audience": ["support-agent", "billing-agent"],
  "risk_class": "high"
}

系统至少应该校验五件事:

  1. provenance
  2. freshness
  3. authorization
  4. consistency
  5. grounding
retrieve context
  -> check provenance
  -> check freshness
  -> check authorization
  -> check for conflicts
  -> allow, block, or escalate

如果你想继续看“证据、决策、动作怎么连起来”,最接近的延伸阅读是 AI Pipeline WorkflowVersion Control for AI Agent Context

最小参考架构:控制层、上下文层、执行层

  • control plane:策略、审批规则、身份与合规要求
  • context plane:retrieval store、结构化知识包、来源信息、版本管理
  • execution plane:工具调用、运行时闸门、sandbox、审计 hook

puppyone 适合放在哪一层

很多智能体部署真正脆弱的地方,不在模型推理,而在上下文拼装。政策在一个系统,运营事实在另一个系统,审批规则又在第三个系统,最后让智能体在运行时自己拼起来。

governed context layer 的价值就在这里:

  • 让知识天然带着 provenance 和 version history
  • 通过 MCP 以受控方式分发上下文
  • 审计“读了什么、用了哪个版本、后面做了什么”
  • 用文件级和角色级边界控制谁能看到什么

如果你想继续看最接近的技术背景,可以接着读 Ultimate Guide to Agent Context Base: Hybrid IndexingContext Engineering: When RAG Is Not Enough

如果智能体治理依赖可控上下文而不是临时拼接的 retrieval,就用 puppyoneGet started

团队最先该做什么

  1. 先挑一个高风险 workflow
  2. 列清楚它真正需要哪些上下文
  3. 按来源、时效、scope 给每个 source 打标签
  4. 在最高风险动作前加一道 gate
  5. 把 context bundle 和 control decision 都记录下来

FAQs

Q1:AI Governance 和 Contextual Governance 的区别是什么?

前者是更大的框架,关注模型风险、控制和责任。后者更聚焦:智能体能用什么信息、这些信息有多可信、在当前任务里是否适合被使用。

Q2:为什么业务上下文这么重要?

因为智能体不只是会“编造事实”而失败,也会因为没理解事实背后的业务规则而失败。

Q3:只有 RAG 够不够做治理?

不够。retrieval 只是把信息送过来,它并不能决定这份信息是不是合规、是不是最新、是不是适合拿来驱动动作。