Compliance Management FOR AI Agents
AI 智能体的合规管理:治理与审计
AI 智能体合规管理的技术指南:审计跟踪、信息治理、沙盒隔离,以及为什么 MUT 等协议层至关重要。
Ollie @puppyone2026年3月31日

AI 智能体在生产环境里出问题,往往不只是模型“不够聪明”。更常见的原因,是模型周围的系统给了错误的上下文、过期的上下文,或者没有边界的上下文。
很多团队谈 AI governance,仍然主要围绕 eval、prompt 和模型安全展开。但到了 agentic system,这远远不够。
真正昂贵的风险经常发生在模型之外:
所以,治理必须同时覆盖 context plane 和 execution plane。这一点与 NIST AI Risk Management Framework 的思路是对齐的。
很多人一说上下文,想到的是 retrieval 结果、聊天历史、memory。其实这还不够。
业务上下文至少包括:
对智能体来说,所谓 contextual intelligence,至少意味着系统能做到:
| 上下文类型 | 包含内容 | 典型失败 | 该问的问题 |
|---|---|---|---|
| 业务上下文 | 目标、政策、SOP、审批规则 | 智能体照着文字执行,却没抓住真正业务规则 | 这里什么样的动作才算有效 |
| 运营上下文 | 环境、账户状态、配额、事故、工作流状态 | 在错误环境里做了“看起来正确”的动作 | 现在到底什么是真的 |
| 策略与授权上下文 | scope、权限、工具权限、风险等级 | 技术上能做、业务上不该做 | 这个智能体到底能做什么 |
| 来源与时效上下文 | source、owner、version、timestamp、trust level | 过期或低可信信息驱动了决策 | 为什么现在应该信这份上下文 |
不同上下文不应该被一视同仁:
verifiedinternalexternalunknown关键不是贴标签本身,而是行为差异:低可信上下文不能直接变成驱动动作的依据。
如果团队只知道智能体做了什么,却不知道它看了什么,那这条审计链就不完整。
生产里最常见的问题,不是“没有答案”,而是“系统里同时有旧答案和冲突答案”。
Prompt 文本不是治理。凡是会改数据、发消息、导出文件的动作,最终批准都应该在模型外的确定性逻辑里完成。
{
"source_id": "refund_policy_v17",
"owner": "finops",
"trust_level": "verified",
"approved_at": "2026-04-10T10:20:00Z",
"expires_at": "2026-07-10T00:00:00Z",
"audience": ["support-agent", "billing-agent"],
"risk_class": "high"
}
系统至少应该校验五件事:
retrieve context
-> check provenance
-> check freshness
-> check authorization
-> check for conflicts
-> allow, block, or escalate
如果你想继续看“证据、决策、动作怎么连起来”,最接近的延伸阅读是 AI Pipeline Workflow 和 Version Control for AI Agent Context。
很多智能体部署真正脆弱的地方,不在模型推理,而在上下文拼装。政策在一个系统,运营事实在另一个系统,审批规则又在第三个系统,最后让智能体在运行时自己拼起来。
governed context layer 的价值就在这里:
如果你想继续看最接近的技术背景,可以接着读 Ultimate Guide to Agent Context Base: Hybrid Indexing 和 Context Engineering: When RAG Is Not Enough。
如果智能体治理依赖可控上下文而不是临时拼接的 retrieval,就用 puppyoneGet started前者是更大的框架,关注模型风险、控制和责任。后者更聚焦:智能体能用什么信息、这些信息有多可信、在当前任务里是否适合被使用。
因为智能体不只是会“编造事实”而失败,也会因为没理解事实背后的业务规则而失败。
不够。retrieval 只是把信息送过来,它并不能决定这份信息是不是合规、是不是最新、是不是适合拿来驱动动作。