引言
有了 vibe coding 的工具之后,做 Agent 似乎变得越来越容易:选一个大模型,写 Prompt,接上工具,再加上流程规划,代码交给 AI 来写。一个"智能体"demo 就诞生了,跑起来效果还不错。
但是当它接入真实业务场景时,当任务从单轮问答升级为多步决策,系统需要持续运行,很多问题就会涌现出来:多步骤任务无法稳定复现,系统长期运行后状态逐渐失控。
Google 的《Agentic Design Patterns》给出了答案。我们应该如何设计一个真正可上线、可扩展、可治理的 Agent 架构?这本书最有价值的地方在于它是一个模式组合的思维,它把 Agent 架构拆成了 21 种模式,通过多个模式像拼图一样巧妙的组合,打造出适应各种复杂场景的智能体系统。
非常建议每个 Agent 产品经理逐字阅读。Agent 时代,真正拉开产品经理差距的,恰恰就是 Agent 的架构设计能力。
六层架构全景图
为了更好的理解,我把这些模式按照用途分成了 6 大层级,从下往上构建一个完整的智能体系统:
① 控制流层
流程控制决定了智能体如何拆解和调度任务,是将概率性的语言模型转化为具备确定性工作流的核心架构。
Prompt Chaining(提示链)
就像流水线一样,把复杂任务拆解成一系列顺序执行的步骤。每一步的输出作为下一步的输入,通过指定结构化输出(如 JSON),确保数据在步骤间精确传递。
Routing(路由)
路由机制为智能体引入了条件逻辑,使智能体能根据输入上下文选择一个合适路径或工具。
Parallelization(并行化)
并行化允许智能体同时执行多个无依赖关系的子任务,并在后续节点汇总结果,大幅缩短整体执行时间。
Planning(规划)
上面三种是人为规划好路径,让智能体按照既定的路径走。而 Planning 是由智能体自己来规划路径,智能体不再是一个执行者而是成为一个战略规划者。
② 推理增强层
这类模式解决的是 Agent 的"脑力"问题:如何让 LLM 想得更深入、推理更可靠。
思维链 CoT
模型在生成最终答案之前,会先将问题拆解,逐步推导出中间步骤。通过显式推理,提升模型多步推理任务的表现。
思维树 ToT
比思维链更进一步,探索多个分支,评估每个分支,选择最优解。
ReAct
推理与行动交替进行。边想边做,循环进行:思考-行动-观察。根据结果调整思路。
反思 Reflection
智能体具备自省能力,生成结果后自我反思。两种方式:自我回顾 或 创建独立"批评者"。
思维链和思维树是前置思考,先想清楚再行动;ReAct 是过程中思考,边想边做;Reflection 是后置思考,做完了自省一下。
③ 状态与记忆层
人类有短期记忆和长期记忆,智能体也需要。智能体的记忆管理让它能够提供更个性化、更连贯的服务。
上下文记忆
类似于工作记忆,保存当前正在处理或最近访问的信息。但这些上下文是临时的,会在会话结束后丢失。
持久记忆
智能体需要在多次交互、任务或较长周期内保留信息的仓库。智能体需要时,会查询外部存储,检索相关数据并整合到上下文中。
④ 外部交互层
智能体不能只活在"文字世界"里,它需要连接真实世界。
Tool Use 工具调用
赋予智能体"手和脚"。它可以调用搜索引擎、计算器、数据库、API,从"只会说话"变成"能做事情"。
MCP 模型上下文协议
标准化的连接协议,就像 USB 接口统一了各种设备。MCP 让智能体能够以标准化方式连接各种外部数据源。
RAG 检索增强生成
让 LLM 在生成响应前,先通过向量检索从外部知识库中提取最相关的片段,从根本上减少幻觉。
Agentic RAG:进阶版本引入推理层,智能体不仅被动接收检索结果,还会主动评估来源质量、调和信息冲突。
工具函数调用就像给 AI 配一套专用工具,适合固定任务场景。而 MCP 则像通用电源插座系统,允许任何合规工具接入。
⑤ 系统协作层
顺序交接
一个智能体完成任务后,将输出传递给下一个智能体
并行处理
多个智能体同时处理问题不同部分,结果后续合并
辩论与共识
智能体基于不同视角讨论,最终达成共识或更优决策
层级结构
管理者智能体根据工具能力动态分配任务给工作智能体
专家团队
不同领域专长智能体协作完成复杂输出
批评-审查者
一个智能体生成内容,另一个智能体进行安全,合规的审查
每个智能体专注于自己擅长的领域,通过 A2A(智能体间通信)协议进行沟通协作。A2A 提供了一种基于 HTTP 的通用通信标准,通过"Agent Card"让智能体之间可以互相发现、委派异步任务。
⑥ 可靠性治理层
一个好用的系统不仅仅是能够满足功能上的需求,它同时需要是稳定的,安全的。
评估与监控
持续追踪"智能体轨迹",监控响应延迟与 Token 消耗,并采用"LLM-as-a-Judge"模式自动化评估。
护栏与安全
防止智能体生成有害内容或遭受提示词注入攻击,实施多层防御:输入清洗、输出拦截、预筛查。
异常处理与恢复
包括错误日志记录、重试、备用方案,降级、恢复机制。
人类参与 HITL
在涉及高风险、伦理判断的场景中,HITL 模式将人类作为最终的验证者和纠错者。
模式组合:1+1>2 的力量
不要孤立地看待每个模式,要学会组合!这才是设计模式的真正力量。
实践建议
从简单开始
不要一开始就构建复杂的多智能体系统,先从提示链、工具调用等基础模式开始,逐步增加复杂度。
根据场景选择
没有"最好"的模式组合,只有"最适合"的。分析你的具体需求,选择合适的模式。
持续迭代
智能体系统的优化是一个持续过程。先构建 MVP,然后根据实际运行情况不断优化。
重视可靠性
不要只关注功能,安全、监控、异常处理同样重要。一个不可控的强大系统比一个可控的简单系统更危险。
拥抱开源生态
LangChain、Google ADK、CrewAI 等框架已经实现了大部分设计模式,不需要从零开始造轮子。
Google《Agentic Design Patterns》白皮书(400+ 页)