Agentic Systems
用一条复杂度递进路径理解增强型 LLM、workflow 与自治 agent。
核心区分
building-effective-ai-agents 给出的关键区分不是“有没有工具”,而是谁在掌控流程:
- Workflow:执行路径由开发者预定义,模型在框架内完成局部子任务。
- Agent:模型根据当前上下文与环境反馈,动态决定下一步做什么。
因此,workflow 更像“带 LLM 的程序编排”,agent 更像“带工具与反馈回路的模型驱动执行体”。
复杂度阶梯
从低复杂度到高复杂度,可以把 agentic systems 看成一条连续谱:
- 增强型 LLM:单轮调用 + 检索 / 工具 / 记忆。
- Prompt chaining:串行拆解,降低每步难度。
- Routing:按类别把输入分流给不同处理路径。
- Parallelization:并行处理子任务或多次投票。
- Orchestrator-workers:动态分配子任务,再汇总。
- Evaluator-optimizer:生成、评估、重试形成闭环。
- Autonomous agent:在环境中多轮行动,持续自我校正。
这条阶梯的价值不在于“越往后越高级”,而在于提醒自己:优先选择能满足目标的最低复杂度方案。
how-we-built-our-multi-agent-research-system 则补上了一个关键现实:当任务天然适合 breadth-first 并行探索时,orchestrator-worker 型多智能体可以被看作这条阶梯上“并行化 + 长程自治”的一次组合升级。它不是默认终点,而是只在研究类任务中非常有效的一种特化形态。
什么时候用 workflow
适合 workflow 的任务通常有几个特征:
- 子任务结构相对清晰;
- 可以预先写出主要路径;
- 希望更强的可预测性与一致性;
- 可以接受较低的灵活性,换取更好调试性。
这时,把任务拆成链式、路由式或并行式结构,往往比直接放权给自治 agent 更可靠。
什么时候用 agent
适合真正 agent 的任务通常满足:
- 所需步骤数难以提前确定;
- 每一步是否继续,取决于环境反馈;
- 任务允许模型持续做局部决策;
- 有外部“ground truth”可帮助纠错,例如工具返回值、代码执行结果、自动化测试。
最典型例子是 coding agent:它可以修改代码、运行测试、再根据失败结果继续迭代。
风险与约束
agent 的优势来自自治,但风险也来自自治:
- 成本更高;
- 错误会在多轮循环中累积;
- 不透明的中间推理让调试更难;
- 如果缺少停止条件与人工检查点,容易失控。
进一步看,scaling-managed-agents-decoupling-the-brain-from-the-hands 说明真正成熟的 agentic system 还需要区分:
- 会话层:保存可恢复、可回放的历史;
- harness 层:管理上下文、调用模型、连接工具;
- 执行层:真正做动作的 sandbox 或外部工具。
也就是说,agentic system 不只是 prompt + tools,还包含一套运行时架构。
因此,agent 设计通常需要配套:sandbox、guardrails、迭代上限、人工介入点与显式日志。
一个实用判断句
如果你很难解释“为什么一定需要多轮自治,而不是更好的单轮 prompt / 检索 / workflow”,那通常说明现在还不需要 agent。
来源:building-effective-ai-agents · how-we-built-our-multi-agent-research-system · scaling-managed-agents-decoupling-the-brain-from-the-hands 相关页面:agent-computer-interface · multi-agent-systems · long-horizon-agents · managed-agents · anthropic