AkaraChen

Article · · 1 min read

Agent 编排的迷思

两个月前,我们的谈资还是 Skill、Long Run、并行 Agent。而现在,行业风向似乎在一夜之间掉头,大家不约而同地扎进了”Agent 编排(Orchestration)”。

虽然模型性能尚未迎来下一个质变的临界点,但产品形态已经先行一步。这种”共识”让我感到不安。与其说是技术进步,不如说这更像是一场缺乏想象力的妥协。我想泼一盆冷水,聊聊在 Slock 这种群聊式协作产品背后的逻辑漏洞。

我们是如何走到”编排”这一步的?

回顾这几年的路径,其实逻辑清晰得近乎单调:

  • 2023 年(点状工具): prompt engineering 时代。我们像对待一个只会查字典的实习生,对话、生成、手动复制到终端,人工是绝对的粘合剂。
  • 2024 年(线状工作流): 演进到 Workflow,Dify 等平台开始尝试把 AI 塞进预设的管道里。AutoGPT 让大家看到了自主的苗头。
  • 2025 年(面状执行): Agent 之年。Claude Code、Cursor 和 Codex 彻底粉碎了软件开发的旧范式。“编写代码”的时间成本几乎归零,人的精力长时间用于监督 Agent。
  • 2026 年(网状编排): 以 Slock 为代表的产品出现。多 Agent 共享 Context,像人类一样在群聊里分派任务、吵架、协作。

发展的底层逻辑从未改变:一切为了 Long Run,一切为了取代决策。 我们试图赋予 Agent 一种”元认知(Metacognition)“,让它学会自我管理。但问题是,模仿人类的协作,真的是 Agent 的未来吗?

人类协作的精髓,恰恰是 Agent 的限制

目前的编排产品陷入了一个路径依赖:试图将 AI 包装成“雇佣兵”或“职员”,再套用人类的管理学架构去指挥它们。但这种模仿本身就是一种认知的错位。

人类协作的精髓,本质上是我们在信息极端不透明、传输带宽极低的情况下,为了达成共识而衍生出的补偿机制。而这些机制对 Agent 来说,不仅冗余,更是限制。与其说我们在构建 Agent 社会,不如说我们在强迫 AI 去玩一场它们注定无法理解规则的、名为“办公室政治”的人类角色扮演游戏。Agent 需要捧人类管理学的臭脚吗?我认为不需要。真正的演进,不应该是“结构”的复杂化,而应该是“生命体”的完整化。

内化直觉

如果我们要超越现在的”编排”小把戏,有两点是避不开的:

记忆不应当是检索

现在的 RAG 或 Long Context,本质上是给 AI 挂了一个巨大的外部 U 盘。每次干活都要翻一遍索引,这太笨重了。

未来需要的是 持续微调(Continuous Fine-tuning)。Agent 产生的信息不该存入数据库,而应直接内化为模型的”直觉”。它不该去”查”两个月前为什么要改那个 Bug,而应在看到代码的一瞬间,产生一种类似肌肉记忆的本能——“这里曾经痛过”。

知识管理不应当是文档

我们现在的知识管理(无论是 Obsidian 还是各类 Wiki)都是写给人看的。对 Agent 而言,强行阅读成千上万篇文档是极大的熵增。

真正的核心应是一个高度压缩的世界模型。这个模型里没有文字,只有逻辑和物理规则。多个 Agent 在其中运作时,共享的是同一套”常识”,而不是在群聊里互传 PDF。

现在的 Slock 们,正试图用社交逻辑来解决生产力问题。这太”温情”了,也太低效了。

如果我们承认 Agent 在逻辑处理上优于人类,那就不该让它们去学习人类那套带有信息隔离的、虚伪的协作方式。我们真正需要的,可能是一个完全不需要沟通的、绝对透明的逻辑集合。

或许,我们现在拼命构建的”Agent 社会”,只是在为一个即将到来的、完全不需要社会性的”超级单体”热场。