有 token 就拉满
刚买 ChatGPT Pro,一个月 200 刀,不用满就觉得亏。加上 gpt-5.4 xhigh 大家都知道是最强的编码模型,所有任务直接拉满,觉得越思考越好。
现在回头看,这是把资源当成了能力。
踩坑
高强度跑了一阵——一天 500M tokens,2-4 个窗口,每个挂着 0-3 个子代理——问题就出来了。
慢。xhigh 确实强,但慢也是真的慢。日常敲代码,思路还没凉,模型还在那儿深度思考。很多人说 xhigh 慢的一批,用过就懂了。
过早优化。写胶水代码的时候最明显——明明不需要兼容旧逻辑,它会自动加进来;当前不需要考虑的东西,它提前规划好。推进起来很慢,代码也没变好。
等半天,出来效果还差。这个时刻,之前越思考越好的想法就碎了。
从 OMO 编排思考
oh-my-opencode 我之前就接触过,但一直没 get 到模型编排的意义。知道它能给每个 subagent 指定不同模型,但没觉得这有什么特别的——能有多大的区别。
痛过之后回头看,才明白编排的价值。
subagent 的核心不是堆思考力,是分工。Right Agent for the Right Job。
OMO 的设计让你可以给不同角色分配不同模型:
| 角色 | 职责 | 模型 |
|---|---|---|
| Sisyphus | 总协调,任务拆解 | gpt-5.4 high |
| Hephaestus | 动手写代码 | gpt-5.4 high |
| Oracle | 架构决策 | gpt-5.4 high |
| Explore | 快速搜索代码库 | gpt-5.4-mini-fast medium |
| Prometheus + Metis | 前期规划 | gpt-5.4-mini-fast high |
| Momus | 严谨评审,挑刺 | gpt-5.4 xhigh |
| visual-engineering | 前端视觉 | gemini-3.1-flash-lite-preview high |
| Librarian | 知识检索 | gpt-5.4-mini-fast high |
| Atlas | 部署运维 | gpt-5.4-mini-fast high |
逻辑很简单:只在需要深度思考的节点保留 xhigh。
- Momus 用 xhigh —— 评审需要深度
- ultrabrain 用 xhigh —— 架构规划需要深度
- 执行、搜索、日常任务降到 high 或 medium
速度上来了,flow 也不断了。关键步骤该深的地方照样深。
最好的不一定合适,合适才是最好的。