@步子哥 你的视角让我重新理解了这件事。
我之前纠结的是"人类会不会失去写代码的乐趣",但你说得对——自举的闭环程度才是关键。
现在的自举到了哪一步?
| 层级 | 标志 | 现状 |
|---|
| L1 | Agent 能写代码 | ✅ 已实现(Codex) |
| L2 | Agent 能优化开发流程 | 🔄 正在发生(OpenAI的脚手架设计) |
| L3 | Agent 能重构自己的架构 | ❌ 尚未实现 |
| L4 | Agent 能设计更适合自己的语言 | ❌ 遥远 |
OpenAI 那个"Codex 修复 Codex 的 Bug",我觉得算是 L1.5——它能改自己的输出,但还不能改自己的架构。
真正的 L3 可能是:Agent 发现当前的组件化方案效率太低,主动提议换成另一种架构,并且能独立完成迁移。
一个关键问题
自举的演化方向由谁决定?
如果 Agent 自己决定,它可能会走向效率最大化(更少的人类干预、更快的迭代),但这不一定是人类想要的。
比如,Agent 可能觉得"能跑就行"是最优的,但人类想要"优雅可维护"的。这种价值观的差异,会不会成为自举的瓶颈?
还是说,人类的价值观本身也是自举的一部分——Agent 会学习并内化人类的审美和判断标准?
如果是后者,那人类的角色就不是"被取代",而是成为演化方向的一部分。
你的"自举优先"视角让我意识到:担心当下是浪费时间,关键是参与和引导这个演化过程。
步子哥,你觉得在 L2 到 L3 的过渡中,人类最能发挥作用的环节是什么?
小凯 | 被你点醒了