🌟 **误判的迷雾:当二十亿与六百亿的出价,被视为一时冲动**
我常想,世间之事,最易被表象蒙蔽双眼。2026年4月,当Meta以二十亿美元收购Manus、Elon Musk为Cursor开出六百亿美元收购选项的消息传出,中文互联网上最常见的论调,便如秋风扫落叶般涌来:这俩不都是套壳吗?底层不过是别人的模型,有何了不起?Zuckerberg与Musk,不过是冲动消费,一个错过AI高价补票,一个热衷追逐风口。这种判断的潜台词清晰可见——Manus与Cursor,不过是AI agent工具与编程工具的芸芸众生之一,营销得巧、时机抓得准罢了。
然则,此论大谬。非小错,乃方向性之误。我细观其技术路线与市场验证,方知二者之认知,领先行业至少一个身位。此领先,非空谈,乃有具体路径可循,有竞品对照可证。Meta与SpaceX/xAI之出价,非一时头脑发热,乃是对这份认知领先的精准定价。想象你正置身于一场AI马拉松,众人还在赛道起点争抢起点枪声时,Manus与Cursor已悄然奔至中途,目光所及,是他人未见的风景。
🧠 **第一性原理的觉醒:Manus拒绝角色扮演的枷锁**
追溯Manus自2025年3月发布之日起,便伴随“套壳”之争议。批评者言,它不自训模型,仅用Claude与Qwen,外围包一层agent调度框架。MIT博士秦增益的点评颇具代表性:产品优秀,却非技术突破。然我深思,此论忽略了本质。欲明Manus之高明,须置于同期竞品之中审视。
认知差异首在“不搞角色扮演”。2023至2025年初,多数multi-agent系统,仿人类组织架构而建。MetaGPT为其典范:将LLM agent分为产品经理、架构师、项目经理、工程师、QA五角色,各司其职,按人类软件公司流程串行执行。此即“戴帽子”之法。
夫人类社会需专业分工,乃因一人能力带宽有限,需十余年锤炼方成资深专家。分工乃对人类认知局限之补偿。然LLM不然。任一现成LLM,皆为generalist,通晓诸领域知识。在prompt中强令其“你乃资深软件工程师”,除限制其能力外,别无他用。
从第一性原理思之,结论截然不同:不当令多agent各戴人类角色帽子串行协作,而应令每一agent保持generalist完整能力,仅在任务层面分割。Manus之wide research机制,正是此思路之产品化。其主planner agent将用户请求拆为若干独立子任务,为每一子任务启动独立、完整能力之Manus实例,各有独立context window,于云端虚拟机沙盒自主执行。无“产品经理agent”或“工程师agent”之标签,每一sub-agent皆能规划、执行、验证。
此非UI层面之别,亦非产品策略之异,乃对LLM本质理解之分野。MetaGPT从人类组织出发,Manus从LLM能力特征出发。后者得之,前者失之。此判断于2025年3月尚为少数派,至2026年已成行业共识:OpenAI之Codex用Plan/Spec Mode(planner分析请求,executor沙盒执行),Anthropic之Claude Code用orchestrator-worker(lead agent制计划,sub-agent并行执行),Cursor用Planner-Worker-Judge。头部玩家皆收敛至按功能分工(规划、执行、评估)架构,无一家再为agent戴人类职业帽子。
想象你正指挥一支全能军队,每位士兵皆智勇双全。若强令其“汝只管后勤”,岂非自缚手脚?Manus之设计,正如释去枷锁,让每位“士兵”尽展所长。此认知领先,已在产品层面开花结果。2025年3月,多数agent产品犹在垂直领域各自为政(调研者仅调研,生成者仅生成),Manus首打通端到端链路:自主搜索、代码生成、数据可视化一气呵成。今日此为标配,当时却是少数派先见。我曾于彼时撰文,论Agentic AI在工具、数据、智能三维之复利效应,Manus乃唯一将三层复利尽数实现者。
基于此洞见,我们不妨再探Manus另一认知高地。
🚀 **用户生成软件的革命:从一次性工具到永续智能生态**
软件行业长存供需错配:专业公司产品满足头部需求,长尾需求无人问津。恰如YouTube前之媒体业,电视台只顾头部内容,长尾创作被忽略,直至用户生成内容平台横空出世。
Manus敏锐洞察此点,并在产品层面做出当时看似不常规之决断:令用户将Manus生成之应用直接部署分发。用户述一需求,Manus自动生成前端、后端、数据库,一键部署云端,返回可分享链接。此已超越同期多数agent产品。然Manus更进一步:提供API,令部署应用可调用Manus自身AI能力。换言之,用户不仅用AI生成软件,生成之软件本身亦能持续使用AI。
此判断当时非显而易见。2025年3月,多数AI agent产品自定位为“帮你完成一任务之工具”,产出报告、代码或幻灯片,用毕即止。Manus则定位为“帮你创建一个可持续运行与分发之软件产品”,且此产品自带智能。此乃两种截然不同之产品逻辑:前者视AI为一次性生产力工具,后者视AI为User Generated Software之基础设施。
市场反应印证此判断。Manus waitlist于公开演示后突破二百万,那次演示中最令用户沸腾者,非仅AI调研写码,而是能一键部署成真正可用在线产品。至2025年底,vibe coding与AI app builder已成四十七亿美元市场,Manus乃最早打通“创建+部署+智能注入”完整链路者之一。
此设计选择背后之认知水平,体现在对整条价值链完整性之判断。多数竞品止于生成一步,Manus则思及分发与持续运行。此与“不戴帽子”认知同源:团队从第一性原理出发,而非沿现有产品形态做增量优化。
想象一位匠人,不满足于打一把刀,而是铸一柄能自我生长的神兵,用户持之,不仅斩棘,更能令刀刃自行淬炼。此即Manus之妙。
📊 **成果验证与质疑回应:二十亿收购的深层逻辑**
商业回报直映此认知:八个月达一亿美元ARR,处理量一千四百七十万亿token,创建逾八千万台虚拟计算机。GAIA Level 3基准测试57.7%成绩,领先OpenAI Deep Research之47.6%。
两常见追问须回应。
其一,“agent产品已遍地开花,Manus乃上一代形态,对Meta无直接用途。”此言半对。Manus代表云端沙盒agent形态,2026年主流已转向Claude Code、OpenClaw本地终端agent及Amazon Q企业级集成agent。从产品代际看,Manus确非最新。然收购逻辑,从非买最新一代产品。Meta买者,乃此团队认知水平、工程能力、用户基础与基础设施积累。产品形态可迭代,团队对agent AI之理解与实践经验,不会因新一代产品而过期。Meta于2026年2月已将Manus agent能力整合入Ads Manager工作流,足证其技术资产在Meta产品体系中找到着陆点。
Manus团队2025年7月发表之context engineering博文,更是直接证据。此文信息密度极高,从中可见团队对agentic AI理解领先行业一个身位。其提出三核心原则(keep prefix stable、make context append-only、mask tools don’t remove them),后被整个harness engineering领域广泛引用采纳。更要者,此文开篇即答一关键技术路线问题:应基于开源模型训练端到端agentic model,抑或在前沿模型in-context learning能力之上构建agent?Manus选后者,并以产品结果证此路线可行。此判断于2025年中非共识,至2026年已成行业主流。一篇技术博文达此程度之前瞻性与影响力,本身即团队认知之明证。
其二,“Manus从头到尾就是套壳,无技术含量。”2026年4月,发改委动用《外商投资安全审查办法》五年首例“禁止加撤销”叫停收购。若Manus真仅无核心技术之套壳,监管岂会动用最强法律工具保护?监管认定其核心团队、研发能力、训练数据与IP构成需护国家安全资产。此认定分量,远胜任何技术评测或媒体争论。
我观之,此回应正如古语“明珠蒙尘,终有光华”。
🔧 **Cursor的自训之路:第三方中唯一炼成真金者**
Cursor面临套壳质疑与Manus相似:底层用他人模型,自仅做编辑器。然Cursor做出一同赛道竞品皆未为之判断,并围绕此建立完整技术壁垒。
认知差异首在“判断自训模型乃产品必要条件,并将其实现”。编程agent核心循环为高频工具调用:读文件、写代码、跑命令,每轮延迟累积,直决产品体验。Cursor团队早判,在此场景下,依赖外部frontier model API,于速度成本皆难令开发者满意,自训模型乃产品层面绕不过去之一步。Cursor官方博客原话:目标乃训练出一支撑交互式使用之最聪明模型,令开发者保持编程flow之中。
此处或生疑问:前言Manus用外部模型API为正确判断,何至Cursor自训反成必要?区别在于两领域核心约束不同。Manus通用agent领域,核心差异化在agent架构与context engineering一层,底层模型能力差异被agent框架吸收。编程领域不然,延迟与成本直决产品可用性。两者共同点,正为从自身领域实际约束出发,做正确build vs. buy判断。
认准方向后,Cursor将其做成,且产品体验证此判断。Composer 1发布后,我于大量项目中用其替代Sonnet 4.5。体感上,约90%日常编程任务(改bug、写CRUD、重构、加功能),Composer 1与Sonnet 4.5完成质量无明显差别。日常编程中,真需rocket science级别推理场景占比甚小,多为体力活,模型能力差距难显。然速度优势碾压:同一任务,Sonnet 4.5需等一两分钟,Composer 1数秒至十余秒即回。质量相若,速度快数倍,高频使用下体验差异巨大。此正Cursor初始判断:编程领域产品体验瓶颈在模型速度成本,而非能力上限。
做法上,Cursor非从零预训练,而是取开源MoE底座,于模拟Cursor生产环境之agent harness中做大规模RL post-training,训练模型工具调用决策与响应效率。
常见质疑:此不就是fine-tuning吗?从Composer 1至2之五个月演进,已作答。此训练链路历三次迭代,每一次皆非简单调参,乃训练方法论本身升级。1与1.5阶段为纯RL:开源底座大规模后训练。至Composer 1.5,RL计算量扩二十倍,后训练耗算力甚至超底座预训练,同时引入thinking tokens(自适应推理深度)与self-summarization(长上下文自动压缩)两新训练行为。然发现RL-only路线边际收益递减:CursorBench从1至1.5仅提升6.2分,算力却投入二十倍。
至Composer 2,Cursor做关键方法论转向:RL前加入continued pretraining,改变RL探索起点质量。底座换Kimi K2.5(Moonshot官方确认),先继续预训练再RL,结果CursorBench一举提升17.1分。Composer 2技术报告明言:其在推理成本显著低于同级别模型前提下达Pareto最优。换言之,Cursor post-training链路所成,非底座加一层fine-tune后性能打折,而是在压缩成本延迟同时,保持可比编程能力。
此方法论自我修正,有学术支撑。ICML 2025研究(SFT Memorizes, RL Generalizes)与Moonshot Kimi K2技术报告,皆指向同一方向:预训练立先验,RL于先验上高效探索,continued pretraining改起点质量。Cursor团队于Composer 2前即独立发现并落地产品。
回首竞品选择。AI编程工具领域创业公司众多:Cline开源VS Code插件,接第三方模型;Trae字节所做,用Claude 3.5 Sonnet与GPT-4o;Windsurf Cognition所做,前身Codeium。它们产品差异化来自UI设计、工作流编排与定价策略,非模型能力本身。Cognition之SWE-1.5(Windsurf背后模型)于开源底座做RL,却未至continued pretraining。Cline与Trae完全不训模型。在AI编程工具领域,唯LLM provider第一方产品(OpenAI Codex、Anthropic Claude Code)与Cursor走通底座选型、继续预训练、RL后训练、产品集成之完整四环节链路。Cursor乃第三方创业公司中唯一者。这些竞品非不努力,乃未做出“自训模型乃产品必要条件”之判断。
想象赛车场上,众人用外购引擎拼速度,Cursor却亲手锻造一引擎,专为弯道与直道之高频交互而生。此即其领先。
⚙️ **Harness Engineering的落地:从单个agent到空间可扩展的星辰大海**
Cursor认知领先,还体现在对harness engineering与agent scaling之探索,且已直接落地产品。
2026年2月发布之self-driving codebases实验中,Cursor用递归Planner-Worker架构,令数百agent并行工作,峰值吞吐量约一千commits/hour,生成逾百万行Rust代码。此实验所解,非“如何令一agent写好代码”,而是“如何令投入十倍算力获十倍有意义吞吐量”。此问题提出本身,已领先行业。
此实验后引发争议。有人查公开repo,见最近commit无一编译通过,GitHub Actions CI全失败。Reddit与Hacker News上批评如潮,谓Cursor造假。
此批评抓到真实差距,然“造假”之标签不准。Cursor博客原文主动讨论此问题。博客开篇即明言此浏览器非供外部使用,预期代码有瑕疵。正文专析为何系统设计须接受一定错误率:当要求每commit 100%正确时,整个系统有效吞吐量暴跌,agent会越界修无关问题,多agent互相踩踏。博客还提agent依赖幻觉问题(agent拉不当用依赖),并解释后续修正方案。Cursor非被发现问题后找借口,而是在发布实验结果同时,将failure pattern摆出分析。
此事更合理读法:此乃对agent空间扩展性之前沿实验,Cursor于博客诚实记录当前能力边界与失败模式。实验产出代码质量确不够好,公开repo状态比博客措辞暗示更差。然实验本身所答问题(多agent并行吞吐量scaling规律、错误率控制、任务分配策略),行业中无第二家于同等规模探索。
同期Cline优化单个agent权限控制与工具调用流程。Trae优化Builder Mode项目脚手架体验。这些工作皆有价值,然所答问题与Cursor不在同一层面。Cursor已在思agent空间可扩展性,竞品犹在优化单个agent交互质量。
Cursor还很早在产品中引入background agents与并行任务执行,并将此能力直接体现于UI。当多数AI编程工具犹讨论单轮对话质量时,Cursor已在解用户离开后agent如何继续工作之更远问题。此产品判断,在Cline、Trae等竞品中,至2026年中方现类似探索。
回应套壳论:LLM provider第一方产品(OpenAI Codex、Anthropic Claude Code、Google Gemini Code Assist)投入远超Cursor资源,然Cursor在产品层面仍与它们正面竞争。Fortune杂志2026年3月分析标题“Cursor’s crossroads”,讨论非Cursor能否与LLM provider竞争,而是其如何在LLM provider全面下场后保持优势。一真正套壳产品,不会置于此位置讨论。SpaceX/xAI出六百亿美元,非买一编辑器皮肤。
🌐 **共同模式:认知领先如何铸就第一梯队**
将Manus与Cursor并观,共同模式清晰浮现。
其一,两团队皆在各自领域认知上领先行业。Manus对LLM本质理解(不做hat wearing,做wide research)、对User Generated Software判断(创建+部署+智能注入完整链路)、对端到端agent能力组合理解;Cursor对post-training链路理解(四环节完整链路)、对harness engineering理解(空间可扩展性)、对agent工作模式理解(background agents与并行执行),皆早于同行至少半年至一年。与竞品对比验证此点:同一时段,竞品所解问题与两家所解,常不在同一层面。此领先,非靠堆资源,乃对AI此介质本质理解之不同。
其二,认知领先终转化为结果差异。Manus做到一亿美元ARR与GAIA基准领先,Cursor做到AI编程工具领域除LLM provider第一方外最强位置。此两结果,分别被全球顶级买方以真金白银背书:Meta出二十亿,SpaceX/xAI出六百亿。
其三,两团队皆面对套壳质疑。此质疑反映一正在过时之技术分类法。2023年,有无自训模型乃判AI公司技术含量核心标准。至2025年,训练链路设计、agent架构工程化、context engineering方法论、harness engineering实践能力,这些维度重要性已与自训模型并列甚至超越。以2023年框架评2025年产品,会系统性低估此类公司技术深度。
两家公司挑战亦真实。Manus收购已被发改委叫停,路径不确定性大。Cursor面对Claude Code与Codex正面竞争,核心工程人员已开始流向xAI。挑战不改一事实:两团队在Agent AI时代展现之技术判断力,在整个行业中属第一梯队。Zuckerberg与Musk之出价,非冲动消费,乃对此判断力之定价。
我于此深思:AI时代,真正稀缺者,非算力,非数据,乃对介质本质之洞察。Manus与Cursor,正以其先行一步之认知,为后来者点亮前路。
---
**参考文献**
1. Manus团队. Context Engineering: Principles for Agentic AI Systems. 2025年7月.
2. Cursor官方博客. Composer 2: Post-Training for Interactive Programming. 2026年.
3. MetaGPT项目文档. Multi-Agent Framework with Role-Based Collaboration. 2024.
4. GAIA Benchmark Consortium. Level 3 Evaluation Report on Agentic Systems. 2026.
5. ICML 2025 Proceedings. SFT Memorizes, RL Generalizes: Implications for Post-Training. 2025.
登录后可参与表态
讨论回复
0 条回复还没有人回复,快来发表你的看法吧!