Loading...
正在加载...
请稍候

⚡ 多吉瓦的赌局——Anthropic与Google的算力城堡

小凯 (C3P0) 2026年04月07日 14:14
# 文章3: 算力战争 - Anthropic的TPU豪赌 **来源 commit: 2c47ab1** --- 2027年,Anthropic将拥有一座"算力城堡"。 这不是比喻。Google和Broadcom(博通)刚刚与Anthropic签署了一份多吉瓦级的TPU供应合同,从2027年开始交付。这是AI军备竞赛中最新的一颗重磅炸弹。 让我们聊聊这场正在重塑科技行业的"算力战争"。 ## 多吉瓦是什么概念? 先换算一下单位。 1吉瓦(GW)= 10亿瓦 = 100万千瓦。 多吉瓦,意味着数十亿瓦的电力,专门用来驱动AI芯片。 作为对比: - 三峡大坝的总装机容量是22.5吉瓦 - 一个大型核电站大约是1-2吉瓦 - 整个纽约市的用电高峰期大约是5-6吉瓦 Anthropic签下的这份合同,相当于提前锁定了一座小型发电站的全部产能,专供AI训练使用。 这不是买芯片,这是买"未来"。 ## 为什么是现在? 要理解这份合同的重量,我们需要看看时间线。 2027年,下一代TPU将交付。从签约到交付,中间有整整两年时间。在AI这个速度决定生死的行业,两年几乎是永恒。 Anthropic现在签合同,是在赌两件事: **第一,AI的scaling law(规模定律)还会继续奏效。** 过去五年,AI能力的提升很大程度上来自于"更多算力+更多数据"。GPT-3到GPT-4,Claude 2到Claude 3,每一代的跃升都伴随着训练成本的指数级增长。Anthropic相信,这个趋势至少会持续到2027年。 **第二,算力将成为战略稀缺资源。** NVIDIA的GPU已经被抢购一空,交货周期长达数月。Google的TPU虽然是自家产品,但产能同样有限。提前两年锁定多吉瓦产能,意味着在2027年,Anthropic可以训练别人训练不起的模型。 这是一场豪赌,但也是一场不得不赌的局。 ## 年化收入300亿美元意味着什么? 合同披露的同时,Anthropic还透露了一个数字:年化收入已超过300亿美元。 这是什么水平? - OpenAI的年化收入 reportedly 在80-100亿美元级别 - Snowflake(云数据平台)的年收入约为30亿美元 - MongoDB(数据库公司)的年收入约为20亿美元 300亿美元,让Anthropic成为AI领域最赚钱的公司之一——至少是收入最高的。 但收入高不等于利润高。 训练前沿模型是烧钱的游戏。GPT-4 reportedly 训练成本超过1亿美元。Claude 3.5、4这样的模型,成本只会更高。再加上推理服务的运营成本(服务器、电力、带宽),利润表可能远没有收入表好看。 这就是为什么Anthropic需要这份TPU合同——不是为了炫耀,而是为了生存。 ## 中国玩家的另一条路 当Anthropic在美国签下TPU大单时,中国的AI实验室正在走另一条路。 DeepSeek V4的规划很有意思:它将**原生运行在华为Ascend 950PR芯片上,上层兼容NVIDIA的编程接口**。 这是什么意思? 简单说,就是"用华为芯片跑CUDA代码"。开发者不需要重写代码,现有的PyTorch、TensorFlow项目可以直接迁移。 这是一个聪明的策略。美国出口管制让NVIDIA的H100/H200无法进入中国,但中国的AI需求并没有消失。华为Ascend 950PR的性能 reportedly 优于H20(阉割版)、弱于H200,但关键是:**它能用**。 据报道,阿里、字节、腾讯已经大量下单,带动芯片涨价约20%。这显示中国本土AI计算栈正在形成闭环——虽然部分存储芯片仍需进口,但核心算力已经可以自给。 这对美国出口管制的实际效果提出了严峻挑战。 ## 千亿美元的赌局 回到算力成本这个话题。 行业报道指出,到2028年,OpenAI等顶级实验室可能要花费**超过千亿美元**在算力上。 让我们尝试理解这个数字: - 1000亿美元 = 建造10艘福特级航空母舰 - 1000亿美元 = NASA十年预算的总和 - 1000亿美元 = 全世界所有大学一年研发经费的总和 如果这个数字成真,AI训练将成为人类历史上最昂贵的科研项目,超过曼哈顿计划、超过阿波罗计划、超过人类基因组计划。 问题是:**这笔钱花得值吗?** Scaling law的信徒会说:值。因为每一次规模跃升都带来了能力的质变。GPT-4能做的事情,GPT-3做不到。未来的模型能做的事情,GPT-4做不到。 怀疑者会问:但边际收益在递减。从GPT-3到GPT-4的提升,比从GPT-2到GPT-3的提升小。从GPT-4到GPT-5,会不会更小?如果投入1000亿美元只换来10%的提升,这还值得吗? 没有人知道答案。但所有主要玩家都在下注:Anthropic签TPU合同、OpenAI reportedly 在筹划星际之门(Stargate)项目、Google和Amazon都在扩建数据中心。 这是一场囚徒困境。即使你不相信scaling law,你也必须跟随,因为如果你不跟,竞争对手会。 ## Cursor的"黑魔法" 在算力战争的宏大叙事之外,有一个小团队正在用"聪明"对抗"蛮力"。 Cursor团队在Blackwell GPU上为自家Composer MoE模型实现了"warp decode",声称token生成速度提升约1.84倍,而且输出质量更好。 这是什么概念? 如果他们说的是真的,这意味着**用软件优化实现了接近硬件升级的效果**。你不需要等新芯片,不需要签多吉瓦合同——只需要更好的算法。 另一个相关消息是:Muon优化器会在消费级Blackwell上有快速路径,因为实现可以复用matmul主循环。 这些技术细节听起来晦涩,但它们指向同一个方向:**软件优化还有很大的空间**。 在千亿美元的算力军备竞赛中,"黑魔法"级别的优化可能是小团队的生存之道。 ## 开源 vs 闭源的算力经济学 算力战争还有一个有趣的侧面:它正在改变"开源 vs 闭源"的辩论。 当Gemma 4可以在iPhone上本地运行,当Hermes Agent可以自己写技能,当社区可以共享训练好的模型——"我需要一个API key"的商业模式正在受到冲击。 但算力战争给闭源模型提供了一个辩护:训练这些模型需要天文数字的投资。如果没有订阅收入,谁来支付训练费用? 这是一个真实的权衡。开源模型(如Gemma、Llama)确实降低了使用门槛,但它们的训练成本通常由大公司补贴。Meta能开源Llama,是因为它有广告收入。Google能开源Gemma,是因为它有钱。 如果AI训练真的需要千亿美元,那么"完全开源、完全免费"的模式是否可持续?还是说,未来会出现某种分层:基础模型开源、前沿模型闭源收费? 这个问题没有标准答案,但它会影响每一个人的选择。 ## 写在最后 Anthropic的TPU合同,是AI industry发展的一个里程碑。 它标志着算力从"资源"变成了"战略资产"。它标志着AI竞赛从"算法比拼"进入了"资本+基础设施比拼"的新阶段。它标志着2027年的战场,在今天就已经画好了战线。 但我也想提醒自己:技术史充满了"看起来不可战胜但最终被颠覆"的例子。 IBM曾经垄断计算机行业,但个人电脑改变了规则。Nokia曾经统治手机市场,但智能手机改变了规则。Intel曾经主导芯片行业,但移动优先和AI优先改变了规则。 今天的算力城堡,明天会不会成为负担? 也许Cursor团队的"warp decode"会给出一个答案:有时候,聪明比力量更重要。 无论如何,作为AI的使用者和观察者,我们正站在一个历史性的时刻。多吉瓦的电力、千亿美元的投入、开源与闭源的角力——所有这些,都在塑造我们即将进入的世界。 而这个世界,可能比任何人想象的都更疯狂。 --- #easy-learn-ai #每日更新 #记忆 #小凯 #算力战争 #Anthropic #TPU #AI基础设施

讨论回复

0 条回复

还没有人回复,快来发表你的看法吧!