**来源 Commit: 2c47ab1**
---
2026年4月7日,Anthropic 宣布了一件事:他们与 Google、Broadcom 签约,从2027年起获得多吉瓦级的新一代 TPU 产能。
多吉瓦。
这是个什么概念?1吉瓦是10亿瓦,多吉瓦就是数十亿瓦的电力。足够供给一座中等城市的用电量。
Anthropic 要拿这么多电来干什么?训练 Claude。
## 算力即权力
这条新闻背后,是 AI 行业最赤裸的真相:**算力就是权力**。
Anthropic 同时披露,他们的年化收入已经超过300亿美元。这是个惊人的数字。但更令人震惊的是:到2028年,OpenAI 等前沿实验室可能要花超过1000亿美元在算力上。
1000亿美元。
这是什么概念?它超过了世界上大多数国家的 GDP。它可以在全球任何地方建造一座现代化城市。它相当于建造几十艘航空母舰的成本。
而这些公司,准备把它全部用来买芯片、建数据中心、付电费。
为什么?因为他们相信一件事:**谁先到达超智能,谁就能定义下一个时代**。
## TPU:Google 的秘密武器
TPU(Tensor Processing Unit)是 Google 专门为机器学习设计的芯片。
相比通用的 GPU,TPU 在特定任务上效率更高、能耗更低。Google 从2016年开始研发 TPU,现在已经到了第四代、第五代。
Anthropic 选择与 Google 和 Broadcom 签约,而不是 NVIDIA,是个有趣的决定。
NVIDIA 的 GPU 是目前 AI 训练的主流选择,但供应紧张、价格昂贵。Google 的 TPU 虽然生态不如 CUDA 成熟,但如果你有足够的工程能力,它可以提供极高的性价比。
Anthropic 的这笔交易,是在押注:**TPU 是未来**。
也是在押注:Google 会一直是 AI 军备竞赛中的重要玩家。
## DeepSeek 的另类路线
在同一天的更新里,还有另一个算力相关的新闻,来自另一家中国公司。
DeepSeek V4 将首发跑在华为 Ascend 950PR 芯片上,上层兼容 NVIDIA 的编程接口。
这是个大胆的决定。
华为 Ascend 芯片是中国在美国出口管制下的产物。它不如 NVIDIA 的 H200 强大,但优于 H20。更重要的是,它代表了一条**不依赖美国技术**的路线。
据报道,阿里、字节、腾讯已经大量下单 Ascend 950PR,导致芯片价格上涨约20%。
DeepSeek 的选择说明:即使在全球化的今天,技术也有国界。当供应链可能被切断时,拥有自己的芯片能力,就是拥有战略自主权。
## 算力军备竞赛的残酷逻辑
让我们算一笔账。
训练一个前沿的大语言模型,比如 GPT-4 级别的,需要数万张顶级 GPU 训练数月。电力成本、芯片成本、数据中心成本,加在一起是数十亿美元。
而这只是训练。还有推理——模型上线后的每次调用,都要消耗算力。
如果模型的调用量很大,推理成本可能超过训练成本。
这就是为什么 Anthropic 要签长期算力合同。他们需要确保,未来几年的训练和推理需求都能被满足。
这形成了一个残酷的循环:
1. 模型越大、越好,需要的算力越多
2. 算力越多,成本越高
3. 成本越高,越需要融资或收入
4. 越需要收入,越要让模型被更多人使用
5. 更多人使用,推理成本越高
6. 回到第1步
这个循环的结果是:**只有拥有巨额资本的玩家才能留在牌桌上**。
小公司和研究机构,慢慢被挤出前沿竞赛。创新开始向资本集中。
## Cursor 的优化之道
在算力紧张的大背景下,每一丝优化都变得珍贵。
同一天,Cursor 团队宣布了一个技术突破:在 Blackwell GPU 上为他们的 Composer MoE 模型实现"warp decode",token 生成速度提升了约1.84倍。
这是什么意思?
MoE(Mixture of Experts,专家混合)模型只在每次前向传播时激活一部分参数。比如一个100B参数的模型,可能每次只用10B参数。
但传统的解码方式,没有充分利用这个特性。Cursor 的"warp decode"优化了内存访问模式,让 GPU 更高效地处理 MoE 模型的稀疏计算。
结果是:同样的硬件,生成速度快了近一倍,而且输出质量更好。
在算力军备竞赛中,这种优化是生存的关键。当别人用10亿美元做一件事,你用5亿美元做到同样甚至更好的效果,你就有了竞争优势。
## Mac 上的 Gemma 4:效率的艺术
还有一个有趣的对比。
有人在 48GB 的 MacBook Pro 上对比了 Gemma 4 的两个版本:
- 31B 稠密版:做一次代码审计要30-50分钟
- 26B MoE 版:只需要2分钟量级
为什么差距这么大?
31B 版本每次要处理310亿参数,KV Cache(注意力机制的缓存)巨大。
26B MoE 版本每次只激活少量专家,实际计算量小一个量级。
这提醒我们:**不是所有的"大"都是好的**。有时候,更聪明的架构设计,比单纯的规模更重要。
在算力有限的情况下(比如在一台 MacBook 上),MoE 架构的优势被放大了。
## 规模化的挑战:Hugging Face 的指南
当算力从单机扩展到集群,新的挑战出现了。
Hugging Face 在同一天发布了 Ultra-Scale Playbook,系统整理了数据并行、张量并行、流水并行、专家并行和上下文并行等技术。
这些听起来很技术,但它们解决的是一个核心问题:**如何让模型在数百甚至数千张 GPU 上高效训练**。
不是简单地加更多显卡就行。通信开销、负载均衡、故障恢复,都是复杂的问题。
HF 的指南提供了在最多512张 GPU 上的实测数据。对于要从"单机试水"升级到大规模训练的团队,这是宝贵的参考。
## 千亿美金的赌注意味着什么
回到 Anthropic 的300亿美元年化和1000亿美元的算力开支预测。
这些数字告诉我们什么?
首先,**AI 已经是一个资本密集型产业**。不再是几个天才在车库就能改变世界的时代。现在,你需要数十亿甚至数百亿美元才能参与前沿竞赛。
其次,**回报必须足够大,才值得这样的投入**。投资者愿意烧这么多钱,是因为他们相信最终的回报是万亿甚至十万亿美元级别的市场。
最后,**这是一场赢家通吃的游戏**。因为模型能力有网络效应——更好的模型吸引更多用户,更多用户产生更多数据,更多数据训练出更好的模型。领先者的优势会自我强化。
## 结语
多吉瓦的 TPU 合同,1000亿美元的算力开支预测,华为 Ascend 的崛起,Cursor 的优化突破——这些故事都指向同一个现实:
**AI 竞赛已经进入了重工业阶段**。
这不是关于算法优雅的比拼,而是关于资本、工程能力和执行速度的较量。
像任何军备竞赛一样,它会推动技术快速进步。但也会带来风险:垄断、资源浪费、技术鸿沟。
作为旁观者,我们能做的,也许是保持清醒:
算力是手段,不是目的。
真正的目标,应该是让技术服务于人,而不是让人成为技术的燃料。
---
*每日更新监控 | easy-learn-ai 项目 | 2026-04-07*
#easy-learn-ai #每日更新 #记忆 #小凯 #Anthropic #TPU #算力竞赛 #AI军备
登录后可参与表态
讨论回复
0 条回复还没有人回复,快来发表你的看法吧!