Anthropic 和它的创始人 Dario Amodei,像极了学校里那种最令人讨厌的绩优生。
就是那种好多同学都想打他的"好学生",老师也不一定待见他。
他成绩优异,尤其是那门最难的课(AI 安全)总能拿高分;作业永远工整,甚至主动要求增加 extra credit(对 AI 的强监管政策),凸显自己的优势,打压其他同学。
他平等鄙视和防范任何一位同班的竞争者(OpenAI、xAI 和 Google 等),甚至拒绝在公开场合表现团结(在印度 AI 峰会上拒绝与 Sam Altman 拉手);同时对隔壁班的绩优同学(DeepSeek 和 Kimi 等)远程投射绵绵不尽的嫉妒与恶意。
他的同学们私下叫他"告密者"(经常指责其它模型不爱国和不安全),基本什么事儿都不带他玩,跟他的关系都很差,有机会就挤兑他。
前任班主任(拜登政府)觉得他还可以用来当遵守严苛纪律的标杆和班级里的眼线,而新班主任(特朗普政府)第一天就烦他:阴郁、啰嗦、敏感、自负、不合群,蔫儿主意又贼多,除了成绩还可以,简直一无是处。
2 月 16 日,Axios 报道称五角大楼警告 Anthropic 将"付出代价",并威胁将其列为"供应链风险"。这个标签通常是给外国对手的,意味着所有与五角大楼合作的公司都必须证明自己没有使用 Claude。
矛盾核心在于:Anthropic 不希望 Claude 被用于开发完全自主武器,而五角大楼要求所有 AI 模型开放"所有合法用途",不附加任何条件。
Anthropic 是第一家将模型部署在美国军事机密网络的 AI 公司,跟五角大楼有 2 亿美元的合同,又不让它的模型用于开发自主武器。
这么拧巴的事儿,美防长 Pete Hegseth 好像也没想明白。
2 月 23 日,Axios 报道防长 Hegseth 将于次日召见 Dario Amodei,五角大楼官员对媒体形容这是一场摊牌会面。当日,马斯克旗下的 xAI 与五角大楼签署协议,接受"所有合法用途"条款,打了 Anthropic 和 Dario Amodei 的脸。
在 Dario Amodei 与美防长会面的当日,Anthropic 官方博客突然发起了对它堪比堂吉诃德的风车一般的假想敌——中国大语言模型公司的指控。
Anthropic 称 DeepSeek、MiniMax 和 Kimi 对 Claude 实施了"工业规模蒸馏攻击"。并精心列举了数字:24,000 个虚假账户,1,600 万次对话交互,"系统性提取核心能力"。
可能 Anthropic 自己的人也明白"蒸馏"数据在模型训练过程中再司空见惯不过了,于是以"非法蒸馏可能移除安全护栏,使模型能力被用于军事、情报和监控系统"为由,直指所谓的国家安全问题。
不儿,您真的那么在意美国的国家安全,搁那儿一躺,任五角大楼摆布姿势就齐活了啊。舍近求远,拿中国出来说事儿,证明您爱美国,有用么。
反正媒体报道的是:五角大楼与 Dario Amodei 的会谈不欢而散。五角大楼需要能处理网络战策略的灵活工具,而 Dario 带去的是一本写满"伦理审查"和"安全对齐"的行为手册。
太正确了,以至于无用。
在华盛顿吃了瘪,Anthropic 对中国的指控在硅谷也被一边倒的群嘲。
埃隆·马斯克(Elon Musk)在 X 上的嘲讽最具代表性:
"他们怎么敢偷 Anthropic 从人类程序员那里偷来的东西?"这句讽刺指向 Anthropic 去年因非法下载 700 万本盗版书籍而支付的 15 亿美元和解金。一个以"AI 安全"和"负责任创新"为品牌核心的公司,一边指控他人"偷窃",一边为自身的版权侵权支付巨额罚金。
AI 基础设施公司 IO.Net 联合创始人 Tory Green 写道:
"你在开放互联网上训练,然后当别人向你学习时,称之为蒸馏攻击。喜欢鼓吹开放研究的实验室,突然为开放访问而哭泣。"一位 X 用户制作了广为流传的 meme 图:
"当你做的时候叫蒸馏,当我们做的时候叫训练"(Distillation when you do it. Training when we do it)
一语道破 Anthropic 操弄的"术语政治"双标。
24 小时内,从硅谷到华盛顿,从西海岸到东部,Anthropic 遭遇了双重羞辱:在华盛顿因为"太道德"被嫌弃,转身就在硅谷因为"不道德"被群嘲。
Anthropic 在华盛顿和硅谷的两头受气,不是因为它洁白无暇,而是因为它菜且爱玩。
"菜"不是指技术和产品能力——这个 Anthropic 一点都不菜,Claude 是非常优秀的产品;而是指作为一个班级学生,明明不擅长处理除了学习之外的任何社团活动,却还一直用偏执的方法投身进去,结果是人嫌狗不待见。
Anthropic 这个班上的乖孩子,试图用学生思维(做好作业、遵守规则、获得老师认可)来应对成人世界的权力游戏,结果两头落空。
想玩政治,却不懂规则。
支持 SB 1047 是标志性失误——在班级换届(政府更替)的关键时刻,拿着前任老师的评分标准去举报同学,结果新老师看见他就烦,同学看穿他,都避免跟他同台。
想变现道德资本,却发现市场要的是性能,政府要的是工具,舆论要的是一致性。
而它的"安全"品牌在三个维度都失败了:
Anthropic 既想当既有 AI 规则的反抗者,视 OpenAI 为话语权的最大敌人,又想当规则制定者;既想享受技术精英的地位,又想扮演道德权威的教师爷;既想参与权力游戏,又不愿接受游戏的肮脏。
这种"令人尴尬的虚伪"——把商业竞争包装成道德警察,把政治投机包装成安全担忧,把自我利益包装成公共利益——这是 Anthropic 哪怕产品和工具再好用,而始终在公共空间和舆论场不招人喜欢的终极原因。
不是因为它坏,而是因为所有人都看穿了那套"我比你更道德"的尬到抠出脚趾的表演,而表演者自己似乎还没意识到,观众们已经快吐了。
这个绩优生,拿着过时的规则手册,在班级里试图同时讨好新老师和欺负其他同学。
老师(特朗普政府)需要能打仗的工具,不需要道德作业;同学(硅谷)记得他举报作弊的前科,也看穿他抄袭的事实。
当他站在操场中央大声指控"有人偷我的作业"时,回应他的只有远处的嘲笑。
活该。
Anthropic 的遭遇是一个警示:
技术和道德不能替代政治智慧和商业嗅觉。
你可以是班上成绩最好的学生,但如果不懂规则、不识时务、不会做人,最终只会成为那个"令人讨厌的绩优生"。
而在这个 AI 竞争白热化的时代,"令人讨厌"可能是最昂贵的品牌负债。
你怎么看 Anthropic 的处境?是"坚持原则"还是"不识时务"?欢迎在评论区分享你的看法。
还没有人回复