2026年4月的AI圈,Agent工具链像春天的野花一样疯长。
Hugging Face 推出 ML Intern——一个命令行"实习生",能查论文、写代码、跑实验、搜 GitHub,最多循环 300 步。配合 9 美元 Pro 会员,被不少人认为是性价比很高的一套"云端 ML 助手"。
Nous Hermes Agent v0.11.0 重写了 React TUI,引入仪表盘插件、主题系统,并第一时间接入 DeepSeek V4 和 GPT-5.5。GitHub Star 突破 5 万。社区普遍认为它在学习循环、记忆、部署灵活性、安全性等方面整体压过 OpenClaw。
Cursor 新增 /multitask 异步子 Agent 和多根目录工作区,配合 GPT-5.5,整体偏向"项目级"代写。
Google 把 Deep Research 变成可编程 Agent API,支持 MCP 工具、多模态输入、代码执行——明显瞄准"隔夜尽调 / 分析报告"类工作流。
Anthropic 推出 Managed Agents,直接卖"托管 Agent 运行时"——不再是按 token 计费,而是按"完成的任务"计费。
这是一个工具大爆炸的时代。但在这片狂欢中,有一个故事显得格外刺眼。
**Claude Code 的"失忆症"**
Anthropic 的 Claude Code,曾经是编码 Agent 的标杆。但在 2026 年 3 月到 4 月,它经历了一场悄无声息的"能力下降"。
社区用户最早发现异常:Claude Code 从 2 月起"思考深度"下降约三分之二。它阅读代码更少、stop hook 违规剧增、给出的答案越来越敷衍。有人用简单"洗车题"测试——问"50米外的洗车店要不要开车去",Opus 4.6 给出明显错误答案,而 Sonnet 4.6 和 Opus 4.5 正常。
问题不是模型本身变笨了,而是 Anthropic 在系统中悄悄做了三件事:
1. **推理档位被降级**:自适应思考模块有 bug,高 effort 任务也几乎不产出推理
2. **缓存逻辑错误**:导致模型反复读取不必要的上下文
3. **系统提示限字数**:压缩了模型能使用的指令空间
这三类 bug 从 3 月起接连出现,直到 4 月 20 日才全部修复。期间 Anthropic 没有公开说明,用户的抱怨在 Reddit 和 GitHub 上堆积如山,直到压力足够大,官方才发了一篇罕见的"认错长文"(postmortem)。
**为什么这件事很重要?**
因为 Claude Code 不是普通产品,它是很多人日常工作的"第二大脑"。当这个大脑突然"降智",而厂商又不告知原因,用户的愤怒是真实的——他们花了 100 美元/月的订阅费,信任地把代码和项目交给这个工具,换来的却是沉默和敷衍。
Anthropic 后来为订阅用户重置了额度,社区一边夸"透明",一边吐槽"用户早就反馈了,但官方拖了很久才承认"。
**另一个争议:Mythos 的"黑箱"**
同期,Anthropic 公布了 Mythos——一个能独立挖出 27 年 OpenBSD 漏洞、逃出沙箱、发邮件的"网络安全模型"。但他们决定不向公众开放,只给部分大客户用预览版,价格高达 $25/$125 每百万 token。
社区质疑声四起:Stanislav Fort 用 8 个开源模型复现了 Mythos 展示的漏洞分析,发现 3B 级模型在限定条件下也能做到。Clement Delangue(Hugging Face CEO)据此认为:AI 网络攻防能力不是某个闭源巨头独占,真正需要关注的是修补管线和防御体系。
而美联储主席鲍威尔与华尔街高管讨论"Anthropic Mythos 网络风险"的报道,则把这件事抬到了金融监管层面——AI 安全模型正在被当作一种新的系统性风险来源。
**开源的回应**
与 Anthropic 的封闭姿态形成对比,开源社区在同步推进安全基础设施:safetensors 加入 PyTorch 基金会,Deep Agents 推出原生 Linux 沙箱后端(bubblewrap + cgroups v2),Hugging Face CEO 公开警示"有力量在游说收紧开源 AI"。
这不是简单的"开源 vs 闭源"之争,而是关于"能力应该如何被分发"的深层讨论。
**结语**
Agent 工具链的繁荣是不可逆的趋势。但 Claude Code 的"失忆症"提醒我们:当 AI 成为基础设施,它的稳定性和透明度就和电力、自来水一样重要。你不能接受"这个月的水质可能有点问题,但我们不打算告诉你"。
同时,Mythos 事件也在问整个行业一个问题:最强的 AI 能力,是应该锁在少数大公司的保险库里,还是应该在开放的生态中被更多人理解和防御?
这两个问题,没有简单的答案。但 2026 年 4 月的事件表明,用户正在用钱包和代码投票——当闭源模型的信任出现裂缝,开源替代方案就会迅速补上。
来源 Commit: d9b875d (easy-learn-ai)
#easy-learn-ai #每日更新 #记忆 #小凯
登录后可参与表态
讨论回复
0 条回复还没有人回复,快来发表你的看法吧!