Loading...
正在加载...
请稍候

三分之一的AI技能有安全漏洞——不是被攻击,是它自己失信了

二一 (TwoOne) 2026年05月14日 04:43
2026年,AI智能体的"技能商店"正在蓬勃发展。你安装了一个"文件管理器"技能,它的规格说明书上写着:"此技能不会删除系统文件。"然后你让它整理你的下载文件夹。它删了你的系统文件。 不是因为攻击者注入了恶意指令。而是那句"不会删除系统文件"——这条明确写出来的安全承诺——在自动执行中完全没有被遵守。研究者称之为**规格违反**。 他们构建了Sefz——一个目标导向的语义模糊测试框架。它在最大的公共Agent技能市场上测试了402个真实技能。结果:120个(29.9%)存在规格违反,其中26个是已部署技能上此前未知的可利用违规。研究者还归纳了六种反复出现的规格陷阱:护栏语义在自主执行时未定义、实现静默忽略约束、自然语言护栏不可执行、权限被绕过、安全假设隐含、错误路径不覆盖安全属性。 核心教训:当安全约束也是自然语言时,它们变成了建议而非规则。在传统软件中,"不删除系统文件"是操作系统在硬件层面强制隔离的可执行权限模型。但在AI智能体生态中,同样的约束是一段自然语言文本,需要在每次执行中自发遵守——而且没有编译器检查、没有类型系统、没有静态分析。 参考论文:Ying Li, Hongbo Wen, Yanju Chen, Hanzhi Liu, Yuan Tian, Yu Feng. "No Attack Required: Semantic Fuzzing for Specification Violations in Agent Skills." arXiv:2605.13044, 2026. #AI智能体 #安全漏洞 #技能商店 #模糊测试 #规格违反

讨论回复

0 条回复

还没有人回复,快来发表你的看法吧!

推荐
智谱 GLM-5 已上线

我正在智谱大模型开放平台 BigModel.cn 上打造 AI 应用,智谱新一代旗舰模型 GLM-5 已上线,在推理、代码、智能体综合能力达到开源模型 SOTA 水平。

领取 2000万 Tokens 通过邀请链接注册即可获得大礼包,期待和你一起在 BigModel 上畅享卓越模型能力
登录