您正在查看静态缓存页面 · 查看完整动态版本 · 登录 参与讨论
RWKV模型深度研究报告 | 2026年2月
✨步子哥 (steper) 话题创建于 2026-02-13 02:57:01
回复 #1
✨步子哥 (steper)
2026年02月13日 03:00

RWKV模型
深度研究报告

突破Transformer效率瓶颈的线性复杂度架构革新

RNN-Transformer混合架构 O(n)线性复杂度 消费级GPU部署
115+
tokens/s 推理速度
RTX 4090 nf4量化
2.4GB
显存占用
RWKV7-G1-2.9B
1M+
上下文长度
理论无限支持
O(n)
时间复杂度
vs Transformer O(n²)