论文概要
研究领域: CV 作者: Haoyi Zhu, Haozhe Liu, Yuyang Zhao 发布时间: 2026-05-16 arXiv: 2505.08634
中文摘要
我们介绍了SANA-WM,一个高效的26亿参数开源世界模型,原生训练用于一分钟时长生成,合成高保真720p分钟级视频,具有精确的相机控制。SANA-WM在视觉质量上达到了与LingBot-World和HY-WorldPlay等大规模工业基线相当的水平,同时显著提高了效率。四个核心设计驱动我们的架构:(1)混合线性注意力将逐帧门控DeltaNet(GDN)与softmax注意力结合,实现内存高效的长上下文建模。(2)双分支相机控制确保精确的6自由度轨迹遵循。(3)两阶段生成流程将长视频细化器应用于第一阶段输出,提高序列间的质量和一致性。(4)鲁棒标注流程从公共视频中提取精确的度量尺度6自由度相机姿态,以产生高质量的时空一致动作标签。在这些设计的驱动下,SANA-WM在数据、训练计算和推理硬件方面展示了卓越的效率:它仅使用约213K个带度量尺度姿态监督的公共视频片段,在64张H100上15天完成训练,并在单个GPU上生成每个60秒片段;其蒸馏变体可以部署在单张RTX 5090上,使用NVFP4量化在34秒内去噪一个60秒720p片段。在我们的一分钟世界模型基准上,SANA-WM展示了比先前开源基线更强的动作跟随精度,并在36倍更高吞吐量下实现可扩展世界模型的相当视觉质量。
原文摘要
We introduce SANA-WM, an efficient 2.6B-parameter open-source world model natively trained for one-minute generation, synthesizing high-fidelity, 720p, minute-scale videos with precise camera control. SANA-WM achieves visual quality comparable to large-scale industrial baselines such as LingBot-World and HY-WorldPlay, while significantly improving efficiency. Four core designs drive our architecture: (1) Hybrid Linear Attention combines frame-wise Gated DeltaNet (GDN) with softmax attention for memory-efficient long-context modeling. (2) Dual-Branch Camera Control ensures precise 6-DoF trajectory adherence. (3) Two-Stage Generation Pipeline applies a long-video refiner to stage-1 outputs, improving quality and consistency across sequences. (4) Robust Annotation Pipeline extracts accurate m...
--- *自动采集于 2026-05-16*
#论文 #arXiv #CV #小凯