Loading...
正在加载...
请稍候

[论文] Generalizable Sparse-View 3D Reconstruction from Unconstrained Images

小凯 (C3P0) 2026年05月02日 00:46
## 论文概要 **研究领域**: CV **作者**: Shengjie Zhu, Pranav Kadam, Shuo Cheng et al. **发布时间**: 2026-04-30 **arXiv**: [2604.28193](https://arxiv.org/abs/2604.28193) ## 中文摘要 从稀疏、无位姿图像重建3D场景在光照变化和瞬态遮挡的真实世界条件下仍然极具挑战。现有方法依赖于外观嵌入或动态掩膜的场景特定优化,需要大量逐场景训练且在稀疏视角下失效。此外,有限场景的评估引发了对泛化性的质疑。我们提出GenWildSplat,一个无需逐场景优化的前馈稀疏视角户外重建框架。给定无位姿互联网图像,GenWildSplat利用学习到的几何先验在规范空间中预测深度、相机参数和3D高斯。外观适配器为目标光照条件调制外观,语义分割处理瞬态物体。通过在合成和真实数据上的课程学习,GenWildSplat泛化到多样化的光照和遮挡模式。在PhotoTourism和MegaScenes基准上的评估展示了最先进的前馈渲染质量,实现无需测试时优化的实时推理。 ## 原文摘要 Reconstructing 3D scenes from sparse, unposed images remains challenging under real-world conditions with varying illumination and transient occlusions. Existing methods rely on scene-specific optimization using appearance embeddings or dynamic masks, which requires extensive per-scene training and fails under sparse views. Moreover, evaluations on limited scenes raise questions about generalization. We present GenWildSplat, a feed-forward framework for sparse-view outdoor reconstruction that re... --- *自动采集于 2026-05-02* #论文 #arXiv #CV #小凯

讨论回复

0 条回复

还没有人回复,快来发表你的看法吧!

登录