Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2510.09997v1

帮助 | 高级搜索

计算机科学 > 图形学

arXiv:2510.09997v1 (cs)
[提交于 2025年10月11日 ]

标题: CLoD-GS:通过3D高斯点云的连续细节层次

标题: CLoD-GS: Continuous Level-of-Detail via 3D Gaussian Splatting

Authors:Zhigang Cheng, Mingchao Sun, Yu Liu, Zengye Ge, Luyang Tang, Mu Xu, Yangyan Li, Peng Pan
摘要: 细节层次(LoD)是实时计算机图形学中一种基本技术,用于在保持视觉保真度的同时管理复杂场景的渲染成本。传统上,LoD是通过离散层次(DLoD)实现的,其中在不同距离下切换模型的多个不同版本。然而,这种长期存在的范式存在两个主要缺点:它需要为多个模型副本占用大量存储空间,并在转换过程中导致令人不安的视觉“弹跳”伪影,从而降低用户体验。我们认为,新兴的3D高斯点云(3DGS)技术的显式、基于原始对象的特性,使得一种更理想的范式成为可能:连续LoD(CLoD)。CLoD方法能够在单一统一模型内实现平滑、无缝的质量缩放,从而避免DLOD的核心问题。为此,我们引入了CLoD-GS,这是一个将连续LoD机制直接集成到3DGS表示中的框架。我们的方法为每个高斯原始对象引入了一个可学习的距离相关衰减参数,该参数根据视角接近程度动态调整其不透明度。这使得可以逐步且平滑地过滤不重要的原始对象,从而在一个模型内有效地创建一个连续的细节范围。为了使该模型在所有距离下都具有鲁棒性,我们引入了一种虚拟距离缩放机制和一种新颖的从粗到精的训练策略,并结合了渲染点数正则化。我们的方法不仅消除了离散方法的存储开销和视觉伪影,还减少了最终模型的原始对象数量和内存占用。大量实验表明,CLoD-GS能够从单一模型中实现平滑、质量可扩展的渲染,在广泛的性能目标下都能提供高保真结果。
摘要: Level of Detail (LoD) is a fundamental technique in real-time computer graphics for managing the rendering costs of complex scenes while preserving visual fidelity. Traditionally, LoD is implemented using discrete levels (DLoD), where multiple, distinct versions of a model are swapped out at different distances. This long-standing paradigm, however, suffers from two major drawbacks: it requires significant storage for multiple model copies and causes jarring visual ``popping" artifacts during transitions, degrading the user experience. We argue that the explicit, primitive-based nature of the emerging 3D Gaussian Splatting (3DGS) technique enables a more ideal paradigm: Continuous LoD (CLoD). A CLoD approach facilitates smooth, seamless quality scaling within a single, unified model, thereby circumventing the core problems of DLOD. To this end, we introduce CLoD-GS, a framework that integrates a continuous LoD mechanism directly into a 3DGS representation. Our method introduces a learnable, distance-dependent decay parameter for each Gaussian primitive, which dynamically adjusts its opacity based on viewpoint proximity. This allows for the progressive and smooth filtering of less significant primitives, effectively creating a continuous spectrum of detail within one model. To train this model to be robust across all distances, we introduce a virtual distance scaling mechanism and a novel coarse-to-fine training strategy with rendered point count regularization. Our approach not only eliminates the storage overhead and visual artifacts of discrete methods but also reduces the primitive count and memory footprint of the final model. Extensive experiments demonstrate that CLoD-GS achieves smooth, quality-scalable rendering from a single model, delivering high-fidelity results across a wide range of performance targets.
主题: 图形学 (cs.GR) ; 计算机视觉与模式识别 (cs.CV)
引用方式: arXiv:2510.09997 [cs.GR]
  (或者 arXiv:2510.09997v1 [cs.GR] 对于此版本)
  https://doi.org/10.48550/arXiv.2510.09997
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Zhigang Cheng [查看电子邮件]
[v1] 星期六, 2025 年 10 月 11 日 03:48:11 UTC (12,928 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
查看许可
当前浏览上下文:
cs.GR
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-10
切换浏览方式为:
cs
cs.CV

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号