Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2508.00259

帮助 | 高级搜索

计算机科学 > 计算机视觉与模式识别

arXiv:2508.00259 (cs)
[提交于 2025年8月1日 ]

标题: PointGauss:点云引导的高斯泼溅多目标分割

标题: PointGauss: Point Cloud-Guided Multi-Object Segmentation for Gaussian Splatting

Authors:Wentao Sun, Hanqing Xu, Quanyun Wu, Dedong Zhang, Yiping Chen, Lingfei Ma, John S. Zelek, Jonathan Li
摘要: 我们引入了PointGauss,一种新颖的点云引导框架,用于高斯点云表示中的实时多目标分割。 与现有方法相比,我们的方法在初始化时间较长和多视角一致性有限方面有所改进,通过点云分割驱动的流程直接解析高斯原始数据,实现了高效的3D分割。 关键创新在于两个方面:(1) 基于点云的高斯原始数据解码器,可在1分钟内生成3D实例掩码,(2) GPU加速的2D掩码渲染系统,确保多视角一致性。 大量实验表明,与之前最先进的方法相比有显著提升,在多视角mIoU上性能提高了1.89至31.78%,同时保持卓越的计算效率。 为了解决当前基准的局限性(单一目标焦点、不一致的3D评估、小规模和部分覆盖),我们提出了DesktopObjects-360,一个用于辐射场中3D分割的新颖全面数据集,具有以下特点:(1) 复杂的多目标场景,(2) 全局一致的2D注释,(3) 大规模训练数据(超过27千个2D掩码),(4) 完全的360{\deg }覆盖,以及(5) 3D评估掩码。
摘要: We introduce PointGauss, a novel point cloud-guided framework for real-time multi-object segmentation in Gaussian Splatting representations. Unlike existing methods that suffer from prolonged initialization and limited multi-view consistency, our approach achieves efficient 3D segmentation by directly parsing Gaussian primitives through a point cloud segmentation-driven pipeline. The key innovation lies in two aspects: (1) a point cloud-based Gaussian primitive decoder that generates 3D instance masks within 1 minute, and (2) a GPU-accelerated 2D mask rendering system that ensures multi-view consistency. Extensive experiments demonstrate significant improvements over previous state-of-the-art methods, achieving performance gains of 1.89 to 31.78% in multi-view mIoU, while maintaining superior computational efficiency. To address the limitations of current benchmarks (single-object focus, inconsistent 3D evaluation, small scale, and partial coverage), we present DesktopObjects-360, a novel comprehensive dataset for 3D segmentation in radiance fields, featuring: (1) complex multi-object scenes, (2) globally consistent 2D annotations, (3) large-scale training data (over 27 thousand 2D masks), (4) full 360{\deg} coverage, and (5) 3D evaluation masks.
评论: 22页,9图
主题: 计算机视觉与模式识别 (cs.CV)
引用方式: arXiv:2508.00259 [cs.CV]
  (或者 arXiv:2508.00259v1 [cs.CV] 对于此版本)
  https://doi.org/10.48550/arXiv.2508.00259
通过 DataCite 发表的 arXiv DOI(待注册)

提交历史

来自: Wentao Sun [查看电子邮件]
[v1] 星期五, 2025 年 8 月 1 日 01:56:54 UTC (23,328 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
cs.CV
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-08
切换浏览方式为:
cs

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号