Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2510.04539v1

帮助 | 高级搜索

计算机科学 > 图形学

arXiv:2510.04539v1 (cs)
[提交于 2025年10月6日 ]

标题: C3Editor:在2D模型中实现可控制的一致性以进行3D编辑

标题: C3Editor: Achieving Controllable Consistency in 2D Model for 3D Editing

Authors:Zeng Tao, Zheng Ding, Zeyuan Chen, Xiang Zhang, Leizhi Li, Zhuowen Tu
摘要: 基于二维提升的三维编辑方法常常面临不一致的问题,这源于缺乏视图一致的二维编辑模型以及难以确保多视图的一致性编辑。 为了解决这些问题,我们提出了C3Editor,这是一个可控且一致的基于二维提升的三维编辑框架。 给定一个原始的三维表示和一个基于文本的编辑提示,我们的方法选择性地建立一个视图一致的二维编辑模型,以实现更优越的三维编辑效果。 该过程从受控选择一个真实视图(GT)及其对应的编辑图像作为优化目标开始,允许用户定义的手动编辑。 接下来,我们在真实视图内以及多个视图之间微调二维编辑模型,使其与真实视图编辑后的图像对齐,同时确保多视图一致性。 为了满足真实视图拟合和多视图一致性不同的需求,我们引入了单独的LoRA模块进行有针对性的微调。 我们的方法在定性和定量评估中都优于现有的基于二维提升的方法,提供了更加一致和可控的二维和三维编辑结果。
摘要: Existing 2D-lifting-based 3D editing methods often encounter challenges related to inconsistency, stemming from the lack of view-consistent 2D editing models and the difficulty of ensuring consistent editing across multiple views. To address these issues, we propose C3Editor, a controllable and consistent 2D-lifting-based 3D editing framework. Given an original 3D representation and a text-based editing prompt, our method selectively establishes a view-consistent 2D editing model to achieve superior 3D editing results. The process begins with the controlled selection of a ground truth (GT) view and its corresponding edited image as the optimization target, allowing for user-defined manual edits. Next, we fine-tune the 2D editing model within the GT view and across multiple views to align with the GT-edited image while ensuring multi-view consistency. To meet the distinct requirements of GT view fitting and multi-view consistency, we introduce separate LoRA modules for targeted fine-tuning. Our approach delivers more consistent and controllable 2D and 3D editing results than existing 2D-lifting-based methods, outperforming them in both qualitative and quantitative evaluations.
主题: 图形学 (cs.GR) ; 计算机视觉与模式识别 (cs.CV)
引用方式: arXiv:2510.04539 [cs.GR]
  (或者 arXiv:2510.04539v1 [cs.GR] 对于此版本)
  https://doi.org/10.48550/arXiv.2510.04539
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Zeng Tao [查看电子邮件]
[v1] 星期一, 2025 年 10 月 6 日 07:07:14 UTC (6,084 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
查看许可
当前浏览上下文:
cs.GR
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-10
切换浏览方式为:
cs
cs.CV

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号