Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > math > arXiv:2408.00220

帮助 | 高级搜索

数学 > 微分几何

arXiv:2408.00220 (math)
[提交于 2024年8月1日 (v1) ,最后修订 2024年11月6日 (此版本, v2)]

标题: 欧拉表示中流形拓扑学习的持久德·拉姆-霍奇拉普拉斯算子

标题: Persistent de Rham-Hodge Laplacians in Eulerian representation for manifold topological learning

Authors:Zhe Su, Yiying Tong, Guo-Wei Wei
摘要: 最近,拓扑数据分析已成为数据科学和工程领域的热门话题。 然而,拓扑数据分析的关键技术,即持续同调,是定义在点云数据上的,这无法直接用于流形上的数据。 尽管早期的德拉姆-霍奇理论处理的是流形上的数据,但由于在拉格朗日表示中对涉及的流形进行重新网格化导致的数值不一致,使其在机器学习应用中不太方便。 在本工作中,我们引入了持续德拉姆-霍奇拉普拉斯算子,或简称为持续霍奇拉普拉斯(PHL),用于流形拓扑学习。 我们的PHL是在欧拉表示中通过结构保持的笛卡尔网格构建的,避免了多尺度流形上的数值不一致。 为了促进流形拓扑学习,我们提出了一个用于流形或体积数据的持续霍奇拉普拉斯学习算法。 作为所提出流形拓扑学习模型的原理性应用,我们考虑了使用两个基准数据集预测蛋白质-配体结合亲和力。 我们的数值实验突显了所提出方法的力量和前景。
摘要: Recently, topological data analysis has become a trending topic in data science and engineering. However, the key technique of topological data analysis, i.e., persistent homology, is defined on point cloud data, which does not work directly for data on manifolds. Although earlier evolutionary de Rham-Hodge theory deals with data on manifolds, it is inconvenient for machine learning applications because of the numerical inconsistency caused by remeshing the involving manifolds in the Lagrangian representation. In this work, we introduce persistent de Rham-Hodge Laplacian, or persistent Hodge Laplacian (PHL) as an abbreviation, for manifold topological learning. Our PHLs are constructed in the Eulerian representation via structure-persevering Cartesian grids, avoiding the numerical inconsistency over the multiscale manifolds. To facilitate the manifold topological learning, we propose a persistent Hodge Laplacian learning algorithm for data on manifolds or volumetric data. As a proof-of-principle application of the proposed manifold topological learning model, we consider the prediction of protein-ligand binding affinities with two benchmark datasets. Our numerical experiments highlight the power and promise of the proposed method.
主题: 微分几何 (math.DG) ; 机器学习 (cs.LG)
引用方式: arXiv:2408.00220 [math.DG]
  (或者 arXiv:2408.00220v2 [math.DG] 对于此版本)
  https://doi.org/10.48550/arXiv.2408.00220
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Zhe Su [查看电子邮件]
[v1] 星期四, 2024 年 8 月 1 日 01:15:52 UTC (26,799 KB)
[v2] 星期三, 2024 年 11 月 6 日 20:46:10 UTC (26,800 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
math.DG
< 上一篇   |   下一篇 >
新的 | 最近的 | 2024-08
切换浏览方式为:
cs
cs.LG
math

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号