Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > stat > arXiv:2601.21732

帮助 | 高级搜索

统计学 > 方法论

arXiv:2601.21732 (stat)
[提交于 2026年1月29日 ]

标题: 神经 Wasserstein 两样本检验

标题: Neural Wasserstein Two-Sample Tests

Authors:Xiaoyu Hu, Zhenhua Lin
摘要: 两样本同质性检验问题在统计学中是基础性的,在高维情况下尤其具有挑战性,其中经典检验可能会出现显著的效力损失。 我们开发了一种基于投影1-Wasserstein距离的学习辅助过程,我们称之为神经Wasserstein检验。 该方法的提出是基于这样一个观察:通常存在一个低维投影,使得两个高维分布在此投影下有所差异。 在实际操作中,我们通过流形优化和使用深度神经网络的见证函数来学习投影方向。 为了适应未知的投影维度和稀疏水平,我们通过一种最大值型构造对一组候选统计量进行聚合,避免了显式的调参,同时可能提高效力。 我们建立了所提出检验的有效性和一致性,并证明了高斯近似的Berry--Esseen型界。 特别是,在原假设下,聚合统计量收敛于标准高斯向量的绝对最大值,从而得到一种渐近枢轴(分布无关)的校准方法,避免了重采样。 模拟研究和一个真实数据例子展示了所提出方法的强大有限样本性能。
摘要: The two-sample homogeneity testing problem is fundamental in statistics and becomes particularly challenging in high dimensions, where classical tests can suffer substantial power loss. We develop a learning-assisted procedure based on the projection 1-Wasserstein distance, which we call the neural Wasserstein test. The method is motivated by the observation that there often exists a low-dimensional projection under which the two high-dimensional distributions differ. In practice, we learn the projection directions via manifold optimization and a witness function using deep neural networks. To adapt to unknown projection dimensions and sparsity levels, we aggregate a collection of candidate statistics through a max-type construction, avoiding explicit tuning while potentially improving power. We establish the validity and consistency of the proposed test and prove a Berry--Esseen type bound for the Gaussian approximation. In particular, under the null hypothesis, the aggregated statistic converges to the absolute maximum of a standard Gaussian vector, yielding an asymptotically pivotal (distribution-free) calibration that bypasses resampling. Simulation studies and a real-data example demonstrate the strong finite-sample performance of the proposed method.
评论: 49页,3图
主题: 方法论 (stat.ME)
引用方式: arXiv:2601.21732 [stat.ME]
  (或者 arXiv:2601.21732v1 [stat.ME] 对于此版本)
  https://doi.org/10.48550/arXiv.2601.21732
通过 DataCite 发表的 arXiv DOI(待注册)

提交历史

来自: Xiaoyu Hu [查看电子邮件]
[v1] 星期四, 2026 年 1 月 29 日 13:52:31 UTC (102 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
许可图标 查看许可
当前浏览上下文:
stat.ME
< 上一篇   |   下一篇 >
新的 | 最近的 | 2026-01
切换浏览方式为:
stat

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号