Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2306.00356v1

帮助 | 高级搜索

计算机科学 > 机器学习

arXiv:2306.00356v1 (cs)
[提交于 2023年6月1日 ]

标题: 在混合对称性下的软等变性正则化

标题: Regularizing Towards Soft Equivariance Under Mixed Symmetries

Authors:Hyunsu Kim, Hyungi Lee, Hongseok Yang, Juho Lee
摘要: 数据集通常具有其内在对称性,已经开发出称为等变或不变的深度学习模型来利用这些对称性。 然而,如果这些对称性只是近似的,这在实践中经常发生,由于对模型施加的结构限制,这些模型可能会次优。 我们在一种对称性混合的情况下解决近似对称性的问题,即这些对称性不是单一类型而是多种不同类型,并且这些类型的近似程度各不相同。 我们没有像大多数先前方法那样提出新的结构限制,而是提出了一种基于正则化的方法,用于构建具有混合近似对称性的数据集的模型。 我们方法的关键组成部分是我们称之为给定类型对称性的等变正则化器,它衡量模型相对于该类型对称性的等变程度。 我们的方法使用这些正则化器进行训练,每个对称性类型一个正则化器,正则化器的强度在训练过程中自动调整,从而在没有显式监督的情况下发现某些候选对称性类型的近似水平。 通过合成函数逼近和运动预测任务,我们证明了我们的方法在正确发现近似对称性水平的同时,比之前的方法取得了更好的准确性。
摘要: Datasets often have their intrinsic symmetries, and particular deep-learning models called equivariant or invariant models have been developed to exploit these symmetries. However, if some or all of these symmetries are only approximate, which frequently happens in practice, these models may be suboptimal due to the architectural restrictions imposed on them. We tackle this issue of approximate symmetries in a setup where symmetries are mixed, i.e., they are symmetries of not single but multiple different types and the degree of approximation varies across these types. Instead of proposing a new architectural restriction as in most of the previous approaches, we present a regularizer-based method for building a model for a dataset with mixed approximate symmetries. The key component of our method is what we call equivariance regularizer for a given type of symmetries, which measures how much a model is equivariant with respect to the symmetries of the type. Our method is trained with these regularizers, one per each symmetry type, and the strength of the regularizers is automatically tuned during training, leading to the discovery of the approximation levels of some candidate symmetry types without explicit supervision. Using synthetic function approximation and motion forecasting tasks, we demonstrate that our method achieves better accuracy than prior approaches while discovering the approximate symmetry levels correctly.
评论: 国际机器学习大会论文集(ICML),2023
主题: 机器学习 (cs.LG) ; 人工智能 (cs.AI); 机器学习 (stat.ML)
引用方式: arXiv:2306.00356 [cs.LG]
  (或者 arXiv:2306.00356v1 [cs.LG] 对于此版本)
  https://doi.org/10.48550/arXiv.2306.00356
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Hyunsu Kim [查看电子邮件]
[v1] 星期四, 2023 年 6 月 1 日 05:33:41 UTC (1,727 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • TeX 源代码
查看许可
当前浏览上下文:
cs.LG
< 上一篇   |   下一篇 >
新的 | 最近的 | 2023-06
切换浏览方式为:
cs
cs.AI
stat
stat.ML

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号