计算机科学 > 计算与语言
[提交于 2023年6月2日
]
标题: DistilXLSR:一种轻量级跨语言语音表示模型
标题: DistilXLSR: A Light Weight Cross-Lingual Speech Representation Model
摘要: 多语言自监督语音表征模型极大地提升了低资源语言的语音识别性能,同时这些庞大模型的压缩也成为其工业应用的关键先决条件。 本文提出了一种名为DistilXLSR的蒸馏跨语言语音表征模型。通过随机打乱现有语音的音素,减少语言信息,并仅使用英语数据来蒸馏跨语言模型。我们还设计了一种层跳跃初始化方法,以充分利用教师模型的预训练权重。实验结果显示,在两种教师模型和15种低资源语言上的测试表明,我们的方法可以在保持跨语言表征能力的同时将参数量减少50%。此外,我们的方法被证明对各种语言/教师模型具有通用性,并有可能提升英语预训练模型的跨语言性能。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.