计算机科学 > 计算与语言
[提交于 2023年6月7日
]
标题: 从预训练语言模型进行迁移学习可提高端到端语音摘要生成
标题: Transfer Learning from Pre-trained Language Models Improves End-to-End Speech Summarization
摘要: 端到端语音摘要(E2E SSum)直接将输入语音总结为易于阅读的短句,仅使用一个模型。 这种方法很有前景,因为它与传统的级联方法相反,可以利用完整的声学信息并减轻转录错误的传播。 然而,由于收集语音-摘要对的成本很高,E2E SSum模型往往面临训练数据不足和输出不自然句子的问题。 为克服这一缺点,我们首次提出通过迁移学习将一个预训练语言模型(LM),该模型在生成自然句子方面具有很强的能力,集成到E2E SSum解码器中。 此外,为了缩小独立预训练编码器和解码器之间的差距,我们还提出转移基线E2E SSum编码器,而不是通常使用的自动语音识别编码器。 实验结果表明,所提出的模型优于基线模型和数据增强模型。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.