计算机科学 > 计算与语言
[提交于 2026年1月8日
]
标题: LELA:一种基于大语言模型的实体链接方法,具有零样本领域适应能力
标题: LELA: an LLM-based Entity Linking Approach with Zero-Shot Domain Adaptation
摘要: 实体链接(将文本中模糊的提及映射到知识库中的实体)是知识图谱构建、问答和信息提取等任务中的基础步骤。 我们的方法LELA是一种模块化的从粗到细的方法,利用了大语言模型(LLMs)的能力,并且可以在不同的目标领域、知识库和LLMs上工作,而无需任何微调阶段。 我们在各种实体链接设置中的实验表明,LELA与微调方法非常具有竞争力,并且显著优于非微调方法。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.