计算机科学 > 密码学与安全
[提交于 2024年7月1日
]
标题: 大型语言模型的指纹
标题: A Fingerprint for Large Language Models
摘要: 近期进展表明,通过扩展预训练语言模型可以在许多下游任务上实现最先进的性能,促使大型语言模型(LLMs)成为人工智能领域的热门研究课题。然而,由于从头开始训练LLMs的资源密集型特性,保护LLMs的知识产权免受侵权变得紧迫且至关重要。 这激励了本文作者提出了一种针对LLMs的新颖黑盒指纹技术,该技术无需模型训练或微调。 我们首先证明LLMs的输出会形成一个独特的向量空间,与每个模型相关联。 我们将所有权认证问题建模为评估受害者模型空间与嫌疑模型输出空间之间相似性的任务。 为了解决这个问题,我们提出了两种解决方案,其中第一种方案涉及验证嫌疑大型模型的输出是否与受害者模型的输出处于相同的向量空间内,从而实现快速识别模型侵权行为;第二种方案则重构了LLMs输出和受害者模型的向量空间的联合,以应对受害者模型可能遭受的参数高效微调(PEFT)攻击。 实验结果表明,所提出的这项技术在所有权验证和对抗PEFT攻击方面表现出色。 这项工作揭示了LLMs的固有特性,并为黑盒场景下LLMs的所有权验证提供了一个有前景的解决方案,确保了效率、通用性和实用性。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.