定量生物学 > 定量方法
            [提交于 2025年10月3日
             (此版本)
            
            
            
              , 最新版本 2025年10月10日 (v2)
            ]
          
          标题: InstructPLM-mu:ESM2在蛋白质突变预测中胜过ESM3的1小时微调
标题: InstructPLM-mu: 1-Hour Fine-Tuning of ESM2 Beats ESM3 in Protein Mutation Predictions
摘要: 多模态蛋白质语言模型在突变效应预测上表现强劲,但从头开始训练此类模型需要大量的计算资源。 在本文中,我们提出了一种称为InstructPLM-mu的微调框架,并尝试回答一个问题:\textit{多模态微调预训练的仅序列蛋白质语言模型能否达到端到端训练模型的性能?}令人惊讶的是,我们的实验表明,使用结构输入对ESM2进行微调可以达到与ESM3相当的性能。 为了理解这是如何实现的,我们系统地比较了三种不同的特征融合设计和微调方案。 我们的结果表明,融合方法和调优策略都会显著影响最终准确性,这表明微调过程并不简单。 我们希望这项工作能为将结构注入预训练蛋白质语言模型提供实际指导,并激发对更好融合机制和微调协议的进一步研究。
文献和引用工具
与本文相关的代码,数据和媒体
            alphaXiv (什么是 alphaXiv?)
          
        
            CatalyzeX 代码查找器 (什么是 CatalyzeX?)
          
        
            DagsHub (什么是 DagsHub?)
          
        
            Gotit.pub (什么是 GotitPub?)
          
        
            Hugging Face (什么是 Huggingface?)
          
        
            带有代码的论文 (什么是带有代码的论文?)
          
        
            ScienceCast (什么是 ScienceCast?)
          
        演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.
 
               
  