计算机科学 > 机器学习
            [提交于 2025年10月26日
            
            
            
            ]
          
          标题: 信息力学理论:通过不确定性测量进行泛化(学习即测量)
标题: A Theory of the Mechanics of Information: Generalization Through Measurement of Uncertainty (Learning is Measuring)
摘要: 传统机器学习依赖于显式模型和领域假设,限制了灵活性和可解释性。 我们引入了一个无模型的框架,使用意外性(信息论中的不确定性)直接分析和从原始数据中进行推理,消除了分布建模,减少了偏差,并实现了高效的更新,包括对训练数据的直接编辑和删除。 通过量化不确定性来衡量相关性,该方法能够在各种任务中实现可推广的推理,包括生成推理、因果发现、异常检测和时间序列预测。 它强调可追溯性、可解释性和数据驱动的决策,为机器学习提供了一个统一且人类可理解的框架,并在大多数常见的机器学习任务中达到了或接近最先进的性能。 数学基础创造了一种“信息物理学”,使这些技术能够有效地应用于各种复杂的数据类型,包括缺失数据。 实证结果表明,这可能是在可扩展机器学习和人工智能方面的一种可行替代路径,能够保持对底层机制的人类可理解性。
文献和引用工具
与本文相关的代码,数据和媒体
            alphaXiv (什么是 alphaXiv?)
          
        
            CatalyzeX 代码查找器 (什么是 CatalyzeX?)
          
        
            DagsHub (什么是 DagsHub?)
          
        
            Gotit.pub (什么是 GotitPub?)
          
        
            Hugging Face (什么是 Huggingface?)
          
        
            带有代码的论文 (什么是带有代码的论文?)
          
        
            ScienceCast (什么是 ScienceCast?)
          
        演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.
 
               
  