计算机科学 > 机器学习
[提交于 2025年8月20日
]
标题: 超越ReLU:切比雪夫-DQN以增强深度Q网络
标题: Beyond ReLU: Chebyshev-DQN for Enhanced Deep Q-Networks
摘要: 深度Q网络(DQN)的性能在很大程度上依赖于其底层神经网络准确近似动作价值函数的能力。 标准的函数逼近器,如多层感知机,可能难以高效地表示许多强化学习问题中固有的复杂价值景观。 本文介绍了一种新架构,即切比雪夫-DQN(Ch-DQN),它将切比雪夫多项式基整合到DQN框架中,以创建更有效的特征表示。 通过利用切比雪夫多项式的强大函数逼近特性,我们假设Ch-DQN可以更高效地学习并实现更高的性能。 我们在CartPole-v1基准测试中评估了我们提出的模型,并将其与参数数量相当的标准DQN进行比较。 我们的结果表明,具有适度多项式次数(N=4)的Ch-DQN实现了显著更好的渐近性能,比基线高出约39%。 然而,我们也发现多项式次数的选择是一个关键的超参数,因为高次数(N=8)可能会对学习产生不利影响。 这项工作验证了在深度强化学习中使用正交多项式基的潜力,同时突出了模型复杂性所涉及的权衡。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.