计算机科学 > 机器学习
[提交于 2023年8月31日
(v1)
,最后修订 2023年10月25日 (此版本, v2)]
标题: RePo:通过正则化后验可预测性实现的弹性基于模型的强化学习
标题: RePo: Resilient Model-Based Reinforcement Learning by Regularizing Posterior Predictability
摘要: 基于视觉模型的强化学习方法通常以不消除冗余信息的方式将图像观测编码为低维表示。这使得它们容易受到虚假变化的影响——任务无关组件的变化,例如背景干扰或光照条件的变化。在本文中,我们提出了一种基于视觉模型的强化学习方法,该方法学习一种对这种虚假变化具有鲁棒性的潜在表示。我们的训练目标鼓励表示尽可能预测动态和奖励,同时限制从观测到潜在表示的信息流。我们证明,这个目标显著增强了基于视觉模型的强化学习方法对视觉干扰的鲁棒性,使其能够在动态环境中运行。然后我们表明,虽然学习到的编码器对虚假变化具有鲁棒性,但在显著分布偏移下并不具有不变性。为了解决这个问题,我们提出了一种简单的无奖励对齐过程,使编码器能够在测试时进行适应。这允许在不需要重新学习动态和策略的情况下快速适应广泛不同的环境。我们的工作是使基于模型的强化学习成为动态、多样化领域实用且有用的工具迈出的一步。我们在具有显著虚假变化的仿真基准以及具有背景噪声电视的真实世界自我中心导航任务中展示了其有效性。视频和代码见https://zchuning.github.io/repo-website/。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.