计算机科学 > 机器学习
[提交于 2023年8月31日
(此版本)
, 最新版本 2023年10月25日 (v2)
]
标题: RePo:通过正则化后验可预测性实现的弹性基于模型的强化学习
标题: RePo: Resilient Model-Based Reinforcement Learning by Regularizing Posterior Predictability
摘要: 视觉模型基础的强化学习方法通常以不消除冗余信息的方式将图像观测编码为低维表示。 这使它们容易受到虚假变化的影响——任务无关组件的变化,如背景干扰或光照条件。 在本文中,我们提出了一种视觉模型基础的强化学习方法,该方法学习一种对这种虚假变化具有鲁棒性的潜在表示。 我们的训练目标鼓励表示尽可能预测动态和奖励,同时限制从观测到潜在表示的信息流。 我们证明,这个目标显著增强了视觉模型基础强化学习方法对视觉干扰的鲁棒性,使其能够在动态环境中运行。 然后我们表明,虽然学习到的编码器对虚假变化具有鲁棒性,但在显著分布偏移下并不具有不变性。 为了解决这个问题,我们提出了一种简单的无奖励对齐过程,使编码器在测试时能够进行适应。 这允许在不重新学习动态和策略的情况下快速适应广泛不同的环境。 我们的工作是使基于模型的强化学习成为动态、多样化领域中实用工具的一个步骤。 我们在具有显著虚假变化的仿真基准以及一个带有背景噪声电视的真实世界自我中心导航任务中展示了其有效性。 视频和代码见https://zchuning.github.io/repo-website/。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.