计算机科学 > 机器人技术
[提交于 2025年8月26日
(v1)
,最后修订 2025年9月7日 (此版本, v2)]
标题: QuadKAN:通过端到端强化学习增强KAN的四足运动控制
标题: QuadKAN: KAN-Enhanced Quadruped Motion Control via End-to-End Reinforcement Learning
摘要: 我们通过强化学习(RL)解决视觉引导的四足运动控制问题,并强调将本体感觉与视觉结合对于鲁棒控制的必要性。 我们提出了QuadKAN,一种用Kolmogorov-Arnold网络(KANs)实例化的样条参数化跨模态策略。 该框架包含一个用于本体感觉的样条编码器和一个用于本体感觉-视觉输入的样条融合头。 这种结构化的函数类将状态到动作的映射与步态的分段光滑特性对齐,提高了样本效率,减少了动作抖动和能耗,并提供了可解释的姿态-动作敏感性。 我们采用多模态延迟随机化(MMDR),并通过近端策略优化(PPO)进行端到端训练。 在包括平坦和不平坦表面以及静态或动态障碍物场景在内的多种地形上的评估表明,QuadKAN在回报、距离和碰撞次数方面均优于最先进的(SOTA)基线方法。 这些结果表明,样条参数化策略为鲁棒的视觉引导运动提供了一种简单、有效且可解释的替代方案。 在被接受后将提供一个代码库。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.