计算机科学 > 计算机视觉与模式识别
[提交于 2026年1月8日
]
标题: ObjectForesight:从人类视频中预测未来3D物体轨迹
标题: ObjectForesight: Predicting Future 3D Object Trajectories from Human Videos
摘要: 人类可以轻松地预测通过交互物体可能的运动或变化——想象一个杯子被提起,一把刀切开,或者一个盖子被关闭。 我们旨在赋予计算系统一种类似的能力,直接从被动的视觉观察中预测合理的未来物体运动。 我们引入了ObjectForesight,这是一个3D物体中心的动力学模型,可以从短时自我视角视频序列中预测刚性物体的未来6-DoF位姿和轨迹。 与传统的在像素或潜在空间中运行的世界或动力学模型不同,ObjectForesight在物体层面以显式3D方式表示世界,从而实现具有几何基础且时间连贯的预测,捕捉物体的可用性和轨迹。 为了大规模训练这样的模型,我们利用分割、网格重建和3D位姿估计方面的最新进展,整理了一个包含200多万个短片段的数据集,带有伪真实3D物体轨迹。 通过大量实验,我们展示了ObjectForesight在准确性、几何一致性以及对未见过的物体和场景的泛化能力方面取得了显著提升,建立了一个可扩展的框架,可以直接从观察中学习物理上合理的、物体中心的动力学模型。 objectforesight.github.io
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.