Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2508.00917

帮助 | 高级搜索

计算机科学 > 机器人技术

arXiv:2508.00917 (cs)
[提交于 2025年7月29日 ]

标题: 连接自动驾驶车辆中的深度多任务学习综述

标题: A Survey on Deep Multi-Task Learning in Connected Autonomous Vehicles

Authors:Jiayuan Wang, Farhad Pourpanah, Q. M. Jonathan Wu, Ning Zhang
摘要: 联网自动驾驶车辆(CAVs)必须同时执行多个任务,例如目标检测、语义分割、深度估计、轨迹预测、运动预测和行为预测,以确保在复杂环境中的安全可靠导航。 车对一切(V2X)通信使得CAVs之间能够进行协作驾驶,从而缓解单个传感器的局限性,减少遮挡,并提高远距离的感知能力。 传统上,这些任务是通过不同的模型来处理的,这导致了高部署成本、计算开销增加以及实现实时性能的挑战。 多任务学习(MTL)最近作为一种有前景的解决方案出现,它能够在单一统一模型中实现多个任务的联合学习。 这提供了更高的效率和资源利用率。 据我们所知,本次综述是首个专注于CAVs背景下MTL的全面回顾。 我们首先对CAVs和MTL进行概述,以提供基础背景。 然后,我们探讨MTL在关键功能模块中的应用,包括感知、预测、规划、控制和多智能体协作。 最后,我们讨论现有方法的优点和局限性,识别关键的研究空白,并为未来研究提供方向,以推动CAVs系统中MTL方法的发展。
摘要: Connected autonomous vehicles (CAVs) must simultaneously perform multiple tasks, such as object detection, semantic segmentation, depth estimation, trajectory prediction, motion prediction, and behaviour prediction, to ensure safe and reliable navigation in complex environments. Vehicle-to-everything (V2X) communication enables cooperative driving among CAVs, thereby mitigating the limitations of individual sensors, reducing occlusions, and improving perception over long distances. Traditionally, these tasks are addressed using distinct models, which leads to high deployment costs, increased computational overhead, and challenges in achieving real-time performance. Multi-task learning (MTL) has recently emerged as a promising solution that enables the joint learning of multiple tasks within a single unified model. This offers improved efficiency and resource utilization. To the best of our knowledge, this survey is the first comprehensive review focused on MTL in the context of CAVs. We begin with an overview of CAVs and MTL to provide foundational background. We then explore the application of MTL across key functional modules, including perception, prediction, planning, control, and multi-agent collaboration. Finally, we discuss the strengths and limitations of existing methods, identify key research gaps, and provide directions for future research aimed at advancing MTL methodologies for CAV systems.
评论: 重要:仅给出翻译结果,不要在输出中夹杂任何解释说明或注释。
主题: 机器人技术 (cs.RO) ; 计算机视觉与模式识别 (cs.CV); 机器学习 (cs.LG)
引用方式: arXiv:2508.00917 [cs.RO]
  (或者 arXiv:2508.00917v1 [cs.RO] 对于此版本)
  https://doi.org/10.48550/arXiv.2508.00917
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Jiayuan Wang [查看电子邮件]
[v1] 星期二, 2025 年 7 月 29 日 22:17:28 UTC (17,256 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
cs.CV
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-08
切换浏览方式为:
cs
cs.LG
cs.RO

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号