Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > eess > arXiv:2508.07453

帮助 | 高级搜索

电气工程与系统科学 > 系统与控制

arXiv:2508.07453 (eess)
[提交于 2025年8月10日 ]

标题: 噪声感知的生成微观交通仿真

标题: Noise-Aware Generative Microscopic Traffic Simulation

Authors:Vindula Jayawardana, Catherine Tang, Junyi Ji, Jonah Philion, Xue Bin Peng, Cathy Wu
摘要: 在微观交通仿真中准确建模个体车辆行为仍然是智能交通系统中的一个关键挑战,因为它要求车辆能够真实地生成和响应复杂的交通现象,如幽灵交通拥堵。 虽然传统的驾驶员模拟模型提供了计算上的可行性,但这是通过抽象掉定义人类驾驶的复杂性来实现的。 另一方面,基于安装在基础设施上的摄像头的道路感知技术的最新进展,使得可以提取车辆轨迹数据,这为转向生成式、基于代理的模型提供了机会。 然而,一个主要的瓶颈仍然存在:大多数现有数据集要么过于干净,要么缺乏标准化,无法反映现实世界感知的噪声和不完美特性。 与车载传感器的数据不同——车载传感器可以通过重叠的视野和传感器融合来减轻遮挡等感知伪影——基于基础设施的传感器呈现出更混乱、更实际的视角,反映了交通工程师遇到的挑战。 为此,我们提出了I-24 MOTION场景数据集(I24-MSD)——一个标准化的、经过筛选的数据集,旨在保留一定程度的传感器不完美性,将这些错误视为学习问题的一部分,而不是仅仅通过预处理来克服的障碍。 借鉴计算机视觉中的噪声感知学习策略,我们进一步调整了自动驾驶社区中现有的生成模型,以适应I24-MSD,并使用噪声感知损失函数。 我们的结果表明,这些模型不仅在现实性方面优于传统基线,而且通过明确参与而非抑制数据不完美性而受益。 我们认为I24-MSD是迈向新一代微观交通仿真的一块基石,它接受现实世界的挑战,并更好地与实际需求对齐。
摘要: Accurately modeling individual vehicle behavior in microscopic traffic simulation remains a key challenge in intelligent transportation systems, as it requires vehicles to realistically generate and respond to complex traffic phenomena such as phantom traffic jams. While traditional human driver simulation models offer computational tractability, they do so by abstracting away the very complexity that defines human driving. On the other hand, recent advances in infrastructure-mounted camera-based roadway sensing have enabled the extraction of vehicle trajectory data, presenting an opportunity to shift toward generative, agent-based models. Yet, a major bottleneck remains: most existing datasets are either overly sanitized or lack standardization, failing to reflect the noisy, imperfect nature of real-world sensing. Unlike data from vehicle-mounted sensors-which can mitigate sensing artifacts like occlusion through overlapping fields of view and sensor fusion-infrastructure-based sensors surface a messier, more practical view of challenges that traffic engineers encounter. To this end, we present the I-24 MOTION Scenario Dataset (I24-MSD)-a standardized, curated dataset designed to preserve a realistic level of sensor imperfection, embracing these errors as part of the learning problem rather than an obstacle to overcome purely from preprocessing. Drawing from noise-aware learning strategies in computer vision, we further adapt existing generative models in the autonomous driving community for I24-MSD with noise-aware loss functions. Our results show that such models not only outperform traditional baselines in realism but also benefit from explicitly engaging with, rather than suppressing, data imperfection. We view I24-MSD as a stepping stone toward a new generation of microscopic traffic simulation that embraces the real-world challenges and is better aligned with practical needs.
主题: 系统与控制 (eess.SY) ; 人工智能 (cs.AI); 多智能体系统 (cs.MA); 机器人技术 (cs.RO)
引用方式: arXiv:2508.07453 [eess.SY]
  (或者 arXiv:2508.07453v1 [eess.SY] 对于此版本)
  https://doi.org/10.48550/arXiv.2508.07453
通过 DataCite 发表的 arXiv DOI(待注册)

提交历史

来自: Vindula Jayawardana [查看电子邮件]
[v1] 星期日, 2025 年 8 月 10 日 18:41:49 UTC (6,677 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
eess.SY
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-08
切换浏览方式为:
cs
cs.AI
cs.MA
cs.RO
cs.SY
eess

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号