Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2508.12637

帮助 | 高级搜索

计算机科学 > 硬件架构

arXiv:2508.12637 (cs)
[提交于 2025年8月18日 ]

标题: HOMI:事件相机的超快速边缘AI平台

标题: HOMI: Ultra-Fast EdgeAI platform for Event Cameras

Authors:Shankaranarayanan H, Satyapreet Singh Yadav, Adithya Krishna, Ajay Vikram P, Mahesh Mehendale, Chetan Singh Thakur
摘要: 事件相机由于其异步操作和稀疏的事件驱动输出,为边缘机器人应用提供了显著优势,使其非常适合需要快速和高效闭环控制的任务,例如基于手势的人机交互。 尽管具有这种潜力,现有的事件处理解决方案仍然有限,通常缺乏完整的端到端实现,表现出高延迟,并且未能充分利用事件数据的稀疏性。 在本文中,我们提出了HOMI,这是一个超低延迟的端到端边缘AI平台,包括一个Prophesee IMX636事件传感器芯片和一个Xilinx Zynq UltraScale+MPSoC FPGA芯片,部署了一个自主研发的AI加速器。 我们开发了硬件优化的预处理管道,支持直方图累积的恒定时间和恒定事件模式,以及线性和指数时间表面。 我们的通用实现适用于以准确性为导向和低延迟的应用。 当配置为高精度操作时,HOMI在DVS Gesture数据集上实现了94%的准确率,并且在低延迟配置下提供了1000 fps的吞吐量。 硬件优化的管道保持了紧凑的内存占用,并且仅使用了FPGA上可用LUT资源的33%,为进一步降低延迟、模型并行化、多任务部署或集成更复杂架构留下了充足的空间。
摘要: Event cameras offer significant advantages for edge robotics applications due to their asynchronous operation and sparse, event-driven output, making them well-suited for tasks requiring fast and efficient closed-loop control, such as gesture-based human-robot interaction. Despite this potential, existing event processing solutions remain limited, often lacking complete end-to-end implementations, exhibiting high latency, and insufficiently exploiting event data sparsity. In this paper, we present HOMI, an ultra-low latency, end-to-end edge AI platform comprising a Prophesee IMX636 event sensor chip with an Xilinx Zynq UltraScale+MPSoC FPGA chip, deploying an in-house developed AI accelerator. We have developed hardware-optimized pre-processing pipelines supporting both constant-time and constant-event modes for histogram accumulation, linear and exponential time surfaces. Our general-purpose implementation caters to both accuracy-driven and low-latency applications. HOMI achieves 94% accuracy on the DVS Gesture dataset as a use case when configured for high accuracy operation and provides a throughput of 1000 fps for low-latency configuration. The hardware-optimised pipeline maintains a compact memory footprint and utilises only 33% of the available LUT resources on the FPGA, leaving ample headroom for further latency reduction, model parallelisation, multi-task deployments, or integration of more complex architectures.
主题: 硬件架构 (cs.AR) ; 计算机视觉与模式识别 (cs.CV); 新兴技术 (cs.ET); 神经与进化计算 (cs.NE)
引用方式: arXiv:2508.12637 [cs.AR]
  (或者 arXiv:2508.12637v1 [cs.AR] 对于此版本)
  https://doi.org/10.48550/arXiv.2508.12637
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Shankaranarayanan Hariharasunder [查看电子邮件]
[v1] 星期一, 2025 年 8 月 18 日 05:47:48 UTC (834 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
查看许可
当前浏览上下文:
cs.AR
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-08
切换浏览方式为:
cs
cs.CV
cs.ET
cs.NE

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号