Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2508.00590

帮助 | 高级搜索

计算机科学 > 计算机视觉与模式识别

arXiv:2508.00590 (cs)
[提交于 2025年8月1日 ]

标题: 一种扩展VIIRS类似人工夜间灯光图像重建的新型建模框架和数据产品(1986-2024)

标题: A Novel Modeling Framework and Data Product for Extended VIIRS-like Artificial Nighttime Light Image Reconstruction (1986-2024)

Authors:Yihe Tian, Kwan Man Cheng, Zhengbo Zhang, Tao Zhang, Suju Li, Dongmei Yan, Bing Xu
摘要: 人工夜间灯光(NTL)遥感是量化人类活动强度和空间分布的重要代理。 尽管NPP-VIIRS传感器提供了高质量的NTL观测数据,但其时间覆盖范围始于2012年,限制了延伸到更早时期的长期时间序列研究。 尽管在扩展VIIRS类似NTL时间序列方面取得了进展,但当前方法仍然存在两个显著缺点:光强低估和结构遗漏。 为了克服这些限制,我们提出了一种新颖的重建框架,包括两个阶段的过程:构建和优化。 构建阶段的特点是一个层次融合解码器(HFD),旨在增强初始重建的真实性。 优化阶段采用双特征优化器(DFR),利用高分辨率不透水面掩膜来引导和增强细粒度的结构细节。 基于此框架,我们开发了扩展的VIIRS类似人工夜间灯光(EVAL)产品,将标准数据记录向后延长了26年,从1986年开始。 定量评估显示,EVAL显著优于现有的最先进产品,将$\text{R}^2$从0.68提高到0.80,同时将RMSE从1.27降低到0.99。 此外,EVAL表现出良好的时间一致性,并与社会经济参数保持高度相关性,证实了其在长期分析中的可靠性。 由此产生的EVAL数据集为研究社区提供了一个有价值的新的资源,并可在https://doi.org/10.11888/HumanNat.tpdc.302930公开获取。
摘要: Artificial Night-Time Light (NTL) remote sensing is a vital proxy for quantifying the intensity and spatial distribution of human activities. Although the NPP-VIIRS sensor provides high-quality NTL observations, its temporal coverage, which begins in 2012, restricts long-term time-series studies that extend to earlier periods. Despite the progress in extending VIIRS-like NTL time-series, current methods still suffer from two significant shortcomings: the underestimation of light intensity and the structural omission. To overcome these limitations, we propose a novel reconstruction framework consisting of a two-stage process: construction and refinement. The construction stage features a Hierarchical Fusion Decoder (HFD) designed to enhance the fidelity of the initial reconstruction. The refinement stage employs a Dual Feature Refiner (DFR), which leverages high-resolution impervious surface masks to guide and enhance fine-grained structural details. Based on this framework, we developed the Extended VIIRS-like Artificial Nighttime Light (EVAL) product for China, extending the standard data record backwards by 26 years to begin in 1986. Quantitative evaluation shows that EVAL significantly outperforms existing state-of-the-art products, boosting the $\text{R}^2$ from 0.68 to 0.80 while lowering the RMSE from 1.27 to 0.99. Furthermore, EVAL exhibits excellent temporal consistency and maintains a high correlation with socioeconomic parameters, confirming its reliability for long-term analysis. The resulting EVAL dataset provides a valuable new resource for the research community and is publicly available at https://doi.org/10.11888/HumanNat.tpdc.302930.
主题: 计算机视觉与模式识别 (cs.CV) ; 图像与视频处理 (eess.IV)
引用方式: arXiv:2508.00590 [cs.CV]
  (或者 arXiv:2508.00590v1 [cs.CV] 对于此版本)
  https://doi.org/10.48550/arXiv.2508.00590
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Zhengbo Zhang [查看电子邮件]
[v1] 星期五, 2025 年 8 月 1 日 12:44:55 UTC (48,228 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
许可图标 查看许可
当前浏览上下文:
cs.CV
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-08
切换浏览方式为:
cs
eess
eess.IV

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号