Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2508.17397

帮助 | 高级搜索

计算机科学 > 计算机视觉与模式识别

arXiv:2508.17397 (cs)
[提交于 2025年8月24日 (v1) ,最后修订 2025年8月26日 (此版本, v2)]

标题: 通过深度学习增强水下图像:基于VGG19和ResNet50的方法比较研究

标题: Enhancing Underwater Images via Deep Learning: A Comparative Study of VGG19 and ResNet50-Based Approaches

Authors:Aoqi Li, Yanghui Song, Jichao Dao, Chengfu Yang
摘要: 本文针对复杂水下场景中的图像增强这一具有挑战性的问题,提出了一种基于深度学习的解决方案。所提出的方法巧妙地整合了两个深度卷积神经网络模型,VGG19 和 ResNet50,利用它们强大的特征提取能力对水下图像进行多尺度和多层级的深度特征分析。通过构建一个统一的模型,有效整合了两种模型的互补优势,实现了更全面和准确的图像增强效果。为了客观评估增强效果,本文引入了图像质量评估指标如 PSNR、UCIQE 和 UIQM,对增强前后的图像进行定量比较,并深入分析了不同模型在不同场景下的性能。此外,为了提高水下视觉增强系统的实用性和稳定性,本文还从模型优化、多模型融合和硬件选择等方面提出了实用建议,旨在为复杂水下环境中的视觉增强任务提供强有力的技术支持。
摘要: This paper addresses the challenging problem of image enhancement in complex underwater scenes by proposing a solution based on deep learning. The proposed method skillfully integrates two deep convolutional neural network models, VGG19 and ResNet50, leveraging their powerful feature extraction capabilities to perform multi-scale and multi-level deep feature analysis of underwater images. By constructing a unified model, the complementary advantages of the two models are effectively integrated, achieving a more comprehensive and accurate image enhancement effect.To objectively evaluate the enhancement effect, this paper introduces image quality assessment metrics such as PSNR, UCIQE, and UIQM to quantitatively compare images before and after enhancement and deeply analyzes the performance of different models in different scenarios.Furthermore, to improve the practicality and stability of the underwater visual enhancement system, this paper also provides practical suggestions from aspects such as model optimization, multi-model fusion, and hardware selection, aiming to provide strong technical support for visual enhancement tasks in complex underwater environments.
评论: 7页,6图,2025年IEEE第三届图像处理与计算机应用国际会议(ICIPCA 2025)
主题: 计算机视觉与模式识别 (cs.CV) ; 图像与视频处理 (eess.IV)
引用方式: arXiv:2508.17397 [cs.CV]
  (或者 arXiv:2508.17397v2 [cs.CV] 对于此版本)
  https://doi.org/10.48550/arXiv.2508.17397
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Yanghui Song [查看电子邮件]
[v1] 星期日, 2025 年 8 月 24 日 15:10:44 UTC (930 KB)
[v2] 星期二, 2025 年 8 月 26 日 10:00:03 UTC (930 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
许可图标 查看许可
当前浏览上下文:
cs.CV
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-08
切换浏览方式为:
cs
eess
eess.IV

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号