Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2508.09161

帮助 | 高级搜索

计算机科学 > 机器学习

arXiv:2508.09161 (cs)
[提交于 2025年8月5日 ]

标题: 基于物理引导的记忆网络用于建筑能耗建模

标题: Physics-Guided Memory Network for Building Energy Modeling

Authors:Muhammad Umair Danish, Kashif Ali, Kamran Siddiqui, Katarina Grolinger
摘要: 准确的能耗预测对于建筑行业的高效资源管理和可持续性至关重要。 深度学习模型非常成功,但在历史数据有限时表现不佳,并且在没有历史数据的情况下变得不可用,例如在新建的建筑物中。 另一方面,基于物理的模型,如EnergyPlus,可以在不依赖历史数据的情况下模拟能耗,但需要大量的建筑参数说明,并且建模一个建筑需要大量时间。 本文介绍了一种物理引导记忆网络(PgMN),这是一种将深度学习和基于物理的模型预测整合的神经网络,以解决它们的局限性。 PgMN包括并行投影层来处理不完整的输入,记忆单元来考虑持续的偏差,以及记忆经验模块,以最优地扩展预测超出其输入范围并产生输出。 理论评估表明,PgMN的组件在数学上是有效的,可以执行各自的任务。 PgMN在小时级的短期能耗预测中进行了评估,这对智能电网和智能建筑系统的操作决策至关重要。 实验验证显示了PgMN在各种场景中的准确性和适用性,例如新建建筑、缺失数据、稀疏历史数据和动态基础设施变化。 本文为动态建筑环境中的能耗预测提供了一个有前景的解决方案,在历史数据有限或不可用的情况下,或者当基于物理的模型不足时,增强了模型的适用性。
摘要: Accurate energy consumption forecasting is essential for efficient resource management and sustainability in the building sector. Deep learning models are highly successful but struggle with limited historical data and become unusable when historical data are unavailable, such as in newly constructed buildings. On the other hand, physics-based models, such as EnergyPlus, simulate energy consumption without relying on historical data but require extensive building parameter specifications and considerable time to model a building. This paper introduces a Physics-Guided Memory Network (PgMN), a neural network that integrates predictions from deep learning and physics-based models to address their limitations. PgMN comprises a Parallel Projection Layers to process incomplete inputs, a Memory Unit to account for persistent biases, and a Memory Experience Module to optimally extend forecasts beyond their input range and produce output. Theoretical evaluation shows that components of PgMN are mathematically valid for performing their respective tasks. The PgMN was evaluated on short-term energy forecasting at an hourly resolution, critical for operational decision-making in smart grid and smart building systems. Experimental validation shows accuracy and applicability of PgMN in diverse scenarios such as newly constructed buildings, missing data, sparse historical data, and dynamic infrastructure changes. This paper provides a promising solution for energy consumption forecasting in dynamic building environments, enhancing model applicability in scenarios where historical data are limited or unavailable or when physics-based models are inadequate.
评论: 已发表版本。12页,6图。在CC BY-NC-ND 4.0许可下开放获取。出版商:Elsevier。期刊:Energy and AI
主题: 机器学习 (cs.LG) ; 人工智能 (cs.AI)
引用方式: arXiv:2508.09161 [cs.LG]
  (或者 arXiv:2508.09161v1 [cs.LG] 对于此版本)
  https://doi.org/10.48550/arXiv.2508.09161
通过 DataCite 发表的 arXiv DOI
期刊参考: Energy and AI, Volume 15, 2025, 100538
相关 DOI: https://doi.org/10.1016/j.egyai.2025.100538
链接到相关资源的 DOI

提交历史

来自: Muhammad Umair Danish [查看电子邮件]
[v1] 星期二, 2025 年 8 月 5 日 15:16:19 UTC (2,802 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • 其他格式
许可图标 查看许可
当前浏览上下文:
cs.LG
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-08
切换浏览方式为:
cs
cs.AI

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号