Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > math > arXiv:2510.22458v1

帮助 | 高级搜索

数学 > 优化与控制

arXiv:2510.22458v1 (math)
[提交于 2025年10月25日 ]

标题: 无导数顺序二次规划用于等式约束随机优化

标题: Derivative-Free Sequential Quadratic Programming for Equality-Constrained Stochastic Optimization

Authors:Sen Na
摘要: 我们考虑解决具有随机目标函数和确定性等式约束的非线性优化问题,假设对于目标函数和约束条件仅能获得零阶信息,并且目标函数还受到随机采样噪声的影响。 在这一设定下,我们提出了一种无导数随机顺序二次规划(DF-SSQP)方法。 由于缺乏导数信息,我们采用同时扰动随机逼近(SPSA)技术来随机估计目标函数和约束条件的梯度和海森矩阵。 这种方法在每次迭代步骤中只需要一个与维度无关的零阶评估数量——最少为八个。 我们无导数方法与现有基于导数的SSQP方法之间的一个关键区别在于,由随机零阶近似引入的复杂随机偏差,该偏差出现在目标函数和约束条件的梯度和海森矩阵估计中。 为了解决这个问题,我们引入了一种基于动量风格估计器的在线去偏技术,该技术适当聚合过去的梯度和海森矩阵估计以减少随机噪声,同时通过移动平均方案避免过高的内存成本。 在标准假设下,我们建立了所提出的DF-SSQP方法的全局几乎必然收敛性。 值得注意的是,我们进一步通过证明重新缩放的迭代点表现出渐近正态性,其极限协方差矩阵类似于基于导数的方法实现的最小最大最优协方差矩阵,尽管由于缺乏导数信息而更大,从而补充了全局分析。 我们的局部分析使得可以利用DF-SSQP进行模型参数的在线统计推断。 在基准非线性问题上的数值实验展示了DF-SSQP的全局和局部行为。
摘要: We consider solving nonlinear optimization problems with a stochastic objective and deterministic equality constraints, assuming that only zero-order information is available for both the objective and constraints, and that the objective is also subject to random sampling noise. Under this setting, we propose a Derivative-Free Stochastic Sequential Quadratic Programming (DF-SSQP) method. Due to the lack of derivative information, we adopt a simultaneous perturbation stochastic approximation (SPSA) technique to randomly estimate the gradients and Hessians of both the objective and constraints. This approach requires only a dimension-independent number of zero-order evaluations -- as few as eight -- at each iteration step. A key distinction between our derivative-free and existing derivative-based SSQP methods lies in the intricate random bias introduced into the gradient and Hessian estimates of the objective and constraints, brought by stochastic zero-order approximations. To address this issue, we introduce an online debiasing technique based on momentum-style estimators that properly aggregate past gradient and Hessian estimates to reduce stochastic noise, while avoiding excessive memory costs via a moving averaging scheme. Under standard assumptions, we establish the global almost-sure convergence of the proposed DF-SSQP method. Notably, we further complement the global analysis with local convergence guarantees by demonstrating that the rescaled iterates exhibit asymptotic normality, with a limiting covariance matrix resembling the minimax optimal covariance achieved by derivative-based methods, albeit larger due to the absence of derivative information. Our local analysis enables online statistical inference of model parameters leveraging DF-SSQP. Numerical experiments on benchmark nonlinear problems demonstrate both the global and local behavior of DF-SSQP.
评论: 59页
主题: 优化与控制 (math.OC) ; 数值分析 (math.NA); 统计理论 (math.ST); 计算 (stat.CO); 机器学习 (stat.ML)
引用方式: arXiv:2510.22458 [math.OC]
  (或者 arXiv:2510.22458v1 [math.OC] 对于此版本)
  https://doi.org/10.48550/arXiv.2510.22458
通过 DataCite 发表的 arXiv DOI(待注册)

提交历史

来自: Sen Na [查看电子邮件]
[v1] 星期六, 2025 年 10 月 25 日 23:51:20 UTC (176 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
许可图标 查看许可
当前浏览上下文:
math.OC
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-10
切换浏览方式为:
cs
cs.NA
math
math.NA
math.ST
stat
stat.CO
stat.ML
stat.TH

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号