Advances in Applied Mathematics
Vol.
12
No.
08
(
2023
), Article ID:
70967
,
14
pages
10.12677/AAM.2023.128363
非凸优化问题的两步正则化牛顿法
朱俊霖
长沙理工大学数学与统计学院,湖南 长沙
收稿日期:2023年7月21日;录用日期:2023年8月13日;发布日期:2023年8月21日

摘要
本文提出了非凸的无约束优化问题的一种在信赖域框架下的两步正则化牛顿算法,其在适当条件下证明了该方法具有局部收敛性。在局部误差界的条件下,该方法具有三阶收敛速度。此外我们还进行了数值实验,数值结果显示,与单步正则化牛顿法相比我们有更少的迭代次数更快的迭代速度,说明两步正则化牛顿法比后者更有效。
关键词
非凸优化,正则化牛顿法,局部误差界,信赖域

The Two-Step Regularized Newton Method for Non-Convex Optimization Problems
Junlin Zhu
School of Mathematics and Statistics, Changsha University of Science and Technology, Changsha Hunan
Received: Jul. 21st, 2023; accepted: Aug. 13th, 2023; published: Aug. 21st, 2023

ABSTRACT
In this paper, we propose a two-step regularized Newton algorithm for solving non-convex unconstrained optimization problems within the trust region framework. Under appropriate conditions, we prove that this method possesses local convergence. Under the condition of a local error bound, the method exhibits third-order convergence rate. Additionally, numerical experiments are conducted, and the results show that our two-step regularized Newton method outperforms the single-step regularized Newton method in terms of fewer iterations and faster convergence speed, indicating its higher efficiency.
Keywords:Non-Convex Optimization, Regularized Newton Method, Local Error Bound, Trust Region

Copyright © 2023 by author(s) and Hans Publishers Inc.
This work is licensed under the Creative Commons Attribution International License (CC BY 4.0).
http://creativecommons.org/licenses/by/4.0/

1. 引言
本文主要考虑如下的优化问题
(1)
其中
是二次连续的可微函数。牛顿法是求解问题(1)的经典算法之一,其具有如下的迭代格式:
其中
为一阶梯度,
为二阶海瑟矩阵。
牛顿法是求解问题(1)的经典方法,他的突出特点是:当初始点离最优解较近且目标函数在最优处的Hessian阵非奇异而且在最优解附近的Hessian矩阵满足Lipschitz条件时,经典牛顿法具有快速的二次收敛速度,收敛速度快是牛顿法的显著特点。但是当初始点的选择离最优点较远的时候,牛顿法可能不收敛,通常采取正则化来保证牛顿法的全局收敛性。此外,当Hessian矩阵奇异的时候,牛顿法无法使用。2001年Yamashita和Fukushima [1] 证明了当
在问题(1)的最优解
的领域内,在提供局部误差界的假设下,证明了求解非线性方程组的Levebverg-marquardt方法在比非奇异假设更弱的局部误差界的条件下仍然具有局部的二次收敛速度。因此,研究在比Hessian阵非奇异假设更弱的局部误差界条件下牛顿算法有着研究价值,本文将进一步研究求解非凸优化问题的两步正则化牛顿法。
对于奇异凸优化问题,2004年Li [2] 等人通过近似计算如下线性方程组得到搜索方向
:
其中
,Li等人证明了该算法在求解奇异凸优化问题时具有全局收敛性并且在局部误差界的条件下其仍具有二次收敛速度。
2009年Ueda和Yamashita,在文献 [3] 中对Levebverg-marquardt正则化进行了推广,当目标函数f是非凸函数的时候,使用Armijo步长规则,设
为第k个迭代点,将梯度
和二阶海瑟矩阵
,分别用
和
表示,令正则化参数
,其中,
,
为矩阵
的特征值,
为下降方向,
,并证明了该算法在适当的条件下有着全局收敛性,并且具有超线性收敛速度,并加以延申,当
是强凸的且
时该方法二阶收敛。
Homeier在文献 [4] [5] 里根据牛顿法提出了一种改进的牛顿法——两阶段牛顿法,算法如下:
用以解决具有F-可导的非线性方程
的近似解问题,其在特定的情况下有着全局收敛性以及局部收敛性,为我们提出两步牛顿法提供了理论支持。
Zhou和Chen在文献 [6] 中提出了一个基于凸函数无约束优化问题的两步正则化牛顿法,
该方法结合了正则化牛顿法与信赖域方法,通过证明该算法求解凸的无约束优化问题在具有全局收敛和局部误差界的条件下具有三次收敛速度。
根据上述研究,我们发现凸函数的收敛性讨论的较多,而非凸函数的讨论较少,而关于非凸函数的无约束优化问题的两步正则化牛顿算法国内外研究还是甚少,所以本文将对此进行研究并去证明他的有效性,具有全局收敛性且是具有三阶收敛速度的。
2. 非凸优化问题的两步正则化牛顿法
首先,f是
的非凸函数且二阶连续可微,将梯度
和二阶海瑟矩阵
,分别用
和
表示。用
表示2-范数。
该正则化牛顿法主要方案如下,在每次迭代中,求解如下方程:
(2)
得到牛顿步长
,其中
,
为合适的正则化参数,有:
为矩阵
的特征值。
再求解:
(3)
得到的近似的牛顿步长
。
设
和
由(2)和(3)给出,因为
正定,因此
是
在
处的下降方向,但
可能不是,下面我们来讨论其是否为下降方向。
我们定义实际减少为:
(4)
称为在第k次迭代时
的实际减少。
我们记牛顿步长
为下列问题的极小值,
(5)
令:
由 [7] 知,
也是如下最值问题的解:
(6)
根据 [7] ,得:
(7)
仿照
,根据相似的式子也定义了
,
为下列信赖域问题的解,
其中:
我们有,
(8)
我们定义预测减少为:
(9)
且:
(10)
根据定义
总是非负的,定义比率:
(11)
下面详细给出本论文的求解非凸无约束优化问题(1)的两步正则化牛顿法。
3. 收敛性分析
在本节中,我们主要研究该正则化牛顿法的全局收敛性,但由于f不是凸函数,由就算该正则化牛顿法全局收敛并不意味着该方法找到了全局最优解。并且在一定条件下有着超线性收敛性。
我们提出了如下的假设。
假设1:g(x)和H(x)都是lipschitz连续的,则有L > 0,有如下式子成立。
(12)
(13)
由lipschitz连续,我们有:
(14)
假设2:
1) 存在该问题的局部最优解
。
2)
在
的某个领域上提供了一个局部误差界,即存在两个正常数
和
,使得:
(15)
3) 海瑟矩阵H(x)是局部lipschitz连续的,即存在常数
和
,有:
(16)
(17)
由于f是两次连续可微的,因此存在正常数
:
(18)
(19)
在本文的后面部分,我们用
满足,
(20)
定理1:若假设1成立,如果f有界,根据AlgorithmI,我们有该算法终止于有限迭代或者满足
。
证明:采用反证法,假设定理为假,则存在一个整数
,对
有:
(21)
在不失一般性的条件下,我们能假设
,我们令
,我们有:
下面我们来考虑如下两种情况:
情况1:若T是无限的,我们能找到一个整数
,有:
通过上述算法的步4,我们有:
由步5和式(21)我们有:
因为
,对任意
都成立,得到:
从步3,我们得到,
得到
从(10)和(21)得到:
那么对于足够大的k,下式都成立,
这意味着
,因此,根据算法中的步5,那么有一个正数
有:
。
情况2:若T是有界的,那么有,
得:
(22)
由Step5可知,
与情况1类似,我们有
(23)
根据(23)我们有,
这意味着,
因为
,由(12) (14) (23),有:
有:
由(11)可知,
。同理有那么有一个正数
有:
。
根据这两个情况所得
均我们的假设相矛盾。定理得证。
根据定理1,我们可以得到AlgorithmI是全局收敛的,且若f是凸函数,定理1可以保证AlgorithmI产生的解集
收敛于全局最优解。但f是非凸函数,全局收敛并不能保证找到全局最优解,为了证明该算法的超线性收敛性,我们给出如下的引理。
引理1:若假设2成立,那么我们有
证明:因为
,我们有:
其中
下面我们考虑
,我们称
为
中第l大的特征值。那么
的特征值为
下面我们分两种情况讨论:1)
,2)
。
1)
2) 因为:
因此,我们有
那么我们有
因此,我们有
同理
引理成立。
引理2:若假设2成立,那么我们总有一个常数
,有
。
证明:从
对于某个
来说成立
从(11)我们得到
因此有
,我们由算法中的步骤5的更新规则推断出,存在一个常数
,有
。
引理得证。
引理3:若假设2成立,我们有
证明:
情况1):当
时,我们有
。
情况2):当
时,我们假设
,我们称
为
中第l大的特征值。
因为
,我们有
,根据假设,非凸函数
满足二阶连续的条件,那么
是实对称矩阵,则存在正交矩阵
,有:
其中
表示的为对角线元素为
的对角矩阵,
因为
总会有特征值
,因此我们有
是奇异的,因此
也是奇异的。因为
且
Math_201#是非奇异的。我们令:
根据引理,我们有:
我们分别考虑
和
。
因为
,且
。
根据假设2,我们有
因此,我们有:
引理得证。
根据上述引理,我们有:
即:
等价于
。
(24)
引理4:若假设2成立,我们有
证明:由(18)可知
定理2:若假设成立,我们假设
是由AlgorithmI生成的序列,那么我们称
是二阶收敛于0,且
是局部收敛于最优解
的。
证明:由引理4,我们总能找到一个序列
使得
2阶趋近于0的。
而根据 [1] ,我们总能找到序列
,在其中找出两个元素
,使得
。
那么我们可知,
是一个柯西序列那么其肯定是一个收敛数列,定理得证。
引理5 [7] :如果
是超线性收敛于
的,那么有:
由引理4我们有
由引理5可得,
等价于
。因此有
等价于
。
我们知道
,又
是对称的,而且,
,是半正定的,且
,此时
,因此存在正交矩阵U使得:
其中
是一个正对角矩阵,类似的,我们假设
的奇异值分解为:
其中
,
随着
收敛于0。在后文中,我们将
简写成
,则根据矩阵扰动理论 [8] [9] ,我们有:
即:
,
,
引理6:若假设成立,我们有:
证明:根据式(24),我们有
。
相似的,我们有:
。
因此,我们有,
且
令
,
。那么我们易得
是如下最小二乘算法的解:
因此:
引理7:若假设成立,我们有:
。
证明:
因为
,令
,那么我们有
是一致有界的,即存在一个常数
,有:
。
因此我们有:
定理3:若假设成立,我们假设
是由AlgorithmI生成的序列,那么我们称
是三阶收敛于0,且
是局部收敛于最优解 的。
证明:
定理得证。
4. 数值实验
下面求解两个不等式约束优化问题的数值算例,验证AlgorithmI的有效性,并与[3]进行比较,算法在MATLB R2022a编程实现,数值实验在windows系统中进行。实验中,我们取终止条件为
,取初始的正则化参数为,
,
,比率的取值为
,
,
。
考虑如下无约束优化问题且统一算例的初始值相同,实验结果见下表,每组表都给出了选取的初值
,并在所取初值相等的情况下比较,所需迭代次数k、迭代点
和此时函数的值
。
例1:考虑如下无约束优化问题
例2:考虑如下无约束优化问题
例3:考虑如下无约束优化问题
从上述例子我们可以看出,上述例子对于非凸函数的无约束优化问题的最优解是有效的,而在取不同的初始值时,迭代效果依旧强于单步正则化牛顿法,于是我们说该算法是可行的。
5. 结论
本文根据非凸无约束优化问题的单步正则化牛顿法进行改进提出了非凸无约束优化问题的两步正则化牛顿法,并对方法的收敛性进行研究。证明了在一定的条件下该方法是全局收敛的并且在局部误差界下具有三次收敛速度。理论分析证明,该算法有着良好的性质并证明了对应算法的全局收敛性。根据所提出的方法进行了部分数值实验,并将运算结果与单步的正则化牛顿法进行了对比,我们的方法有着更好的性质,进一步验证了本文算法的有效性。
文章引用
朱俊霖. 非凸优化问题的两步正则化牛顿法
The Two-Step Regularized Newton Method for Non-Convex Optimization Problems[J]. 应用数学进展, 2023, 12(08): 3651-3664. https://doi.org/10.12677/AAM.2023.128363
参考文献
- 1. Yamashita, N. and Fukushima, M. (2001) On the Rate of Convergence of the Levenberg-Marquardt Method.
https://doi.org/10.1007/978-3-7091-6217-0_18
- 2. Li, D.H., Fukushima, M., Qi, L., et al. (2004) Regularized Newton Methods for Convex Minimization Problems with Singular Solutions. Computational Optimization and Appli-cations, 28, 131-147.
https://doi.org/10.1023/B:COAP.0000026881.96694.32
- 3. Ueda, K. and Yamashita, N. (2010) Convergence Properties of the Regularized Newton Method for the Unconstrained Nonconvex Optimization. Applied Mathematics & Optimization, 62, 27-46. https://doi.org/10.1007/s00245-009-9094-9
- 4. Homeier, H.H.H. (2003) A Modified Newton Method for Rootfinding with Cubic Convergence. Journal of Computational and Applied Mathematics, 157, 227-230. https://doi.org/10.1016/S0377-0427(03)00391-1
- 5. Homeier, H.H.H. (2004) A Modified Newton Method with Cubic Convergence: The Multivariate Case. Journal of Computational and Applied Mathematics, 169, 161-169. https://doi.org/10.1016/j.cam.2003.12.041
- 6. Zhou, W. and Chen, X. (2013) On the Convergence of a Modified Regularized Newton Method for Convex Optimization with Singular Solutions. Journal of Computational and Applied Mathematics, 239, 179-188.
https://doi.org/10.1016/j.cam.2012.09.030
- 7. Sun, W. and Yuan, Y.X. (2006) Optimization Theory and Methods: Nonlinear Programming. Springer Science & Business Media, Berlin.
- 8. 孙继广. 矩阵扰动分析[M]. 北京: 科学出版社, 2001.
- 9. Bogaevski, V.N. and Povzner, A. (1991) Matrix Perturbation Theory. In: Algebraic Methods in Non-linear Perturbation Theory. Springer, New York. https://doi.org/10.1007/978-1-4612-4438-7