Pure Mathematics
Vol. 12  No. 11 ( 2022 ), Article ID: 58579 , 12 pages
10.12677/PM.2022.1211219

基于Huber损失和Capped-L1正则的线性 不等式约束稀疏优化问题研究

田梦达,彭定涛*,张弦

贵州大学数学与统计学院,贵州 贵阳

收稿日期:2022年10月23日;录用日期:2022年11月22日;发布日期:2022年11月30日

摘要

对多元线性回归中回归系数的估计问题,本文考虑了基于Huber损失和线性不等式约束的稀疏优化模型。首先,给出了稀疏优化的原问题、基于Capped-L1正则的松弛问题和基于约束惩罚的无约束问题三种模型。其次,借助惩罚模型方向稳定点的下界性质,在一定条件下分析了三种模型全局最优解的等价性。最后,提出了光滑化惩罚算法,并证明了该算法的收敛性。本文为求解线性不等式约束稀疏优化问题提供了理论和方法基础。

关键词

线性不等式约束稀疏优化问题,Huber损失,Capped-L1正则,方向稳定点,光滑化惩罚算法

On Sparse Optimization Problems with Linear Inequality Constraints Based on Huber Loss and Capped-L1 Regularization

Mengda Tian, Dingtao Peng*, Xian Zhang

School of Mathematics and Statistics, Guizhou University, Guiyang Guizhou

Received: Oct. 23rd, 2022; accepted: Nov. 22nd, 2022; published: Nov. 30th, 2022

ABSTRACT

For the estimation of regression coefficients in multivariate linear regression, a sparse optimization model based on Huber loss and linear inequality constraints is considered in this paper. Firstly, three models of the original sparse optimization problem, the relaxation problem based on Capped-L1 regularization and the unconstrained problem based on the penalty of constraint are given. Secondly, by use of the lower bound property of the directional stationary point of the penalized model, the equivalence of the global optimal solutions of the three models is analyzed under certain conditions. Finally, a smoothing penalty algorithm is proposed and its convergence is proved. This paper provides a theoretical and methodological basis for solving sparse optimization problems with linear inequality constraints.

Keywords:Sparse Optimization Problem with Linear Inequality Constraints, Huber Loss, Capped-L1 Regularization, Directional Stationary Point, Smoothing Penalty Algorithm

Copyright © 2022 by author(s) and Hans Publishers Inc.

This work is licensed under the Creative Commons Attribution International License (CC BY 4.0).

http://creativecommons.org/licenses/by/4.0/

1. 引言

在多元线性回归中,常用的最小二乘法是通过极小化残差平方和来估计回归系数,即:

min x n F ( x ) : = A x b 2 2 ,

其中, A m × n b m 。最小二乘法也常用于曲线拟合。为避免数据的多重共线性和可能出现的欠定和过拟合现象,并实现变量选择,研究者引入了 l 0 正则的稀疏优化模型:

min x n F ( x ) : = A x b 2 2 + λ x 0 , (1)

其中 x 0 表示向量x非零分量的个数, λ > 0 是正则化参数。

由于 l 0 正则是非凸、非光滑甚至是不连续的。因此,求解问题(1)是NP难的 [1]。于是一些研究学者考虑用 l 1 正则来松弛 l 0 正则 [2] [3] [4],即LASSO回归模型:

min x n F ( x ) : = A x b 2 2 + λ x 1 ,

其中 x 1 = i = 1 n | x i | 。LASSO回归模型具有子集选择和岭回归的一些优点,它能够产生可解释的模型并且具

有岭回归的稳定性。但是Fan和Li证明了LASSO回归模型得到的解是有偏估计 [5],并指出一个好的正则函数应当使得产生的估计量具有下述四个性质:1) 无偏性,2) 稀疏性,3) 连续性,4) Oracle性质:所得估计量与Oracle解具有相同的渐进分布,其中Oracle解定义为:

x Oracle arg min x : supp ( x ) supp ( x ) L ( x ) ,

L ( x ) 是损失函数, supp ( x ) 是真实解 x 的支撑集。研究表明,SCAD [5],MCP [6] 和Capped-L1等几类折叠凹正则函数 [7] [8] [9] [10] 可产生满足无偏性、稀疏性、连续性和Oracle性质的估计量 [11] [12] [13]。因此研究者们考虑用折叠凹函数来松弛 l 0 正则,即考虑以下折叠凹正则模型:

min x n F ( x ) : = A x b 2 2 + Φ ( x ) , (2)

其中 Φ ( x ) = i = 1 n φ ( x i ) 是折叠凹函数, φ ( t ) 可取如下几类函数:

i) Capped-L1: φ ( t ) = λ min { 1 , | t | γ } , λ > 0 , γ > 0

ii) MCP: φ ( t ) = { λ | t | t 2 2 γ , if 0 | t | γ λ , γ λ 2 2 , if | t | > γ λ , , λ > 0 , γ > 1 ;

iii) SCAD: φ ( t ) = { λ | t | , if 0 | t | λ , λ | t | ( | t | λ ) 2 2 ( γ 1 ) , if λ < | t | γ λ , ( γ + 1 ) λ 2 2 , if | t | > γ λ , , λ > 0 , γ > 2.

因为 Φ ( x ) 是非凸正则函数,所以问题(2)是非凸优化。研究者们已经发展了多种有效算法,例如:凸差算法 [9] [14] [15] [16],信赖域算法 [17],迭代重加权算法 [18] 等。

文献 [19] 研究了Capped-L1正则模型(2)与原 l 0 正则模型(1)解的关系,在一定条件下证明了Capped-L1正则模型与原 l 0 模型全局解的等价性和局部解的包含关系,并给出了邻近梯度算法。文献 [20] 研究了损失函数为最小一乘时,MCP正则模型与原 l 0 正则模型解的关系,证明了两模型全局解的等价性。文献 [21] 对损失函数为一般凸函数的组稀疏优化问题,研究了组Capped-L1正则模型与 l 2 , 0 正则模型解的关系,证明了两模型全局解的等价性和局部解的包含关系。文献 [22] 研究了带线性约束的组稀疏优化问题及其折叠凹松弛问题解的等价性和求解算法。文献 [23] 进一步对带一般凸约束的组稀疏优化问题,研究了组Capped-L1正则模型与 l 2 , 0 正则模型解的关系,并利用组Capped-L1正则模型给出了组光滑化邻近梯度算法。

由于模型(1)中的最小二乘损失缺乏鲁棒性,对异常值的容忍度不高 [3],而Huber函数不仅对异常值具有鲁棒性,而且结合了最小一乘和最小二乘的优点,既光滑又不会放大误差,因此,将Huber函数作为损失函数具有非常大的优点。另一方面,模型(1)没有考虑约束条件,这也在很大程度上限制了它的应用范围。

基于上述分析,本文考虑如下带Huber损失和线性不等式约束的稀疏优化模型:

min x n 1 m i = 1 m H ( A i T x b i ) + λ x 0 s .t . B x h , (3)

其中

H ( t ) = { 1 2 t 2 , | t | δ , δ ( | t | 1 2 δ ) , ,

是Huber函数, A m × n A i A的第i个行向量, i = 1 , , m B q × n h q δ > 0 。不等式约束 B x h 可以刻画真实解(信号)的某些先验信息,如非负性 [22]、有界性 [19] 等,但增加了约束使得问题的分析和求解变得更加复杂。

为便于分析和求解,本文将模型(3)松弛为如下Capped-L1正则模型:

min x n 1 m i = 1 m H ( A i T x b i ) + Φ ( x ) s .t . B x h . (4)

其中 Φ ( x ) = i = 1 n φ ( x i ) ,而 φ ( t ) = λ min { 1 , | t | γ } 是Capped-L1函数。

模型(4)是约束优化,为方便研究,将其不等式约束作为惩罚项加罚到目标函数上去,从而转化为如下无约束优化:

min x n 1 m i = 1 m H ( A i T x b i ) + Φ ( x ) + α ( B x h ) + 1 , (5)

其中 z + n ,其定义为 ( z + ) i : = max { 0 , z i } α > 0 为惩罚因子。

这里重要且有趣的问题是,模型(3)、模型(4)和模型(5)之间解的关系如何,特别是它们的解是否具有某种等价性,以及如何对其求解的问题。

本文主要工作如下:

i) 定义了问题(5)的方向稳定点(d-稳定点),分析了问题(5)的一阶最优性条件,并探讨了问题(3),(4)与(5)之间解的关系,证明了等价性。

ii) 因为问题(4)是非光滑优化问题,本文使用光滑化惩罚方法来计算其d-稳定点。通过对约束惩罚函数的光滑化逼近来得到近似问题,并证明了该算法产生的任意聚点都是松弛问题的d-稳定点,为使用光滑化方法求解该问题提供了理论和方法保证。

在接下来的讨论中,为了简便,记:

F ( x ) = 1 m i = 1 m H ( A i T x b i ) + Φ ( x ) + α ( B x h ) + 1 f ( x ) = 1 m i = 1 m H ( A i T x b i ) , Q ( x ) = ( B x h ) + 1 , Ω = { x n : B x h } .

对任意闭集 Ω n dist ( x , Ω ) = inf y Ω x y 表示x到闭集 Ω 的距离, P Ω ( x ) 表示 x n Ω 上投影点的集合。

记向量x的支撑集为:

Γ ( x ) = { i { 1 , , n } : x i 0 } = Γ 1 ( x ) Γ 2 ( x ) ,

其中 γ > 0

Γ 1 ( x ) = { i : 0 < | x i | < γ } , Γ 2 ( x ) = { i : | x i | γ } .

符号函数 sgn ( t ) 定义为:

sgn ( t ) : = { 1 , t > 0 , 0 , t = 0 , 1 , t < 0.

本文结构如下:第二节首先借助方向导数给出问题(5) d-稳定点的定义,然后得出其d-稳定点的下界性质。第三节探讨问题(3),问题(4)与问题(5)解的等价性。第四节给出求解问题(5) d-稳定点的光滑化惩罚方法,并证明该算法的收敛性。

2. 最优性条件

2.1. 问题(5)的d-稳定点

首先给出问题(5)的d-稳定点的定义 [16] [24]。

定义2.1:设 F : n 在点 x n 处方向可微,则函数F在点x处沿方向 w n 的方向导数定义为:

F ( x ; w ) : = lim τ 0 F ( x + τ w ) F ( x ) τ .

定义2.2:称 x * n 是问题(5)的d-稳定点,如果:

F ( x * ; x x * ) = f ( x * ; x x * ) + Φ ( x * ; x x * ) + α Q ( x * ; x x * ) 0 , x n .

Peng和Chen [24] [25] 证明了当目标函数局部Lipschitz连续且方向可微时,d-稳定点具有如下最优性质:

定理2.1:设函数 F : n 在点 x ^ n 处是局部Lipschitz连续且方向可微的,则有如下性质:

i) 若 x ^ 是函数F的局部最优值点,那么 x ^ 是函数F的d-稳定点。

ii) x ^ 是函数F的严格局部最优值点并满足一阶增长性条件,即存在 x ^ 的领域 W δ > 0 使得:

F ( x ) F ( x ^ ) + δ x x ^ , x W ,

当且仅当 x ^ 满足:

F ( x ^ ; x x ^ ) > 0 , x n \ { x ^ } .

2.2. 问题(5) d-稳定点的下界性质

下述定理表明问题(5)的d-稳定点的非零分量具有一致的下界。

定理2.2:设 λ γ > δ m i = 1 m A i + α q B F ,若 x * n 是问题(5)的d-稳定点,那么或者 | x i * | γ ,或者 | x i * | = 0 i = 1 , , n

证明:根据记号,要证明本定理,只需证明 Γ 1 ( x * ) = 。因 x * 是d-稳定点,由定义2.2:

f ( x * ; x x * ) + Φ ( x * ; x x * ) + α Q ( x * ; x x * ) 0 , x n

其中:

i) 因为Huber损失函数 f ( x ) = 1 m i = 1 m H ( A i T x b i ) 是可微的,故

f ( x * ; x x * ) = f ( x * ) ( x x * ) = 1 m i = 1 m H ( A i x * b i ) A i ( x x * ) ,

这里

H ( A i x * b i ) = { A i x * b i , | A i x * b i | δ , δ sgn ( A i x * b i ) , .

ii) Φ ( x * ; x x * ) = i = 1 n φ ( x i * ; x i x i * ) ,且由 φ ( t ) = λ min { 1 , | t | γ } ,得:

φ ( x i * ; x i x i * ) = { λ | x i | γ , x i * = 0 , λ ( x i x i * ) sgn ( x i * ) γ , | x i * | ( 0 , γ ) , min { 0 , λ ( x i x i * ) sgn ( x i * ) γ } , | x i * | = γ , 0 , .

iii) 根据文献 [25],得 Q ( x * ; x x * ) = Δ : = j = 1 q Δ j ,其中

Δ j = { 0 , B j , x * < h j , max { 0 , B j , x x * } , B j , x * = h j , B j , x x * , ,

此处, B j 是矩阵B的第j个行向量。

下面用反证法证明。假设 Γ 1 ( x * ) 。对每个 i 0 Γ 1 ( x * ) ,定义 x ^ 1 , x ^ 2 n 如下:

x ^ i 1 = { 2 x i 0 * , i = i 0 , x i * , , x ^ i 2 = { 0 , i = i 0 , x i * , , i = 1 , , n .

F ( x * , x ^ η x * ) 0 , η = 1 , 2 。由上述(i) (ii) (iii),得:

F ( x * , x ^ 1 x * ) = [ f ( x * ) ] i 0 x i 0 * + λ x i 0 * sgn ( x i 0 * ) γ + Δ i 0 0 , F ( x * , x ^ 2 x * ) = [ f ( x * ) ] i 0 x i 0 * λ x i 0 * sgn ( x i 0 * ) γ Δ i 0 0.

于是

λ | x i 0 * | γ | [ f ( x * ) ] i 0 | + | Δ i 0 | 1 m i = 1 m H ( A i x * b i ) A i | x i 0 * | + B i 0 | x i 0 * | ( δ m i = 1 m A i + α q B F ) | x i 0 * | .

| x i 0 * | > 0 ,得 λ γ δ m i = 1 m A i + α q B F ,这与已知条件 λ γ > δ m i = 1 m A i + α q B F 矛盾,所以 Γ 1 ( x * ) =

注:定理2.2表明问题(5)的d-稳定点的非零分量的绝对值具有正下界 γ 。这种解的下界性质在理论上反映了解的稀疏性,在数值计算中,如果数值解的某些分量小于下界,则可以直接将这些分量取为0,这样可以提高解的稀疏度。类似研究可参见文献 [11] [19] [22] [24]。

3. 解的等价性

3.1. 问题(3)和问题(4)解的等价性

定理3.1:若 x ¯ Ω ,那么 x ¯ 是问题(4)的全局最优解当且仅当 x ¯ 是问题(3)的全局最优解,且问题(3)和问题(4)具有相同的全局最优值。

证明:

i) 设 x ¯ Ω 是问题(4)的全局最优解,则

f ( x ¯ ) + λ x ¯ 0 = f ( x ¯ ) + Φ ( x ¯ ) f ( x ) + Φ ( x ) f ( x ) + λ x 0 , x Ω ,

其中第一个等式由 [19] 中引理2.3可得,而最后一个不等式由 Φ ( x ) λ x 0 对任何 x n 均成立可得。故 x ¯ 是问题(3)全局最优解。

ii) 设 x ¯ Ω 是问题(3)全局最优解,但不是问题(4)的全局最优解,则问题(4)存在一个全局最优解 x ^ ,使得

f ( x ^ ) + Φ ( x ^ ) < f ( x ¯ ) + Φ ( x ¯ ) .

由(i)知 x ^ 也是问题(3)全局最优解,因此

f ( x ^ ) + λ x ^ 0 < f ( x ¯ ) + λ x ¯ 0 ,

这与 x ¯ 是问题(3)全局最优解相矛盾。所以问题(3)的任何全局最优解都是问题(4)的全局最优解。

3.2. 问题(4)和问题(5)解的等价性

假设3.1:矩阵B和向量h满足如下条件:存在一些正数 τ ,使得 dist ( x , Ω ) τ ( B x h ) + 1 [26]。

定理3.2:设假设3。1成立,则问题(4)的全局最优解都是问题(5)的全局最优解。

证明:因为 f ( x ) + Φ ( x ) 是Lipschitz连续的,设其Lipschitz常数为 L f 。对所有的 α > τ L f ,有

f ( x ) + Φ ( x ) + α τ dist ( x , Ω ) f ( y ) + Φ ( y ) , x n , y P Ω ( x ) . (6)

由假设3.1和(6),可得:

inf x n f ( x ) + Φ ( x ) + α ( B x h ) + 1 inf x n f ( x ) + Φ ( x ) + α τ dist ( x , Ω ) inf x n , y P Ω ( x ) f ( y ) + Φ ( y ) = inf x Ω f ( x ) + Φ ( x ) = inf x Ω f ( x ) + Φ ( x ) + α ( B x h ) + 1 inf x n f ( x ) + Φ ( x ) + α ( B x h ) + 1 .

因此, x 是问题(5)的全局最优解。

定理3.3:设假设3.1成立,且 α > τ L f ,其中 L f f ( x ) + Φ ( x ) 的Lipschitz常数。若 x 是问题(5)的全局最优解,那么 x 是问题(4)的全局最优解。

证明: x n 是问题(5)的全局最优解,则

f ( x ) + Φ ( x ) + α ( B x h ) + 1 = inf x n f ( x ) + Φ ( x ) + α ( B x h ) + 1 inf x Ω f ( x ) + Φ ( x ) f ( x ) + Φ ( x ) , x Ω . (7)

由假设3.1,对任意 x P Ω ( x ) ,有

f ( x ) + Φ ( x ) + α τ dist ( x , Ω ) f ( x ) + Φ ( x ) .

考虑到 f ( x ) + Φ ( x ) 是Lipschitz连续的,对任意 x P Ω ( x ) ,由上式得

dist ( x , Ω ) τ α [ f ( x ) + Φ ( x ) f ( x ) Φ ( x ) ] τ L f α x x = τ L f α dist ( x , Ω ) .

因为 α > τ L f ,故 dist ( x , Ω ) = 0 ,因此 x Ω 。再由 α ( B x h ) + 1 0 和(7)式,可得 f ( x ) + Φ ( x ) f ( x ) + Φ ( x ) x Ω 。故 x 是问题(4)的全局最优解。

3.3. 问题(3)和问题(5)解的等价性

由定理3.1、定理3.2和定理3.3可得问题(3)与问题(4)之间解的等价性。

定理:设 λ γ > δ m i = 1 m A i + α q B F α > τ L f dist ( x , Ω ) τ ( B x h ) + 1 ,则 x n 是问题(5)的全局最优解当且仅当它是问题(3)的全局最优解。

4. 光滑化惩罚算法

由定理2.1可知,d-稳定点具有非常好的局部最优性。如何计算d-稳定点是一个有趣且具有挑战性的问题。光滑逼近方法是一种求解非光滑问题非常有效且被广泛使用的方法,参见 [19] [22] [23] [24] [26]。受上述文献启发,本节我们使用光滑化惩罚算法来求解问题(4)。

对于 t + = max { t , 0 } 函数,将采用下述光滑化函数

h μ ( t ) : = { t μ 2 , t μ , t 2 2 μ , 0 < t < μ , 0 , t 0 ,

其中 μ > 0 为光滑化参数。因此, Q ( x ) 具有如下光滑化函数

Q μ ( x ) : = j = 1 q h μ ( B j x h j ) .

0 t + h μ ( t ) μ 2 ,故对任意的 x n ,可得

0 Q μ ( x ) Q ( x ) Q μ ( x ) + q 2 μ .

此外,注意到 h μ ( t ) = min { ( t μ ) + , 1 }

Q μ ( x ) = j = 1 q h μ ( B j x h j ) B j .

容易证明,光滑函数 Q μ ( x ) 具有下述性质。

i) lim z x , μ 0 Q μ ( z , μ ) = Q ( x )

ii) 对每个固定的 μ > 0 Q μ ( x ) x的凸函数;

iii) 对每个固定的 μ > 0 Q μ ( x ) 关于x是Lipschitz连续的,即

| Q μ ( x 1 ) Q μ ( x 2 ) | κ x 1 x 2 ;

iv) 对每个固定的 x n Q μ ( x ) 关于 μ 是Lipschitz连续的,即

| Q μ ( x 1 ) Q μ ( x 2 ) | κ | μ 1 μ 2 | .

下面给出求解问题(4)的光滑化惩罚算法的框架。

算法4.1. 光滑化惩罚算法

在算法4.1中,

f ( x k ) = 1 m i = 1 m H ( A i x k b i ) A i , Φ ( x k ; x x k ) = i = 1 m φ ( x i k ; x i x i k ) , Q μ ( x k ) = j = 1 q h μ ( B j x k h j ) B j ,

其中,

H ( A i x k b i ) = { A i x k b i , | A i x k b i | δ , δ sgn ( A i x k b i ) , ,

φ ( x i k ; x i x i k ) = { λ | x i | γ , x i k = 0 , λ ( x i x i k ) sgn ( x i k ) γ , | x i k | ( 0 , γ ) , min { 0 , λ ( x i x i k ) sgn ( x i k ) γ } , | x i k | = γ , 0 , ,

h μ ( B j x k h j ) = min { ( B j x k h j μ ) + , 1 } .

由上述表达式可知 | H ( A i x k b i ) | δ ( i = 1 , , n ) , f ( x k ) δ m A F 0 h μ ( B j x k h j ) 1 ( j = 1 , , q )

注意,这里只是对非光滑项 Q ( x ) = ( B x h ) + 1 进行了光滑化,并未对非光滑项 Φ ( x ) 进行光滑化。因此,如何求解迭代步中步1的子问题 min x n G λ k , μ k ( x ) 是非常关键的。该子问题仍是一个非光滑优化,但 Φ ( x ) 的邻近函数具有解析表达式 [19],因此,本文建议采用文献 [26] 中的非单调邻近梯度(NPG)算法对其进行求解。

定理4.1:设 x k 是算法4.1生成的序列,则 { x k } 的任何聚点 x 都是问题(4)的d-稳定点,即

x * Ω f ( x * ; x x * ) + Φ ( x * ; x x * ) 0 , x Ω .

证明:设 { x k } 的收敛子列 { x k } K ,使得当 k K k 时, x k x *

1) 首先证明 x * 是问题(4)的可行点:

( B x k h ) + 1 Q μ k ( x k ) + q 2 μ k 1 α k G λ k , μ k ( x k ) + q 2 μ k 1 α k G λ k , μ k ( x feas ) + q 2 μ k = 1 α k f ( x feas ) + 1 α k Φ ( x feas ) + q 2 μ k ,

故当 k K k 时,有 ( B x k h ) + 1 0 ,即 x * Ω

2) 其次证明 x * 是问题(4)的d-稳定点。定义

w j k : = h μ k ( B j x k h j ) , j = 1 , , p

I * : = { j { 1 , , p } : B j x * h j = 0 } ,

0 w j k 1 , j = 1 , , p ;当 j I * 时, B j x * h j < 0 ,且当k充分大时,有 B j x k h j < 0 ,此时也有 w j k = 0 ;当 j I * 时, B j x k h j B j x * h j = 0 w j k = h μ k ( B j x k h j ) 0 。因

min x n { f ( x k ) , x x k + Φ ( x k , x x k ) + α k Q μ k ( x k ) , x x k } ϵ k , x n .

再由方向导数的表示,存在 ζ k : = ( ζ 1 k , , ζ n k ) ζ i k ϕ ( x i k ) , i = 1 , , n ,使得

f ( x k ) + ζ k + α k j I * w j k B j , x x k ϵ k , x n . (8)

Φ ( x ) 是全局lipschitz的,故 { ζ k } 都是有界的。由上式及 { f ( x k ) } { ζ k } 的有界性,对每个 j I * { α k w j k } 都是有界的,否则可取 x ^ = x k [ f ( x k ) + ζ k + α k j I * w j k B j ] ,使得

f ( x k ) + ζ k + α k j I * w j k B j , x ^ x k = f ( x k ) + ζ k + α k j I * w j k B j 2 ,

与(8)矛盾。因此,不妨设

{ ζ k } K ζ * = ( ζ 1 * , , ζ n * ) Φ ( x * ) , { α k w j k } K y j [ 0 , C ] , j I * ,

其中 C > 0 为某一常数。在(8)中,由 ϵ k 0 ,得

f ( x * ) + ζ * + i I * y i B j , x x * 0 , x n .

x = x * [ f ( x * ) + ζ * + i I * y i B j ] ,由上式得 f ( x * ) + ζ * + i I * y i B j 2 0 ,故

f ( x * ) + ζ * + i I * y i B j = 0.

x * Ω = { x : B x h } ,知 i I * y i B j N Ω ( x * ) ,故 [ f ( x * ) + ζ * ] N Ω ( x * ) 。注意到, x Ω ,有 x x * T Ω ( x * ) 。因此,

f ( x * ) + ζ * , x x * 0 , x Ω .

进而, x Ω ,有

0 f ( x * ) + ζ * , x x * f ( x * ) , x x * + max ζ Φ ( x * ) ζ , x x * = f ( x * ; x x * ) + Φ ( x * ; x x * ) .

上式表明, x * 是问题(4)的d-稳定点。

5. 总结

本文研究了基于Huber损失的线性不等式约束稀疏优化问题。我们给出了稀疏优化的原问题、松弛问题和惩罚问题等三种模型,在一定条件下分析了三种模型全局最优解的等价性,提出了求解该问题的光滑化惩罚算法,并证明了该算法的收敛性。本文为求解线性不等式约束稀疏优化问题提供了理论和方法基础。下一步将通过数值实验和算例进一步检验算法的实际效果。

基金项目

国家自然科学基金项目(11861020, 12261020)、贵州省高层次留学人才创新创业择优资助重点项目([2018] 03)、贵州省科技计划项目(ZK[2021] 009, [2018] 5781)、贵州省青年科技人才成长项目([2018] 121)。

文章引用

田梦达,彭定涛,张 弦. 基于Huber损失和Capped-L1正则的线性不等式约束稀疏优化问题研究
On Sparse Optimization Problems with Linear Inequality Constraints Based on Huber Loss and Capped-L1 Regularization[J]. 理论数学, 2022, 12(11): 2021-2032. https://doi.org/10.12677/PM.2022.1211219

参考文献

  1. 1. Pang, J., Razaviyayn, M. and Alvarado, A. (2017) Computing B-Stationary Points of Nonsmooth DC Programs. Mathematics of Operations Research, 42, 95-118. https://doi.org/10.1287/moor.2016.0795

  2. 2. Chen, X., Niu, L. and Yuan, Y. (2013) Optimality Conditions and Smoothing Trust Region Newton Method for Non-Lipschitz Optimization. SIAM Journal on Optimization, 23, 1528-1552. https://doi.org/10.1137/120871390

  3. 3. Candès, E., Walkin, M. and Boyd, S. (2008) Enhancing Sparsity by Reweighted Minimization. Journal of Fourier Analysis and Applications, 14, 877-905. https://doi.org/10.1007/s00041-008-9045-x

  4. 4. Bian, W. and Chen, X. (2020) A Smoothing Proximal Gradient Algorithm for Non-Smooth Convex Regression with Cardinality Penalty. SIAM Journal on Numerical Analysis, 58, 858-883. https://doi.org/10.1137/18M1186009

  5. 5. 罗孝敏, 彭定涛, 张弦. 基于MCP正则的最小一乘回归问题研究[J]. 系统科学与数学, 2021, 41(8): 2327-2337.

  6. 6. 彭定涛, 唐琦, 张弦. 组稀疏优化问题精确连续Capped-L1松弛[J]. 数学学报, 2022, 65(2): 243-262.

  7. 7. Pan, L. and Chen, X. (2021) Group Sparse Optimization for Images Recovery Using Capped Folded Concave Functions. SIAM Journal on Imaging Sciences, 14, 1-25. https://doi.org/10.1137/19M1304799

  8. 8. Zhang, X. and Peng, D. (2022) Solving Constrained Nonsmooth Group Sparse Optimization via Group Capped- Relaxation and Group Smoothing Proximal Gradient Algorithm. Computa-tional Optimization and Applications, 83, 801-804. https://doi.org/10.1007/s10589-022-00419-2

  9. 9. Peng, D. and Chen, X. (2020) Computation of Second-Order Directional Stationary Points for Group Sparse Optimization. Op-timization Methods and Software, 35, 348-376. https://doi.org/10.1080/10556788.2019.1684492

  10. 10. Rockafellar, R. and Wets, R. (2009) Variational Analysis. 3rd Edition, Springer-Verlag, Berlin.

  11. 11. Natarajan, B. (1995) Sparse Approximate Solutions to Linear Systems. SIAM Journal on Computing, 24, 227-234. https://doi.org/10.1137/S0097539792240406

  12. 12. Donoho, D. (2006) Compressed Sensing. IEEE Transactions on Information Theory, 52, 1289-1306. https://doi.org/10.1109/TIT.2006.871582

  13. 13. Candès, E., Romberg, J. and Tao, T. (2006) Robust Uncertainty Principles: Exact Signal Reconstruction from Highly Incomplete Frequency Information. IEEE Transactions on Infor-mation Theory, 52, 489-509. https://doi.org/10.1109/TIT.2005.862083

  14. 14. Tibshirani, R. (1996) Regression Shrinkage and Selection via the LASSO. Journal of the Royal Statistical Society: Series B (Methodological), 58, 267-288. https://doi.org/10.1111/j.2517-6161.1996.tb02080.x

  15. 15. Fan, J. and Li, R. (2001) Variable Selection via Nonconcave Penalized Likelihood and Its Oracle Properties. Journal of the American Statistical Association, 96, 1348-1360. https://doi.org/10.1198/016214501753382273

  16. 16. Zhang, C. (2010) Nearly Unbiased Variable Se-lection under Minimax Concave Penalty. Annals of Statistics, 38, 894-942. https://doi.org/10.1214/09-AOS729

  17. 17. Ong, C. and An, L. (2013) Learning Sparse Classifiers with Difference of Convex Functions Algorithms. Optimization Methods and Software, 28, 830-854. https://doi.org/10.1080/10556788.2011.652630

  18. 18. Peleg, D. and Meir, R. (2008) A Bilinear Formulation for Vector Sparsity Optimization. Signal Processing, 88, 375-389. https://doi.org/10.1016/j.sigpro.2007.08.015

  19. 19. Chen, X., Lu, Z. and Pong, T. (2016) Penalty Methods for a Class of Non-Lipschitz Optimization Problems. SIAM Journal on Optimization, 26, 1465-1492. https://doi.org/10.1137/15M1028054

  20. 20. Thi, H., Dinh, T., Le, H. and Vo, X. (2015) DC Approximation Approaches for Sparse Optimization. European Journal of Operational Research, 244, 26-46. https://doi.org/10.1016/j.ejor.2014.11.031

  21. 21. Zhang, T. (2013) Multi-Stage Convex Relaxation for Feature Se-lection. Bernoulli, 19, 2277-2293. https://doi.org/10.3150/12-BEJ452

  22. 22. Bian, W. and Chen, X. (2017) Optimality and Complexity for Constrained Optimization Problems with Nonconvex Regularization. Mathematics of Operations Research, 42, 1063-1084. https://doi.org/10.1287/moor.2016.0837

  23. 23. Chartrand, R. and Staneva, V. (2008) Restricted Isometry Properties and Nonconvex Compressive Sensing. Inverse Problems, 24, 1-14. https://doi.org/10.1088/0266-5611/24/3/035020

  24. 24. Huang, J., Horowitz, J. and Ma. S. (2008) Asymptotic Properties of Bridge Estimators in Sparse High-Dimensional Regression Models. Annals of Statistics, 36, 587-613. https://doi.org/10.1214/009053607000000875

  25. 25. Ahn, M., Pang, J. and Xin, J. (2017) Difference-of-Convex Learning: Directional Stationarity, Optimality, and Sparsity. SIAM Journal on Optimization, 27, 1637-1655. https://doi.org/10.1137/16M1084754

  26. 26. An, L. and Tao, P. (2005) The DC (Difference of Convex Functions) Programming and DCA Revisited with DC Models of Real World Nonconvex Optimization Problems. Annals of Op-erations Research, 133, 23-46. https://doi.org/10.1007/s10479-004-5022-1

  27. NOTES

    *通讯作者。

期刊菜单