Advances in Applied Mathematics
Vol. 13  No. 03 ( 2024 ), Article ID: 83394 , 10 pages
10.12677/aam.2024.133098

压缩感知中的分布鲁棒优化模型及其求解方法

李达臣

辽宁师范大学数学学院,辽宁 大连

收稿日期:2024年2月27日;录用日期:2024年3月21日;发布日期:2024年3月27日

摘要

压缩感知(CS)理论作为当前先采样后压缩方法的替代方法引起了很多的关注,相关学者已经提出很多CS恢复算法如CoSaMP等,而带噪声的压缩感知模型可以表示为l1-范数问题,由于不易判断矩阵的有限等距性(RIP)以及观测矩阵的不确定性,考虑将该l1-范数问题建模为分布鲁棒优化问题,再借助KL-散度、函数变换以及内部最大化期望函数等方法得到分布鲁棒优化问题的等价形式。

关键词

KL-距离散度,分布鲁棒优化,机会约束优化,压缩感知

Distributed Robust Optimization Model and Its Solution Method in Compressed Sensing

Dachen Li

School of Mathematics, Liaoning Normal University, Dalian Liaoning

Received: Feb. 27th, 2024; accepted: Mar. 21st, 2024; published: Mar. 27th, 2024

ABSTRACT

Compressed sensing (CS) theory has attracted a lot of attention as an alternative to the current sampling-then-compression method. Relevant scholars have proposed many CS recovery algorithms such as CoSaMP, etc., and the noisy compressed sensing model can be expressed as an l1-norm problem. Since it is difficult to judge the finite isometric property (RIP) of the matrix and the uncertainty of the observation matrix, consider modeling the l1-norm problem as a distributed robust optimization problem, and then use KL-divergence, function transformation and internal maximization methods such as the expectation function obtain equivalent forms of distributed robust optimization problems.

Keywords:KL-Distance Divergence, Distributed Robust Optimization, Chance-Constrained Optimization, Compressed Sensing

Copyright © 2024 by author(s) and Hans Publishers Inc.

This work is licensed under the Creative Commons Attribution International License (CC BY 4.0).

http://creativecommons.org/licenses/by/4.0/

1. 引言

压缩感知,也被称为压缩采样或者稀疏采样,其主要思想是利用信号中存在的冗余性,同时进行采样和压缩。压缩感知理论从比Nyquist采样理论所建议的要少得多的采集测量中证明,当信号在某些域中表现出稀疏性时,它可以以很高的概率重建。在此领域研究的相关学者、已经提出了许多压缩感知恢复算法,例如:Tropp [1] 等提出的正交匹配追踪算法,主要应用于语音处理、图像压缩、信号处理等领域,具有简单易实现、在稀疏信号重构中表现良好的特点,但对于非稀疏信号可能性能有所下降 [2] ;Wright [3] 等提出的基追踪算法,主要应用于信号处理、图像压缩、医学成像等领域,可以处理非稀疏信号,通过求解凸优化问题,能够得到全局最优解,但计算复杂 [4] ;Candès [5] 等提出的压缩采样匹配追踪算法,主要应用于通信系统、成像、生物医学工程等领域,在高度稀疏信号的情况下表现良好,相对于正交匹配追踪算法有更好的收敛性,但对于非稀疏信号仍存在一些问题 [6] ;Goldstein [7] 等提出的迭代硬阈值算法,主要应用于图像重构、信号处理、通信系统等领域,但收敛速度相对较快,算法简单,但受噪声干扰较大 [8] 。

在压缩感知理论中,通常通过与信号相互独立的随机投影对信号进行采样,并通过最小化l0-范数或者l1-范数优化问题重建,建立该优化问题的前提是信号在某些变换域中是稀疏的 [8] [9] 。一般地,使用 m × n 观测矩阵 ϕ R m × n 的m个行向量来投影稀疏系数为s的向量 x R n ,得到观测向量 y R m 。压缩感知的一般模型可以写成:

y = ϕ x , (1.1)

其中,当稀疏系数为s时可令

x = ψ s ,

也就是说,当信号稀疏时,压缩感知模型可转化为如下形式:

y = ϕ x = ϕ ψ s . (1.2)

考虑带噪声的稀疏系数为s的压缩感知问题,可建模为最小化l0-范数问题:

min ψ s 0 s . t . y = ϕ ψ s . (1.3)

问题(1.3)是不连续的,是一个NP-hard问题。

Donoho [10] 等证明了在一定条件下l0-范数问题与下述l1-范数问题是等价的,

m i n ψ s 1 s . t . y = ϕ ψ s . (1.4)

在实际测量过程中,噪声容易干扰观测信号,造成重建信号的过程中出现偏差,假设观测到的带噪声的测量向量为y,噪声为e。那么观测向量可以表示为 y = ϕ x + e ,由于希望噪声e非常小,而且噪声是客观存在无法忽视的,所以假设e小于或等于一个正数 ε ,则问题(1.4)可转化为如下带噪声的压缩感知信号重建模型 [10] :

m i n ψ s 1 s . t . ϕ ψ s y 2 ε .

一般地,带噪声的压缩感知模型为如下形式:

m i n x 1 s . t . ϕ x y 2 ε . (1.5)

其中, ε > 0 代表噪声, ϕ 代表 m × n 的观测矩阵, x R n 表示原始信号, y R m 代表观测值。

关于l1-范数问题的求解,近年来有很多学者对其进行研究做出了很多贡献:

1) 聂操男 [11] 首先将l1-范数问题转化为概率约束优化模型,再通过构造特征函数 1 [ 0 , + ) ( z ) 的一个光滑近似函数

φ ( z , t ) = { π 2 z t 2 + π t 4 z > 0 π 2 z t 2 cos π t z + π t 4 t 2 < z < 0 0 z t 2

然后建立压缩感知中的概率约束优化问题的的光滑D.C.近似问题( P δ )

min x X x 1 s . t . p ( x , ε , δ ) α , (1.6)

并对(1.6)进行了收敛性分析,最后分析并求解压缩感知中的概率约束优化问题的光滑D.C.近似问题。

2) 陈苗给 [12] 出求解含有l1-范数问题的光滑FR共轭梯度法。先将l1-范数问题等价转化为无约束优化问题,

min z R 2 π f ( z ) = 1 2 ( H + I ) z + c | ( H I ) z + c | 2 (1.7)

其中 H R n × n c R n

然后对此无约束优化问题进行光滑化处理,利用绝对值函数的光滑逼近函数:

ϕ i ( z , μ ) = ( ( H I ) z + c ) i 2 + μ 2 , (1.8)

其中, μ R + i = 1 , 2 , , 2 n

且(1.8)满足

lim μ 0 ϕ i ( z , μ ) = | ( ( H I ) z + c ) i | ,

其中, i = 1 , 2 , , 2 n

基于(1.8),得到(1.7)的目标函数的光滑函数

f ˜ ( z , μ ) = 1 2 t = 1 2 n f ˜ 2 ( z , μ ) ,

其中

f ˜ ( z , μ ) = ( ( H + I ) z + c ) i ϕ i ( z , μ ) , i = 1 , 2 , , 2 n .

这样就将含有l1-范数问题转化为光滑无约束优化问题,并且在一般条件下给出了FR共轭梯度法的全局收敛结果。

3) 屈彪等 [13] 将l1-范数问题转化为一个分裂可行问题

x C ,使得 A x Q (1.9)

其中 C = { x R n | x 1 s 0 } Q = { y R m | y = b }

同时也可以将l1-范数问题转化为一个凸可行问题

x ( j = 1 m Q j ) C (1.10)

其中, Q i = { x R n | a j , b = b j } , j = 1 , 2 , , m a j 是观测矩阵第j列, b j 是观测向量b的第j个分量。

在式(1.9)和(1.10)基础上,设计了几种松弛投影算法与经典投影算法简化了投影计算量和步长计算步骤。

2. 压缩感知中的分布鲁棒约束优化模型

对于带噪声的压缩感知模型,由于不易判断矩阵的有限等距性(RIP)以及观测矩阵的不确定性,因此可将l1-范数问题建模为分布鲁棒优化问题:

min x 1 s . t . Pr ~ P { ϕ ( ξ ) x y 2 ε } 1 β , P . (2.1)

其中, x X R n 是n维的决策向量, ξ 是支撑集 Ξ R k 上的具有概率分布P的随机向量,Pr为概率, y R m β ( 0 , 1 ) 是预先给定的置信水平。 表示任意分布, ε > 0 ϕ R m × n

考虑特征函数

1 ( 0 , + ) ( z ) = { 1 , z ( 0 , + ) , 0 , z ( 0 , + ) .

由概率约束条件 Pr ~ P { ϕ ( ξ ) x y 2 ε } 1 β

1 Pr ~ P { ϕ ( ξ ) x y 2 0 } = Pr ~ P P { ϕ ( ξ ) x y 2 ε } 0 = E P [ 1 ( 0 , + ) ( ϕ ( ξ ) x y 2 ε ) ] β .

从而问题(2.1)可表示成:

min x 1 s . t . max P E P [ 1 ( 0 , + ) ( ϕ ( ξ ) x y 2 ε ) ] β (2.2)

3. 内部最大化问题的求解

假设这里已经获得一个额定分布P0,通过考虑P0与未知分布P之间的距离来构造模糊集

= { P D : D ( P | | P 0 ) η } , (3.1)

其中,D表示所有概率分布的集合,常数 η 是模糊度指数,它控制模糊度集P的大小, D ( P | | P 0 ) 表示分布P到额定分布P0的距离散度。

假设P相对于P0是绝对连续的(记为 P P 0 ),也就是说对于每个可测集合A,若 P ( A ) = 0 也就意味着 P 0 ( A ) = 0 。设分布P和P0在支撑集 Ξ R k 上有概率密度函数 p ( ξ ) p 0 ( ξ ) ,定义

L ( ξ ) = p ( ξ ) p 0 ( ξ ) ,

L ( ξ ) 称为似然比, L ( ξ ) > 0 ,且 E P [ L ( ξ ) ] = 1 ,显然,对于测量分布P与额定分布P0扰动或偏差问题,似然比是一个很好的工具 [14] 。

考虑KL-距离散度函数:

ϕ K L ( t ) = t log t , t 0 ,

则从P到P0的KL-距离散度为

D ( P | | P 0 ) = Ξ p ( z ) log p ( z ) p 0 ( z ) d z ,

显然, D ( P | | P 0 ) 0 ,当且仅当在P0上有 p ( z ) = p 0 ( z ) 几乎一定成立时,等式成立。

定义一个不确定集为:

L = { L ( ξ ) L ( P 0 ) : E P 0 [ L ( ξ ) ] = 1 , L ( ξ ) 0 a . s . } ,

使用测度变换方法,得

D ( P | | P 0 ) = Ξ p ( z ) p 0 ( z ) log p ( z ) p 0 ( z ) p ( z ) d z = E P 0 [ L ( ξ ) log L ( ξ ) ] .

因此,可以将约束函数转换为期望形式,其中期望是关于额定分布P0的。

考虑问题(2.2)的约束函数

max P L E P [ 1 ( 0 , + ) ( ϕ ( ξ ) x y 2 ε ) ] ,

H ( x , ξ ) = 1 ( 0 , + ) ( ϕ ( ξ ) x y 2 ε ) ,有

E P [ H ( x , ξ ) ] = Ξ H ( x ) p ( ξ ) d ξ = Ξ H ( x , ξ ) p ( ξ ) p 0 ( ξ ) p ( ξ ) d ξ = E P 0 [ H ( x , ξ ) L ( ξ ) ] .

问题(2.2)中的内部最大化问题可以重新表述为

(3.2)

易证,问题(3.2)是一个凸优化问题。

事实上, L 1 ( ξ ) L 2 ( ξ ) L ,可以得到

此外,令 h ( y ) = y log y ,由于 h ( y ) 是在 R + 上关于y的凸函数,对于每个 ξ ,有

L λ ( ξ ) log L ( ξ ) L 1 ( ξ ) log L 1 ( ξ ) + ( 1 λ ) L 2 ( ξ ) log L 2 ( ξ ) ,

由此可得

E P 0 [ L λ ( ξ ) log L λ ( ξ ) ] = E P 0 [ L 1 ( ξ ) + ( 1 λ ) L 2 ( ξ ) ] λ E P 0 [ L 1 ( ξ ) log L 1 ( ξ ) ] + ( 1 λ ) E P 0 [ L 2 ( ξ ) log L 2 ( ξ ) ]

也就是说, E P 0 [ L ( ξ ) log L ( ξ ) ] 是凸的。

类似地,令 g ( y ) = H ( x , ξ ) y ,由于 g ( y ) 是在 R + 上关于y的凸函数,

那么

H ( x , ξ ) L λ ( ξ ) λ H ( x , ξ ) L 1 ( ξ ) + ( 1 λ ) H ( x , ξ ) L 2 ( ξ ) ,

由此可见

E P 0 [ H ( x , ξ ) L λ ( ξ ) ] = E P 0 [ λ H ( x , ξ ) L 1 ( ξ ) + ( 1 λ ) H ( x , ξ ) L 2 ( ξ ) ] λ E P 0 [ H ( x , ξ ) L 1 ( ξ ) ] + ( 1 λ ) E P 0 [ H ( x , ξ ) L 2 ( ξ ) ]

E P 0 [ H ( x , ξ ) L ( ξ ) ] 关于 L ( ξ ) 也是凸的,因此问题(2.4)也是个凸优化问题。

对于每个 x X ,记 M H ( t ) = E P 0 [ e t H ( x , ξ ) ] 表示 H ( x , ξ ) 关于分布P0的矩母生成函数,令

S = { s R : s > 0 , M H ( s ) < + } .

假设1 [15] 对于每个 x X ,S是一个非空集。

l 0 ( α , L ( ξ ) ) = E P 0 [ H ( x , ξ ) L ( ξ ) ] α [ E P 0 L ( ξ ) log L ( ξ ) η ] ,

问题(3.2)等价于

m a x i m i z e L ( ξ ) L m i n i m i z e α 0 l 0 ( α , L ( ξ ) ) . (3.3)

交换极大极小算子的顺序,得到(3.3)的Lagrangian对偶为

m i n i m i z e α 0 m a x i m i z e L ( ξ ) L l 0 ( α , L ( ξ ) ) . (3.4)

假设问题(3.2)满足slater条件 [16] ,即存在 L ( ξ ) ,使得

E P 0 [ L ( ξ ) log L ( ξ ) ] < η ,

又由于(3.2)是凸问题,所以问题(3.3)和问题(3.4)的强对偶性成立,因此要求解问题(3.2),只需求解问题(3.4)即可。忽略 α η ,问题(3.4)可以表示为

max L ( ξ ) L E P 0 [ H ( x , ξ ) L ( ξ ) α L ( ξ ) log L ( ξ ) ] s . t . E P 0 [ L ( ξ ) ] = 1. (3.5)

问题(3.5)是一个凸优化问题,设 υ ( α ) 是问题(3.5)的最优值函数。

考虑两种情况:1) α = 0 ;2) α 0 并且 1 α S

1) 设 H u ( x ) 是测度P0 H ( x , ξ ) 的本质上确界,即

H u ( x ) = inf { t R : Pr ~ P 0 { H ( x , ξ ) > t } = 0 } ,

然后构造一个分布序列 P j P 0 集中趋于 H u ( x ) ,进而构造 L j ( ξ ) L 0 ,使得当 j + 时, E P 0 [ H ( x , ξ ) L j ( ξ ) ] 趋于 H u ( x ) 。因此, υ ( α ) = H u ( x )

2) 定义函数

F ( L ( ξ ) ) : = E P 0 [ H ( x , ξ ) L ( ξ ) α L ( ξ ) log L ( ξ ) ] ,

G ( L ( ξ ) ) : = E P 0 [ L ( ξ ) ] 1 ,

其中, F ( L ( ξ ) ) 关于 L ( ξ ) 是凸的, G ( L ( ξ ) ) 关于 L ( ξ ) 是线性的。因此可以计算函数的导数。对于在 L ( ξ ) 任意可行方向 V ( ξ )

D F ( L ( ξ ) ) V ( ξ ) = F ( L ( ξ ) ) + t V ( ξ ) F ( L ( ξ ) ) t = lim t 0 E P 0 [ H ( x , ξ ) ( L ( ξ ) + t V ( ξ ) ) α ( L ( ξ ) + t V ( ξ ) log L ( ξ ) ) ] t E P 0 [ H ( x , ξ ) L ( ξ ) α L ( ξ ) log L ( ξ ) ] t = lim t 0 E P 0 [ H ( x , ξ ) V ( ξ ) ] α lim t 0 E P 0 [ E P 0 [ ( L ( ξ ) + t V ( ξ ) ) log ( L ( ξ ) + t V ( ξ ) ) L ( ξ ) log L ( ξ ) ] t ]

对于任意可行的y和 V ( ξ ) ,函数 k ( t ) = y + t V ( ξ ) log ( y + t V ( ξ ) ) y log y t 是关于t单调的,因此,通过单调收敛定理 [16] ,可以得到

D F ( L ( ξ ) ) V ( ξ ) = E P 0 [ H ( x , ξ ) V ( ξ ) ] E P 0 [ lim t 0 L ( ξ ) + t V ( ξ ) log ( L ( ξ ) + t V ( ξ ) ) L ( ξ ) log L ( ξ ) t ] = E P 0 [ H ( x , ξ ) V ( ξ ) ] α E P 0 [ ( log L ( ξ ) + 1 ) V ( ξ ) ] = E P 0 [ ( H ( x , ξ ) α ( log L ( ξ ) + 1 ) ) V ( ξ ) ]

类似地,可以得到

D F ( L ( ξ ) ) V ( ξ ) = E P 0 [ V ( ξ ) ] ,

问题(3.5)的拉格朗日函数如下:

l ( L ( ξ ) , λ ) = E P 0 [ H ( x , ξ ) L ( ξ ) ] α L ( ξ ) log L ( ξ ) + λ E P 0 [ L ( ξ ) 1 ] = E P 0 [ H ( x , ξ ) L ( ξ ) α L ( ξ ) log L ( ξ ) + λ L ( ξ ) ] λ

命题3.1 [16] 如果存在 ( L * ( ξ ) , λ * ) ,使得 L * ( ξ ) L 0 G ( L * ( ξ ) ) = 0 并且

L * ( ξ ) arg max L ( ξ ) L 0 l ( L ( ξ ) , λ * ) (3.6)

因此这个问题简化为解决问题(3.6),则 L * ( ξ ) 是问题(3.5)的最优解。问题(3.6)是一个本质上没有约束的凸优化问题。因此,它的最优解应该是某种意义上的驻点,即它应该强制 l ( L ( ξ ) , λ ) 的导数在某种意义上为零。由导数的表达式和导数算子的线性,得到

D l ( L ( ξ ) , λ ) V = E P 0 [ ( H ( x , ξ ) α ( log L ( ξ ) + 1 ) + λ ) V ]

命题3.2 [15] 假设 L ( ξ ) = L * ( ξ , λ ) 满足 H ( x , ξ ) α ( log L ( ξ ) + 1 ) + λ = 0 ,也就是 D l ( L ( ξ ) , λ ) = 0 (即 D l ( L ( ξ ) , λ ) 是零线性算子)那么 l ( L ( ξ , λ ) , λ ) < + ,并且

L * ( ξ , λ ) arg max L ( ξ ) L 0 l ( L ( ξ ) , λ ) ,

证明:由 H ( x , ξ ) α ( log L ( ξ ) + 1 ) + λ = 0 可得, e H ( x , ξ ) + λ α 1 = L ( ξ ) ,将其带入

G ( L * ( ξ ) ) = E P 0 [ L ( ξ ) ] 1 = 0 ,

得到

E P 0 [ e H ( x , ξ ) + λ α 1 ] 1 = 0 ,

该期望函数可变形为

e E P 0 [ H ( x , ξ ) + λ α 1 ] = 1 ,

E P 0 [ H ( x , ξ ) ] = α λ

得到

λ = α E P 0 [ H ( x , ξ ) ] ,

再将 H ( x , ξ ) α ( log L ( ξ ) + 1 ) + λ = 0 变形

L ( ξ ) = e λ α α e H ( x , ξ ) α ,

又由 L ( ξ ) = L * ( ξ , λ ) ,也就是最优解的形式为

L * ( ξ , λ ) = L ( ξ ) = e λ α α e H ( x , ξ ) α .

命题3.2表明优化问题(3.5)的最优目标值是有限的,还得出最优解的形式为

L * ( ξ , λ ) = e λ α α e H ( x , ξ ) α ,

λ * = α log E P 0 [ e H ( x , ξ ) α ] + α ,可以得到 G ( L * ( ξ ) , λ * ) = 0

L * ( ξ ) = L * ( ξ , λ * ) = e H ( x , ξ ) α E P 0 [ e H ( x , ξ ) α ]

由上述给出的 L * ( ξ ) λ * ,满足Bonnans等人提出的命题3.3的条件 [16] ,这表明 L * ( ξ ) 可以求解问题(3.5)。将 L * ( ξ ) 代入问题(3.5),得到问题(3.5)的最优值函数:

υ ( α ) = α log E P 0 [ e H ( x , ξ ) α ] + α η (3.7)

当假设1成立时,对于 x X ,总存在 α > 0 ,使得问题(3.7)有限,这说明问题(3.5)的最优值函数是有限的。进一步结合两种情况,得到以下定理

定理1 若假设1成立且不确定集为 L ,则问题(3.2)等价于

min α 0 f ( α ) = α log E P 0 [ e 1 ( 0 , + ) ( ϕ ( ξ ) x y 2 ε ) α ] + α η (3.8)

综上问题(2.1)可以等价转化为

min x X x 1 s . t . inf α 0 f ( α ) β (3.9)

其中, f ( α ) 由式(3.8)定义。

4. 总结及展望

这篇文章的主要内容是将一个l1-范数问题建模为分布鲁棒优化问题,并通过使用KL-散度、函数变换以及内部最大化期望函数等方法,得到了分布鲁棒优化问题的等价形式。

文章可能首先介绍了压缩感知模型的背景,包括l1-范数问题模型,但其由于不易判断矩阵的有限等距性(RIP)以及观测矩阵的不确定性,需要将其建模为分布鲁棒优化问题等。接着,文章阐述建模的过程,包括如何利用KL-散度和函数变换来对l1-范数问题进行转换,并通过内部最大化期望函数等方法得到等价形式。

应用分布鲁棒优化问题模型方法对于解决l1-范数问题,可以进一步转化为凸优化问题,进而应用凸优化问题解决方法,未来可以探索例如转化为CVaR模型,并考虑使用内点法或梯度下降法等算法解决。相信以后在这个领域会有更深入的理解和探索。

在问题适用性方面,该方法建模为分布鲁棒优化问题的适用性可能受到特定问题结构和数据分布的限制;在计算复杂性角度方面,因为在实际应用中,由于使用了KL-散度、函数变换等方法,可能导致算法的计算复杂性较高;在参数敏感性方面且方法中可能存在一些参数,对于这些参数的选择可能对最终结果产生较大影响。

今后研究方向和改进方向的改进,可以研究如何优化算法,降低计算复杂性,使方法更适用于大规模数据和实时应用;可以探索方法中参数的自适应性,减少对目标的参数调整需求,提高方法的易用性;可以加强对方法理论基础的研究,确保方法在不同场景下的有效性,并探索更一般化的问题建模方法。

文章引用

李达臣. 压缩感知中的分布鲁棒优化模型及其求解方法
Distributed Robust Optimization Model and Its Solution Method in Compressed Sensing[J]. 应用数学进展, 2024, 13(03): 1036-1045. https://doi.org/10.12677/aam.2024.133098

参考文献

  1. 1. Tropp, J.A. and Gilbert, A.C. (2007) Signal Recovery from Random Measurements via Orthogonal Matching Pursuit. IEEE Transactions on Information Theory, 53, 4655-4666. https://doi.org/10.1109/TIT.2007.909108

  2. 2. Wang, J., Kwon, S. and Shim, B. (2012) Generalized Orthogonal Matching Pursuit. IEEE Transactions on Signal Pro-cessing, 60, 6202-6216. https://doi.org/10.1109/TSP.2012.2218810

  3. 3. Wright, S.J., Nowak, R.D. and Figueiredo, M.A.T. (2009) Sparse Reconstruction by Separable Approximation. IEEE Transactions on Signal Processing, 57, 2479-2493. https://doi.org/10.1109/TSP.2009.2016892

  4. 4. Chen, S.S., Donoho, D.L. and Saunders, M.A. (2001) Atomic Decomposition by Basis Pursuit. SIAM Review, 43, 129-159. https://doi.org/10.1137/S003614450037906X

  5. 5. Candès, E.J., Romberg, J. and Tao, T. (2006) Robust Uncertainty Principles: Exact Signal Reconstruction from Highly Incomplete Frequency Information. IEEE Transactions on Information Theory, 52, 489-509. https://doi.org/10.1109/TIT.2005.862083

  6. 6. Gui, G., Wan, Q., Peng, W., et al. (2010) Sparse Multipath Channel Estimation Using Compressive Sampling Matching Pursuit Algorithm. arXiv:1005.2270.

  7. 7. Goldstein, T. and Osher, S. (2009) The Split Bregman Method for L1-Regularized Problems. SIAM Journal on Imaging Sciences, 2, 323-343. https://doi.org/10.1137/080725891

  8. 8. Zhang, J., Zhao, D., Zhao, C., et al. (2012) Image Compressive Sensing Recovery via Collaborative Sparsity. IEEE Journal on Emerging and Selected Topics in Circuits and Systems, 2, 380-391. https://doi.org/10.1109/JETCAS.2012.2220391

  9. 9. Zhang, J., Zhao, D., Zhao, C., et al. (2012) Compressed Sensing Recovery via Collaborative Sparsity. 2012 Data Compression Conference, Snowbird, 10-12 April 2012, 287-296. https://doi.org/10.1109/DCC.2012.71

  10. 10. Donoho, D.L. (2006) Compressed Sensing. IEEE Transactions on Information Theory, 52, 1289-1306. https://doi.org/10.1109/TIT.2006.871582

  11. 11. 聂操男. 压缩感知中的概率约束优化模型的光滑近似[D]: [硕士学位论文]. 大连: 辽宁师范大学, 2019.

  12. 12. 陈苗. 一类含有l1范数优化问题的梯度类算法[D]: [硕士学位论文]. 青岛: 青岛大学, 2020.

  13. 13. 屈彪, 张文伟, 于丽超. 线性方程组l1范数问题的松弛投影算法及其应用[J]. 运筹学学报, 2017, 21(2): 57-65.

  14. 14. 王榆. 基于修正的χ2-距离散度的不确定概率优化问题[D]: [硕士学位论文]. 大连: 辽宁师范大学, 2016.

  15. 15. Hu, Z. and Hong, L.J. (2013) Kullback-Leibler Divergence Constrained Distributionally Robust Optimization. Optimization Online, 1, 9.

  16. 16. Shapiro, A., Dentcheva D. and Ruszczyński, A. (2009) Lectures on Stochastic Programming. Society for Industrial and Applied Mathematics. https://doi.org/10.1137/1.9780898718751

期刊菜单