Artificial Intelligence and Robotics Research
Vol. 11  No. 02 ( 2022 ), Article ID: 50405 , 11 pages
10.12677/AIRR.2022.112009

基于低秩高阶张量逼近的图像视频恢复

王智豪1,刘彦2

1西南大学,数学与统计学院,重庆

2重庆市市场监督管理档案信息中心,重庆

收稿日期:2022年2月15日;录用日期:2022年4月13日;发布日期:2022年4月20日

摘要

图像视频恢复是计算机视觉中一项基本但关键的任务,近年来得到了广泛的研究。然而,现有的方法存在着不可避免的缺点:有些需要预定义秩,有些则无法处理高阶数据。为了克服这些缺点,本文利用图像视频数据通常具有的低秩性,采用低秩高阶张量逼近方法实现在混合噪音的环境下的彩色视频恢复。首先,本文建立了一个高阶张量代数框架。基于该框架,通过设计近端算子,提出了一种新的低秩高阶张量逼近(LRHA)方法,旨在从被高度污染的阶张量数据中恢复出潜在的低秩部分,从而完成图像视频恢复任务。设计了相应的算法,并且针对多项图像视频恢复任务的实验结果表明,LRHA方法在处理相应问题方面具有优越性。

关键词

图像视频恢复,低秩高阶张量逼近,核范数,张量奇异值分解

Image and Video Recovery Based on Low-Rank High-Order Tensor Approximation

Zhihao Wang1, Yan Liu2

1School of Mathematics and Statistics, Southwest University, Chongqing

2Market Supervision and Administration Archives Information Center, Chongqing

Received: Feb. 15th, 2022; accepted: Apr. 13th, 2022; published: Apr. 20th, 2022

ABSTRACT

Image and video recovery is a basic but key task in computer vision and has been widely studied in recent years. However, existing methods have inevitable disadvantages: some require pre-defined rank, while others cannot handle high-order data. In order to overcome these shortcomings, this paper uses the low-rank high-order tensor approximation method to realize color video recovery in mixed noise environment. Firstly, a high-order tensor algebraic framework is established. Based on the framework, a new low-rank high-order tensor approximation (LRHA) method is proposed by designing a proximal operator to recover potential low-rank parts from highly contaminated tensor data, so as to complete the task of image and video restoration. And the corresponding algorithm was designed. Experimental results of image and video restoration tasks show that LRHA has advantages in dealing with corresponding problems.

Keywords:Image and Video Recovery, Low-Rank High-Order Tensor Approximation, Nuclear Norm, Tensor Singular Value Decomposition

Copyright © 2022 by author(s) and Hans Publishers Inc.

This work is licensed under the Creative Commons Attribution International License (CC BY 4.0).

http://creativecommons.org/licenses/by/4.0/

1. 引言

随着数据科学和计算机硬件能力的发展,人们处理大数据量的高维张量成为可能。张量是多维数据建模的强大工具,如彩色图像、视频、高光谱图像等。以图像和视频数据为代表的高阶张量数据在传输过程中,数据会不可避免地受到各种噪声环境的影响,例如:椒盐噪声、高斯噪声、泊松噪声等,从被污染的图像视频中恢复干净数据成为图像视频处理的一个基本和必要的步骤。通常的恢复处理过程利用了数据固有的先验特征,如低秩性、稀疏性和局部相似性 [1] [2] [3]。其中基于低秩的方法,例如低秩矩阵逼近(LRMA)和低秩张量逼近(LRTA) [4] [5],近年已经得到广泛的研究。

主成分分析(PCA)方法是处理恢复问题的一种基本的低秩矩阵逼近方法,为了提高PCA模型的鲁棒性,Candes提出了鲁棒主成分分析(RPCA)方法 [6]。然而,低秩矩阵逼近的主要问题是仅限于处理矩阵数据,无法恢复或者要经过特殊处理才能恢复张量数据。将基于矩阵的方法拓展为3阶的张量情况需要能够处理张量的基本数学工具,这里与矩阵的情况不同,张量秩的定义到目前为止不是唯一的。至今,研究人员已经给出了多种张量秩定义以及对应的凸松弛。其中,CP秩 [7] 依赖于CP分解,它的值是张量分解后秩一张量的具体数目。然而,CP秩的精确计算已被证明是NP­hard。Tucker秩 [8] 受到更广泛的应用,并且Liu等提出了SNN方法作为Tucker秩的凸替代,但是SNN仍然不是Tucker秩的紧凸替代。除此之外,还有其他的张量秩定义,比如张量环秩、张量链秩等,可以参考文献 [9] [10] [11]。特别的,Kilmer等 [12] 将张量作为一个整体来研究张量的奇异值分解(t-SVD)。在此基础上,Lu等 [13] 提出了张量主成分分析(TRPCA)方法使得我们可以在特定的条件下从观察到的三阶张量 X n 1 × n 2 × n 3 中恢复低秩部分 L 和稀疏部分 E 。TRPCA和这一类的基于核范数的低秩张量逼近方法 [14] [15] [16] 能在保持数据结构完整的前提下有效地解决实际问题。

虽然这些方法普遍取得了良好的成果,但仍有两个主要挑战:1) 一些现有的低秩逼近方法可能需要预先定义秩的值;2) 这些方法主要处理矩阵和3阶张量数据,虽然一些低秩张量逼近方法可以通过重塑数据来处理高阶数据,但是这种处理会破坏数据的全局空间结构。鉴于上述缺点,本文利用 [17] 中提出的启发式的处理高阶张量的循环思想,设计了高阶张量的代数框架和相应的高阶张量SVD分解方法。同时,定义了一个新的张量正向秩以及高阶张量核范数。最后基于上述要素,本文设计出全新的低秩高阶张量逼近方法(LRHA),它能够从高阶张量数据(阶数 p 3 )中恢复出潜在的低秩部分。具体表达形式为: X p = L p + E p + G p ,其中 L p 是目标低秩张量, E p 为稀疏误差项, G p 为高斯噪声项。

本工作的贡献总结如下:1) 推导出高阶张量的共轭性质,并将其应用于张量积和张量奇异值分解运算,这种改进相对于不加共轭的原方法将节省一定计算成本;2) 利用提出的基于张量正向秩的张量核范数,成功地完善了LRHA所需的代数框架并给出了完整算法;3) 通过对多项图像视频的恢复任务验证了LRHA方法的恢复能力,理论上可以从任意维数的观测数据中恢复低正向秩部分。

2. 符号和数学框架

2.1. 符号

本节介绍了文中使用的一些符号。实数域和复数域分别记为 。本文用黑体欧拉字母表示张量,上标表示张量的相应维数,例如一个p阶张量可以记为 A p n 1 × n 2 × × n p ,矩阵用黑体大写字母表示,例如 A ,向量以黑体小写字母表示,例如 a ,用小写字母表示标量,例如a。已知一个阶3张量 A 3 n 1 × n 2 × n 3 可以看成是矩阵的组合,称之为切片。对于任意p阶张量 A p n 1 × n 2 × × n p 也可以看成是低维张量的组合,本文称之为子张量,它通过固定原始张量的部分维数而得到。由于本文对高阶张量的处理一般从最后一个维度逆向一直到倒数第二个维度为止,将 A p i ( : , , : , i p i + 1 , , i p ) 简写为 A p i ( i p i + 1 , , i p ) i = 1 : p 2 。特别的, A p 的正向切片定义为 A 2 ( : , : , i 3 , , i p ) ,它是一个二阶子张量并且可以被记为 A ( i 3 , , i p ) 。并且本文称大小为 1 × 1 × n 3 × × n p 的子张量 A p 2 ( i , j , : , , : ) 为管子张量。对于任意 A p n 1 × n 2 × × n p ,它的复共轭定义为 c o n j ( A p )

即取 A p 每一个元素的复共轭。本文定义p阶张量的 l 1 -范数为 A p 1 = i 1 , i 2 , , i p | a i 1 , i 2 , , i p | ,无穷范数定义为 A p = max i 1 , i 2 , , i p | a i 1 , i 2 , , i p |

2.2. DFT共轭性质

离散傅里叶变换(DFT)在本文算法运算时起着核心作用。已知对 a n 的傅里叶变换后结果为 a ¯ ,记为 a ¯ = F n a n ,其中 F n 是DFT矩阵,已知 a 的循环矩阵可以用DFT矩阵对角化,

F n c i r c ( a ) F n 1 = d i a g ( a ¯ )

其中 d i a g ( a ¯ ) 表示一个对角矩阵,其第i个对角项为 a ¯ i

引理2.1 对于 A p n 1 × n 2 × × n p ,张量 A ¯ p n 1 × n 2 × × n p A ¯ p = f f t ( A p , [ ] , i ) ,i从3到p。 A ¯ p n 1 n 3 n p × n 2 n 3 n p 是一个块对角矩阵,它的第 ( i 3 , i 4 , , i p ) 对角块 A ¯ ( i 3 , i 4 , , i p ) A ¯ 的第 ( i 3 , i 4 , , i p ) 正向切片,我们有,

{ A ¯ ( 1 , 1 , , 1 ) n 1 × n 2 c o n j ( A ¯ ( n 3 i 3 + 2 , 1 , , 1 ) ) = A ¯ ( i 3 , 1 , , 1 ) , c o n j ( A ¯ ( n 3 , n 4 i 4 + 2 , 1 , , 1 ) ) = A ¯ ( i 3 , i 4 , 1 , , 1 ) ,          c o n j ( A ¯ ( n 3 , n 4 , 1 , , n p i p + 2 ) ) = A ¯ ( i 3 , i 4 , , i p 1 , i p ) , (2.1)

n j = { 1 , i j = 1 , n j i j + 2 , i j 1. i k = 1 , , n k i l = 2 , , n k + 1 2 l = 3 , , p j , k = 3 , , p 1

上述引理的证明使用到了块循环矩阵 A ˜ p n 1 n 3 n 4 n p × n 2 n 3 n 4 n p 可通过傅里叶变换对角化的性质,即

A ¯ p = ( F n p F n p 1 F n 3 I n 1 ) A ˜ p ( F n p * F n p 1 * F n 3 * I n 2 )

对于 A ¯ ( i 3 , i 4 , , i p ) 的任意元素,我们都能根据(2.1)的索引在 A ¯ 的某一个相应的正向切片中找到它的共轭。令 F = F n p F n p 1 F n 3 F * = F n p * F n p 1 * F n 3 * ,上面的等式可以简记 A ¯ p = ( F I n 1 ) A ˜ p ( F * I n 2 ) 。其中

A ˜ p = [ A ˜ p 1 ( 1 ) A ˜ p 1 ( n p ) A ˜ p 1 ( 2 ) A ˜ p 1 ( 2 ) A ˜ p 1 ( 1 ) A ˜ p 1 ( 3 ) A ˜ p 1 ( n p ) A ˜ p 1 ( n p 1 ) A ˜ p 1 ( 1 ) ]

A ˜ p 1 ( i p ) n 1 n 3 n 4 n p 1 × n 2 n 3 n 4 n p 1

A ˜ p 1 ( i p ) = [ A ˜ p 2 ( 1 , i p ) A ˜ p 2 ( n p 1 , i p ) A ˜ p 2 ( 2 , i p ) A ˜ p 2 ( 2 , i p ) A ˜ p 2 ( 1 , i p ) A ˜ p 2 ( 3 , i p ) A ˜ p 2 ( n p 1 , i p ) A ˜ p 2 ( n p 1 1 , i p ) A ˜ p 2 ( 1 , i p ) ]

2.3. 代数框架

对于 A p n 1 × n 2 × × n p ,本文定义

u n f o l d ( A p ) = [ A p 1 ( 1 ) A p 1 ( 2 ) A p 1 ( n p ) ] f o l d ( u n f o l d ( A p ) ) = A p

u n f o l d 算子将 A p 按照第p维度展开为 n p 个大小为 n 1 × n 2 × × n p 1 的张量且 f o l d 是它的逆算子。

t c i r c ( A p ) = A ˜ p t u n f o l d ( A p ) = A ^ p = [ A ^ p 1 ( 1 ) A ^ p 1 ( 2 ) A ^ p 1 ( n p ) ] A ^ p 1 ( i p ) = [ A ^ p 2 ( 1 , i p ) A ^ p 2 ( 2 , i p ) A ^ p 2 ( n p 1 , i p ) ]

其中 A ^ 2 ( i 3 , i 4 , , i p ) A ( i 3 , i 4 , , i p )

t c i r c 算子将 A p 展开为它的块循环矩阵 A ˜ p t u n f o l d 算子将 A p 展开为大小为 n 1 n 3 n p × l 的矩阵且

t f o l d 是它的逆算子 t f o l d ( t u n f o l d ( A ^ p ) ) = A p

定义2.1 令 A p n 1 × n 2 × × n p , B p n 2 × l × n 3 × × n p 。那么张量积 C p = A p B p C p 是大小为 n 1 × l × n 3 × × n p 的p阶张量,

C p = A p B p = t f o l d ( t c r i c ( A p ) t u n f o l d ( B p ) )

引理2.1提供了一种更有效的方法来计算高阶张量积。例如, A p n 1 × n 2 × 5 × 5 × 5 B p n 2 × l × 5 × 5 × 5 是两个5阶张量。如果想要得到它们之间的乘积,按标准方法需要125次矩阵乘积。但如果使用共轭性质,我们只需要计算63次乘积。

定义2.2 令 A p n 1 × n 2 × × n p ,它的共轭转置为 A p n 2 × n 1 × n 3 × × n p ,即

A p = f o l d ( [ A p 1 ( 1 ) A p 1 ( n p ) A p 1 ( 2 ) * ] )

定义2.3 令 I p n × n × n 3 × × n p ,当它的第一个正向切片为大小为 n × n 的单位矩阵其他切片全为0时称它为单位张量。对于合适大小的 A p A p I p = A p , I p A p = A p

定义2.4 令 Q p n × n × n 3 × × n p ,若 Q p Q p = Q p Q p = I p ,便称这个实值张量是一个p阶正交张量。

定义2.5 如果张量的每一个正向切片都是对角矩阵,则该张量称为f-对角张量。

定理2.6 令 A p n 1 × n 2 × × n p 是一个p阶实值张量。那么 A p 能被分解为

A p = U p S p V p *

其中 U p n 1 × n 1 × n 3 × × n p V p n 2 × n 2 × n 3 × × n p 是正交张量,且 S p n 1 × n 2 × n 3 × × n p 是一个f-对角张量。

已知矩阵的奇异值具有递减性质,在t-SVD的处理过程中,令 A p = U p S p V p S p 的第一个正向切片对角线上元素 S ( 1 , , 1 ) 具有相同的递减性质: i = 1 : n ( 2 ) n ( 2 ) = min ( n 1 , n 2 ) S i , i ( 1 , , 1 ) S i + 1 , i + 1 ( 1 , , 1 ) 。可以通过DFT的处理得到以下性质, L p = n 3 n 4 n p

S i , i ( 1 , , 1 ) = 1 L p i p = 1 n p i p 1 = 1 n p 1 i 3 = 1 n 3 S ¯ i , i ( i 3 , , i p ) (2.2)

定义2.7对于 A p n 1 × n 2 × × n p ,张量正向秩(或张量1,2维秩)为 r a n k f ( A p ) ,张量正向秩的值为 S p 的非零管子张量的个数,它们是通过对 A p 进行t-SVD得到的,即

r a n k f ( A p ) = # { S i , i ( : , , : ) 0 } (2.3)

实际上张量正向秩等于 S p ( i , i , 1 , , 1 ) 非零项的个数。显然,我们可以通过旋转张量即改变张量模式(mode)的排列顺序得到类似的秩。例如,p阶张量 A p 的1,4维秩( r a n k 1 , 4 )是通过固定一维和四维,然后进行t-SVD得到的。从图1可以看出,无论t-SVD是基于一个相对较低的正向秩还是基于1,4维秩,都可以在很小的相应秩的情况下很好地逼近原始视频,这证明了图像视频数据通常有一定的低秩性,从而保证低秩高阶张量逼近的合理性。

(a) 原始视频的特定帧 (b) 30正向秩PSNR = 36.1 (c) 10 1,4维秩PSNR = 45.7

Figure 1. Color video can be approximated by a low-rank tensor

图1. 彩色视频可以用低秩张量近似

定义2.8 令 A p = U p S p V p 作为 A p n 1 × n 2 × × n p 的t-SVD结果。 A p 的张量核范数定义为

A p : = i = 1 r S i , i ( 1 , , 1 ) (2.4)

其中 r = r a n k f ( A p )

3. 低秩高阶张量逼近(LRHA)算法

本文最初的问题是从高度污染的测量值 X p = L p + E p + G p 中恢复所需要的低秩张量 L p E p 为稀疏误差项而 G p 为高斯噪声项。这一节将展示了求解该问题算法的详细过程,为了公式简洁,在本节中略去张量右上角的标识。本文采用标准的交替方向乘子法(ADMM)来解决目标问题,首先将原问题具体表示为:

min L , E , G L + λ E 1 + α G F 2 , s .t . L + S + G = X (3.1)

其中 μ , λ 是事先预定好的平衡参数。 L 是潜在的低秩张量, E 是稀疏误差, G 是高斯噪声项。下面给出原问题的增广拉格朗日函数:

L ρ ( L , E , G ; Y ) = L + λ E 1 + α G F 2 + ρ 2 L + S + G X + Y ρ F 2 (3.2)

其中 Y 是拉格朗日乘子, ρ > 0 是正惩罚参数。总的ADMM算法见算法1。

3.1. 更新 L

通过固定其他变量,更新 L 的子问题可以写作:

L k + 1 = arg min L 1 ρ k L + 1 2 L A k F 2 (3.3)

其中 A k = ( ρ k ( X E k G k ) Y k ) / 2 ρ k 。在三阶张量的情形下,可以将问题转化到矩阵奇异值阈值(SVT)解决。类似的,本文引入近端算子,从而使得上述问题等价于下式:

min X n 1 × n 2 × × n p τ X + 1 2 X Y F 2 (3.4)

根据高阶张量的分解过程,可以根据文献 [13] 得到SVT算子作为上式的封闭解。令 Y = U S V ,对于任意 τ > 0 ,t-SVT算子 D τ ( Y ) : = U S τ V ,其中 S τ = i f f t ( S ¯ , [ ] , i ) ,i从p到3。

3.2. 更新 E G

通过固定其他变量,更新 E 的子问题可以写作:

E k + 1 = arg min E λ ρ k E 1 + 1 2 E B k F 2 (3.5)

其中 B k = X L k + 1 G k + 1 + Y k / ρ k 。上式(3.5)的封闭解可以通过软阈值算子得到 [18],即

E k + 1 = S o f t λ / ρ k ( B k )

其中 S o f t ρ ( x ) : = s i g n ( x ) max { | x | ρ , 0 } 。类似的,更新 G 的子问题可以写作:

G = arg min G α G F 2 + ρ 2 G C F 2 (3.6)

其中 C = X L E Y / ρ 。(3.6)的封闭解为:

G = ρ ( C ) / ( ρ + 2 α )

4. 实验

在这一章中,本文应用LRHA进行多种视频恢复任务来验证该方法恢复高阶张量数据的能力,包括视频补全、视频去噪以及视频背景建模。为了实验的一致性,本文在所有实验中设置 λ = 1 / n ( 1 ) L p α = 10 。在实际应用中,对于不同的数据可以通过更仔细地调出不同的最优参数进一步提高性能。

4.1. 视频补全

在本节中,彩色视频被用来从部分观测项中进行低秩张量补全来评估本文的方法的实用性。张量补全相当于对于只受到椒盐噪声的张量进行恢复处理。本文使用yuv彩色视频数据1进行测试。对于实验中的每个视频序列,为了控制计算成本而使用前150帧进行测试,格式为网站提供的QCIF格式,其中每一帧大小为144 × 176 × 3。在缺失值的设置上,对于一个大小为的彩色视频张量,随机设置 m = 3 p h w f 个元素来观察,在本实验中,考虑 p = 0.3 p = 0.4 p = 0.5 。同时本文应用HaLRTC [8],TMac [19],NRTAC [20],TNN [13] 这四种先进的张量修补方法进行视频恢复,并比较它们的性能。在实验中,这些比较方法均使用了参考文献中建议的参数设置,其中TNN是将数据的前两个维度直接拼接,再进行3阶的张量补全。实验中用于判断视频补全质量标准的PSNR值计算公式为:

PSNR = 10 log 10 ( n 1 n 2 n 3 n 4 M 2 X ^ M F 2 )

越高的PSNR值证明恢复的效果越好。实验结果见表1,部分结果见图2图2中第一列为各个视频的样帧,第二列为该样帧特定采样率下的观测(比例为 p = 0.5 ),后列分别为HaLRTC,TMac,NRTAC,TNN和本文的方法恢复的结果。显然,无论是PSNR值还是直观的恢复效果,都是本文的方法最优的,证明了LRHA方法在张量补全上的适用性。

4.2. 视频去噪

本节应用LRHA对随机噪声干扰下的彩色视频图像进行恢复。考虑计算成本,每一个视频都被预先设置为大小为144 × 176 × 3 × 100的4阶张量。对于每一个视频,本文添加了 κ = 0.3 的脉冲噪声以及 σ = 0.01 的高斯噪声,同时本文应用基于SNN [21],TNN的两种高阶张量去噪方法进行比较,并且添加了LRHA的DCT变体(即傅里叶变换时的DFT矩阵替换为DCT矩阵)来验证共轭方法是否能节省计算成本。在实验中,这些比较方法均使用了参考文献中建议的参数设置,其中基于TNN的方法TRPCA仍然是将数据的前两个维度直接拼接,再进行3阶的去噪。

Figure 2. Comparison of video completion performance

图2. 视频补全表现比较

Table 1. PSNR values of different tensor completion methods

表1. 不同张量补全方法的PSNR指标

图3是视频去噪结果,第一列为视频样帧,第二列该样帧加噪后的观测,后列分别为SNN,TRPCA,本文的方法以及它的DCT变体恢复的结果。从实验结果表2图3可以看出以下几点:首先基于Tucker秩的SNN方法在时间以及PSNR指标上都要次于基于管秩的TNN方法,其原因主要是因为SNN并不是目标的凸包络,以及Tucker方法普遍耗时;本文的方法与TRPCA相比,时间上要稍微长一些,原因是高阶张量的t-SVD需要更多的傅里叶变换过程,但由于LRHA相较而言能够充分利用空间结构信息,恢复效果普遍优于TRPCA;使用共轭方法的LRHA­DFT在恢复效果上接近于DCT变体,但在时间指标上具有明显的提升。

Figure 3. Comparison of video denoising performance

图3. 视频去噪表现比较

Table 2. PSNR comparison of video denoising

表2. 视频去噪PSNR比较

4.3. 视频背景建模

本节应用LRHA对随机噪声干扰下的彩色视频图像进行背景建模处理。本节数据为I2R数据2,为了得到较好的背景建模效果,每一个视频都被预先设置为大小为h × w × 3 × 300的4阶张量,并添加了 κ = 0.3 的脉冲噪声以及 σ = 0.01 的高斯噪声,由于处理前的前景已经受到噪声污染,后文的前景图像是通过恢复的背景图像与干净图像直接相减得到的。图4展示了LRHA方法对不同视频进行背景建模的结果,每一列从上到下依次为:原始图像,噪声图像,前景,背景。可以看出该方法能够在复杂噪声情况下能够去除噪声以及运动中的人物,从而较好地完成背景建模任务。

Figure 4. Background modeling results

图4. 背景建模结果

5. 总结

本文提出了一种新的低秩高阶张量逼近方法,利用高阶张量代数框架将原本只能作用于2阶或者3阶数据的低秩逼近方法拓展到任意维度,并设计了完整的算法。该方法与传统低维方法的优势在于能够利用张量整体结构信息。张量补全、张量去噪、张量背景建模实验证明了本文的方法可以在采用适当参数的前提下,有效地对以彩色视频为代表的高阶张量进行恢复处理,为对应现实问题提供了一种实用的解决方案。

致谢

感谢导师的精心指导以及各位同门在百忙之中提供的无私帮助,感谢测试数据所有者的无私奉献。在论文的写作过程中引用了学界大量的研究成果,在此谨向这些成果的作者表示衷心的感谢。

文章引用

王智豪,刘 彦. 基于低秩高阶张量逼近的图像视频恢复
Image and Video Recovery Based on Low-Rank High-Order Tensor Approximation[J]. 人工智能与机器人研究, 2022, 11(02): 73-83. https://doi.org/10.12677/AIRR.2022.112009

参考文献

  1. 1. Dong, W., Li, X., Zhang, L. and Shi, G. (2011) Sparsity­Based Image Denoising via Dictionary Learning and Structural Clustering. Conference on Computer Vision and Pattern Recognition 2011, Colorado Springs, 20-25 June 2011, 457-464. https://doi.org/10.1109/CVPR.2011.5995478

  2. 2. Liu, Y. and Wang, Z. (2015) Simultaneous Image Fusion and Denoising with Adaptive Sparse Representation. IET Image Processing, 9, 347-357.

  3. 3. Rajpoot, N. and Butt, I. (2012) A Multiresolution Framework for Local Similarity Based Image Denoising. Pattern Recognition, 45, 2938-2951. https://doi.org/10.1016/j.patcog.2012.01.023

  4. 4. Goldfarb, D. and Qin, Z. (2014) Robust Low­Rank Tensor Recovery: Models and Algorithms. SIAM Journal on Matrix Analysis and Applications, 35, 225-253. https://doi.org/10.1137/130905010

  5. 5. Wright, J., Ganesh, A., Rao, S., Peng, Y. and Ma, Y. (2009) Robust Principal Component Analysis: Exact Recovery of Corrupted Low­Rank Matrices via Convex Optimization. Advances in Neural Information Processing Systems, 22, 2080-2088.

  6. 6. Candès, E.J., Li, X., Ma, Y. and Wright, J. (2011) Robust Principal Component Analysis? Journal of the ACM, 58, Article No. 11. https://doi.org/10.1145/1970392.1970395

  7. 7. Kiers, H.A.L. (2000) Towards a Standardized Notation and Terminology in Multiway Analysis. Journal of Chemometrics, 14, 105-122.

  8. 8. Liu, J., Musialski, P., Wonka, P. and Ye, J. (2013) Tensor Completion for Estimating Missing Values in Visual Data. IEEE Transactions on Pattern Analysis and Machine Intelligence, 35, 208-220. https://doi.org/10.1109/TPAMI.2012.39

  9. 9. Liu, X., Jing, X.­Y., Tang, G., Wu, F. and Dong, X. (2020) Low­Rank Tensor Completion for Visual Data Recovery via the Tensor Train Rank­1 Decomposition. IET Image Processing, 14, 114-124.

  10. 10. Liu, Y. and Long, Z. (2019) Image Completion Using Low Tensor Tree Rank and Total Variation Minimization. IEEE Transactions on Multimedia, 21, 338-350. https://doi.org/10.1109/TMM.2018.2859026

  11. 11. Oseledets, I.V. (2011) Tensor-Train Decomposition. SIAM Journal on Scientific Computing, 33, 2295-2317. https://doi.org/10.1137/090752286

  12. 12. Semerci, O., Hao, N., Kilmer, M.E. and Miller, E.L. (2014) Tensor­Based Formulation and Nuclear Norm Regularization for Multienergy Computed Tomography. IEEE Transactions on Image Processing, 23, 1678-1693. https://doi.org/10.1109/TIP.2014.2305840

  13. 13. Lu, C., Feng, J., Chen, Y., Liu, W., Lin, Z. and Yan, S. (2020) Tensor Robust Principal Component Analysis with a New Tensor Nuclear Norm. IEEE Transactions on Pattern Analysis and Machine Intelligence, 42, 925-938. https://doi.org/10.1109/TPAMI.2019.2891760

  14. 14. Feng, J., Yang, L.T., Dai, G., Wang, W. and Zou, D. (2019) A Secure High­Order Lanczos­Based Orthogonal Tensor SVD for Big Data Reduction in Cloud Environment. IEEE Transactions on Big Data, 5, 355-367. https://doi.org/10.1109/TBDATA.2018.2803841

  15. 15. Song, G., Ng, M.K., and Zhang, X. (2019) Robust Tensor Completion Using Transformed Tensor SVD. arXiv preprint arXiv:1907.01113.

  16. 16. Zhang, X. (2019) A Nonconvex Relaxation Approach to Low­Rank Tensor Completion. IEEE Transactions on Neural Networks and Learning Systems, 30, 1659-1671. https://doi.org/10.1109/TNNLS.2018.2872583

  17. 17. Martin, C.D., Shafer, R. and LaRue, B. (2013) An Order­P Tensor Factorization with Applications in Imaging. SIAM Journal on Scientific Computing, 35, A474-A490. https://doi.org/10.1137/110841229

  18. 18. Tibshirani, R. (1996) Regression Shrinkage and Selection via the Lasso. Journal of the Royal Statistical Society: Series B (Methodological), 58, 267-288. https://doi.org/10.1111/j.2517-6161.1996.tb02080.x

  19. 19. Xu, Y., Hao, R., Yin, W. and Su, Z. (2017) Parallel Matrix Factorization for Low­Rank Tensor Completion. Inverse Problems and Imaging, 9, 601-624. https://doi.org/10.3934/ipi.2015.9.601

  20. 20. Zhang, Z. and Aeron, S. (2016) Exact Tensor Completion Using T­SVD. IEEE Transactions on Signal Processing, 65, 1511-1526. https://doi.org/10.1109/TSP.2016.2639466

  21. 21. Huang, B., Mu, C., Goldfarb, D. and Wright, J. (2015) Provable Models for Robust Low­Rank Tensor Completion. Pacific Journal of Optimization, 11, 339-364.

  22. NOTES

    1http://trace.eas.asu.edu/yuv/.

    2http://perception.i2r.a­star.edu.sg/bkmodel/bkindex.html.

期刊菜单