Advances in Applied Mathematics
Vol. 11  No. 01 ( 2022 ), Article ID: 48440 , 8 pages
10.12677/AAM.2022.111052

基于双核范数最小化的低秩张量填充

张军,李峥儿,姜伟

辽宁师范大学数学学院,辽宁 大连

收稿日期:2021年12月26日;录用日期:2022年1月16日;发布日期:2022年1月28日

摘要

近年来,许多基于张量核范数的方法被提出解决张量填充的问题,并在图像和视频修复任务中受到了极大的关注。但是,核范数优化过程中会存在过度收缩问题。为了解决这个问题,通过可逆线性变换的张量积和张量奇异值分解,提出了基于张量分解的双核范数,证明了张量Schatten-p (p = 1/2)范数与张量双核范数的一致性,构造了双核范数正则化张量填充模型,并且通过交替方向乘子法求解优化模型。在合成数据和真实世界的数据集上的实验结果,可以看出所提出的算法比目前最优的张量填充方法更有效。

关键词

张量填充,张量分解,凸优化,交替方向乘子法

Robust Low-Rank Tensor Completion via Double Nuclear Norm Minimization

Jun Zhang, Zheng’er Li, Wei Jiang

School of Mathematics, Liaoning Normal University, Dalian Liaoning

Received: Dec. 26th, 2021; accepted: Jan. 16th, 2022; published: Jan. 28th, 2022

ABSTRACT

Recently, methods based on tensor nuclear norm are proposed to address the issue of tensor completion, which have received great attention in the inpainting tasks of image and video. However, excessive shrinkage problem exists in the process of nuclear norm optimization. In order to solve this issue, with tensor-tensor product and tensor singular value decomposition based on inverse linear transforms, tensor double nuclear norm based on tensor factorization is defined. We also prove that it is equivalent to tensor Schatten-p (p = 1/2) norm and propose a double nuclear norm regularized tensor completion (DNTC) model. ADMM is used to solve this optimization model. It’s shown that the proposed method is more accurate and effective than the state-of-the-art methods for tensor completion through the experimental results on synthetic and real data sets.

Keywords:Tensor Completion, Tensor Factorization, Convex Optimization, Alternating Direction Method of Multipliers

Copyright © 2022 by author(s) and Hans Publishers Inc.

This work is licensed under the Creative Commons Attribution International License (CC BY 4.0).

http://creativecommons.org/licenses/by/4.0/

1. 引言

张量 [1] 作为向量和矩阵的高阶推广,是多维数据应用的表达方式。例如,彩色图像可以被视为具有行、列和色彩通道的三阶张量,而灰度视频是具有两个空间模式和一个时间模式的三阶张量。分析高阶张量数据直观方法是将其转换为矩阵,利用矩阵的性质对数据进行分析,但这种转换通常会导致信息丢失和性能下降。高维数据分析技术充分利用了张量的多线性结构,为张量数据提供了统一的理论框架,可以实现高效的分析效果。实际上,张量数据可能会部分丢失或被严重损坏,需要构造有效模型恢复部分丢失与损坏的数据,由此引入张量填充问题 [2]。

T n 1 × n 2 × n 3 是三维观测张量, X n 1 × n 2 × n 3 是恢复的低秩张量,张量填充的模型为:

min X rank ( X ) s .t . P Ω ( X ) = P Ω ( T ) (1)

其中, rank ( X ) X 的秩函数, Ω { ( i , j , k ) | i { 1 , 2 , , n 1 } , j { 1 , 2 , , n 2 } , k { 1 , 2 , , n 3 } } T 的已知元素相对应的索引集, P Ω ( ) 为采样算子,定义为

P Ω ( X ) = { X i j k , if ( i , j , k ) Ω 0 , otherwise . (2)

基于不同的张量分解,定义不同张量秩,比如基于CANDECOMP/PARAFAC分解的CP秩 [3],基于Tucker分解 [4] 的Tucker秩,基于Tensor-Train分解 [5] 的TT秩,和基于张量奇异值分解的tubal秩 [6]。

CP秩定义为秩1张量分解的最小数量,其计算通常为NP-hard问题 [7]。张量Tucker秩是一个向量,其元素分别是沿着每种模展开矩阵的秩 [2]。TT秩是由均衡矩阵形成的矩阵的秩组成,即沿着模排列对张量进行矩阵化 [8]。近年来,通过对三阶张量进行傅里叶变换产生的张量积 [9],基于张量奇异值分解 [6],诱导出张量tubal秩 [10] [11]。张量tubal秩是张量中非零对角管(tubes)的个数。

直接最小化秩函数通常是NP-hard问题,基于张量秩的不同定义,提出了各种张量核范数作为张量秩替代。Friedland等 [10] 将张量核范数定义为CP秩的凸包络,但很难测量相对于CP秩的紧度。为了解决这个问题,刘等 [2] 给出了一种张量核范数定义为模展开矩阵核范数的和(Sum of Nuclear Norms, SNN)作为Tucker秩的凸包络。但是,SNN将高阶张量展开为矩阵,从而破坏了张量数据的内部结构。为了保持张量的结构,Semerci等人 [12],在傅立叶域中基于张量tubal秩,提出了一种新的张量核范数(Tensor Nuclear Norm, TNN)。随后,张等 [12] 人将TNN应用于张量填充,并获得了较好的图像与视频恢复效果。

尽管TNN具有完美的数学理论支撑,但是存在两个问题。首先,作为张量tubal秩的凸松弛,在优化TNN的过程中,对不同的奇异值减去相同域值,从而导致了等距收缩问题。其次,对高维张量数据进行奇异值分解,计算代价太高。使用非凸函数代替核范数作为秩函数的松弛,可以避免等距收缩问题。张量分解的方法,可以有效地降低计算复杂度。基于这两种思想,我们提出了基于双核范数最小化的低秩张量填充。首先给出张量双核范数的定义,然后证明张量双核范数等价于具体的张量Schatten-p (p = 1/2)范数 [13]。采用两个小的张量张量积表示原张量,从而避免解大张量奇异值问题。基于张量分解的思想,给出了相应的凸替换,将非凸问题转换为凸问题。由于对小张量进行奇异值分解,模型的计算复杂度会大大减少,并且每个子问题都有一个闭式解。

2. 张量基础

为了方便起见,用粗体小写字母粗体 a ,粗体大写字母 A 与粗体手写体字母 A 表示标量,矩阵和张量。对于 A n 1 × n 2 × n 3 ,第 ( i , j , k ) 个位置上的元素表示为 A ( i , j , k ) A i j k ,第i个水平切片、侧面切片与正面切片分别表示为 A ( i , : , : ) A ( : , i , : ) A ( : , : , i ) ,特别地,用 A ( i ) 表示第i个正面切片。第 ( i , j ) 个管可以用 A ( i , j , : ) 表示,它实际上是一个长度为 n 3 的向量。张量Frobenius范数定义为 A F = i j k A i j k 2 。令 L : n 1 × n 2 × n 3 n 1 × n 2 × n 3 是张量空间上的任意可逆线性变换,对 A 的每一个管纤维进行变换,可以得到 A ¯ = L ( A ) ,基于可逆线性变换,给出块对角矩阵和块循环矩阵的定义:

A ¯ = bdiag ( A ¯ ) = [ A ¯ ( 1 ) A ¯ ( 2 ) A ¯ ( n 3 ) ] , bcirc ( A ) = [ A ( 1 ) A ( n 3 ) A ( 2 ) A ( 2 ) A ( 1 ) A ( 3 ) A ( n 3 ) A ( n 3 1 ) A ( 1 ) ] (3)

此外,张量的展开、折叠算子定义如下:

unfold ( A ) = [ A ( 1 ) A ( 2 ) A ( n 3 ) ] , fold ( unfold ( A ) ) = A (4)

根据以上定义,给出张量核范数与张量tubal秩的定义。

定义1.1. (张量积) [10]:假设L是任意可逆线性变换, A n 1 × n 2 × n 3 B n 2 × n 4 × n 3 ,则基于L的张量积定义为 A L B = fold ( bcirc ( A ) unfold ( B ) )

定义1.2. (张量转置) [10]:假设L是任意可逆线性变换, A n 1 × n 2 × n 3 ,则 A 的转置 A 定义为 L ( A ) ( i ) = ( L ( A ) ( i ) ) , i = 1 , , n 3

定义1.3. (单位张量) [10]:假设L是任意可逆线性变换, I n 1 × n 2 × n 3 ,若 L ( I ) 的每一个正面切片都是 n × n 的单位矩阵,则 I 为单位张量。

定义1.4. (正交张量) [10]:假设L是任意可逆线性变换, Q n 1 × n 2 × n 3 ,如果满足 Q L Q = Q L Q = I ,则 Q 为正交张量。

定义1.5. (F-对角张量) [10]:假设L是任意可逆线性变换, A n 1 × n 2 × n 3 ,若 L ( A ) 的每一个正面切片都是对角矩阵,则为F-对角张量。

定理1.1. (张量奇异值分解) [10]:假设L是任意可逆线性变换, A n 1 × n 2 × n 3 ,则 A 可以分解成 A = U L S L V ,其中 U L U = I V L V = I S n 2 × n 2 × n 3 是F-对角张量。

定义1.6. (张量multi秩、tubal秩) [10]:假设L是任意可逆线性变换,满足 L L = L L = l I n 3 l > 0 ,给定 A n 1 × n 2 × n 3 ,将其奇异值分解 A = U L S L V ,则张量multi秩定义为

ran k m ( A ) = ( rank ( A ¯ ) ( 1 ) , , rank ( A ¯ ) ( n 3 ) ) (5)

张量tubal秩定义为 S 的非零奇异管的数量,即

rank t ( A ) = # { i , S ( i , i , : ) 0 } = # { i , S ( i , i , 1 ) 0 } (6)

定义1.7. (张量核范数) [10]:假设L是任意可逆线性变换, A n 1 × n 2 × n 3 ,将其进奇异值分解 A = U L S L V ,则张量核范数定义为 A * = S , I = i = 1 r S ( i , i , 1 ) ,其中r为 A 的tubal秩。

定理1.2. (张量奇异值阈值算子) [11]:对于任意 τ > 0 ,给定 Y n 1 × n 2 × n 3 ,则

min X τ X * + 1 2 X Y F 2 (7)

的解为 D τ ( Y ) = U L S τ L V ,其中 S τ = L 1 ( ( S ¯ τ ) + ) t + = max ( t , 0 )

3. 基于张量双核范数最小化的低秩张量填充

3.1. 双核范数

定义2.1:对于任意的张量 X n 1 × n 2 × n 3 ,其tubal秩 rank t ( X ) r X 可以被分解为两个张量的乘积,即 X = U L V ,其中 U n 1 × r × n 3 V n 2 × r × n 3 ran k t ( U ) = ran k t ( V ) = r 。则张量双核范数定义为

X T D N = min X = U L V 1 4 ( U * + V * ) 2 (8)

定理2.1:给定 U n 1 × r × n 3 V n 2 × r × n 3 X n 1 × n 2 × n 3 ,满足 X = U L V ran k t ( X ) r ,则有

X TDN = X S 1 / 2 (9)

其中, TDN 表示张量双核范数, S 1 / 2 表示张量Schatten-p范数。

3.2. 模型建立与求解

基于Schatten-p范数最小化的框架,张量双核范数正则化张量填充模型表示如下:

min U , V , X 1 2 ( U * + V * ) + 1 2 λ P Ω ( X T ) F 2 , s .t . X = U L V (10)

为了求解优化(13),使用交替方向乘子法,引入辅助变量 U ^ V ^ ,优化以下式子:

min U , V , X 1 2 ( U ^ * + V ^ * ) + λ 2 P Ω ( X T ) F 2 , s .t . X = U L V , U ^ = U , V = V (11)

增广拉格朗日函数为:

L μ ( U , V , X , U ^ , V ^ , { Y i } ) = 1 2 ( U ^ * + V ^ * ) + λ 2 P Ω ( X T ) F 2 + Y 1 , U U ^ + Y 2 , V V ^ + Y 3 , X U L V + μ 2 ( U U ^ F 2 + V V ^ F 2 + X U L V F 2 ) (12)

其中, Y 1 Y 2 Y 3 是拉格朗日乘子张量, μ > 0 是惩罚参数。使用交替方向乘子法更新。

1) 固定 V k U ^ k V ^ k X k Y 1 k Y 2 k Y 3 k ,更新 U k + 1

U k + 1 = arg min U Y 1 k , U U ^ k + Y 3 , X k U L V k + μ k 2 ( U U ^ k F 2 + X k U L V k F 2 ) (13)

令(16)对 U 求偏导并将等于0,则有

U k + 1 = ( μ k U ^ k Y 1 k + G L V k ) ( μ k I + μ V k L V k ) 1 (14)

其中, G = μ k X k + Y 3 k

2) 固定 U k + 1 U ^ k V ^ k X k Y 1 k Y 2 k Y 3 k ,更新 V k + 1 ,同理,有

V k + 1 = arg min V Y 2 k , V V ^ k + U k + 1 L V X k , Y 3 k + μ k 2 ( V V ^ k F 2 + X k U k + 1 L V F 2 ) (15)

V 进行求偏导且为0,可得,

V k + 1 = ( μ k V ^ k Y 2 k + G L U k + 1 ) ( μ k I + μ k U k + 1 L U k + 1 ) 1 (16)

其中, G = μ X + Y 3 .

3) 固定 U k + 1 V k + 1 V ^ k X k Y 1 k Y 2 k Y 3 k ,更新 U ^ k + 1 ,有

U ^ k + 1 = arg min U ^ 1 2 U ^ * + Y 1 k , U k + 1 U ^ + μ k 2 U k + 1 U ^ F 2 = arg min U ^ 1 2 U ^ * + μ k 2 U ^ ( U k + 1 + μ k 1 Y 1 k ) F 2 = D 1 2 μ k ( U k + 1 + μ k 1 Y 1 k ) (17)

4) 固定 U k + 1 V k + 1 U ^ k + 1 X k Y 1 k Y 2 k Y 3 k ,更新 V ^ k + 1 ,有

V ^ k + 1 = arg min V ^ 1 2 V ^ * + Y 2 k , V k + 1 V ^ + μ k 2 V k + 1 V ^ F 2 = arg min V ^ 1 2 V ^ * + μ k 2 V ^ ( V k + 1 + μ k 1 Y 2 k ) F 2 = D 1 2 μ k ( V k + 1 + μ k 1 Y 2 k ) (18)

5) 固定 U k + 1 V k + 1 U ^ k + 1 V ^ k + 1 Y 1 k Y 2 k Y 3 k ,更新 X k + 1 ,有

X = arg min X λ 2 P Ω ( X T ) F 2 + Y 3 k , X U k + 1 L V k + 1 + μ k 2 X U k + 1 L V k + 1 F 2 = arg min X P Ω ( X T ) F 2 + μ k λ X ( U k + 1 L V k + 1 μ k 1 Y 3 k ) F 2 = U k + 1 L V k + 1 + μ k 1 Y 3 k + P Ω ( λ T + μ k U k + 1 L V k + 1 Y 3 k λ + μ k ) (19)

6) 固定 U k + 1 V k + 1 U ^ k + 1 V ^ k + 1 X k + 1 Y 2 k Y 3 k ,更新 Y 1 k + 1 ,有

Y 1 k + 1 = Y 1 k + μ k ( U k + 1 U ^ k + 1 ) (20)

7) 固定 U k + 1 V k + 1 U ^ k + 1 V ^ k + 1 X k + 1 Y 1 k + 1 Y 3 k ,更新 Y 2 k + 1 ,有

Y 2 k + 1 = Y 2 k + μ k ( V k + 1 V ^ k + 1 ) (21)

8) 固定 U k + 1 V k + 1 U ^ k + 1 V ^ k + 1 X k + 1 Y 1 k + 1 Y 2 k + 1 ,更新 Y 3 k + 1 ,即

Y 3 k + 1 = Y 3 k + μ k ( X k + 1 U k + 1 L V k + 1 ) (22)

9) 更新参数 μ k

μ k + 1 = ρ μ k (23)

4. 实验

4.1. 合成数据

随机生成张量 U n 1 × r × n 3 V n 2 × r × n 3 ,其中 U V 的元素是从标准高斯分布中独立采样的。通过张量积 U L V ,构建出tubal秩为r的张量 X n 1 × n 2 × n 3 。随机选取 X p n 1 n 2 n 3 个位置构建相对应的索引集 Ω ,其中p为观测率。因此,合成数据构建方式如下,

T = X + σ Z , T i j k = X i j k + σ Z i j k , ( i , j , k ) Ω (24)

其中, Z 为均值为0,方差为1的高斯白噪声。

考虑三种可逆线性变换:1) 离散傅里叶变换(Discrete Fourier Transform, DFT);2) 离散余弦变换(Discrete Cosine Transform, DCT);3) 正交变换(Random Orthogonal Transform, ROM)。假设 n 1 = n 2 = n 3 = 50 ,正则化参数设为 1 / ( 2 max ( n 1 , n 2 ) ) 。采用相对均方误差测量结果,即

RSE = X ^ X F X F (25)

RSE 10 3 ,则可认为精确恢复。从表1的实验结果可以看出,在三种可逆线性变换的条件下,RSE远远小于10−3。因此,在不同的采样率与可逆线性变换下,部分观测张量可以精确恢复出来。这表明了基于任何可逆线性变换的DNTC是可行的、鲁棒的。

Table 1. The RSE result of correct recovery on random data under different linear transforms

表1. 在不同线性变换下的随机数据填充的RSE结果

4.2. 图像修复

在图像修复任务中,选取ZJU数据集中4张图像,用TNN [11]、TCTF [14] 与DNTC三种方法进行对比,将峰值信噪比(Peak Signal to Noise Ratio, PSNR)、结构相似性(Structured Similarity Index, SSIM)与时间作为评价指标。实验中,观测率设置为0.4。图1为观测率0.4下的图像修复结果对比,表2给出了PSNR、SSIM与时间指标的直观对比结果。

Table 2. Performance comparison in PSNR, SSIM and TIME on the natural images

表2. 自然图像上PSNR、SSIM与时间的性能对比

(a) 原始图片 (b) 观测图片 (c) TNN(d) TCTF (e) DNTC-DFT (f) DNTC-DCT (g) DNTC-ROM

Figure 1. Image in painting results of the 4 images by different methods

图1. 不同方法在4个图像上修复结果

图1结果可以看出,在观测率为0.4的情况下,DNTC在3种可逆变换下的视觉效果差别不太明显,均比TNN与TCTF更好得刻画出细节部分。从表2可以看出,在峰值信噪比,基于任意线性变换的DNTC平均比TNN结果提升2 dB以上、比TCTF平均提升5 dB;在结构相似比方面,DNTC均高于TNN与TCTF,且最低提升0.02,原因是本文提出的双核范数比核范数更逼近张量的tubal秩,避免了等距收缩问题。

除此之外,DNTC的运行时间明显低于TNN的时间,主要原因是DNTC采取了张量分解的方法,对两个小的张量进行优化,从而降低了计算复杂度。与另一个张量分解方法TCTF相比,DNTC在DFT与DCT下与TCTF的时间结果较为相似,甚至更快。在ROM下少慢于TCTF。主要是由于TCTF只是用Frobenius范数作为正则化项,不需要张量奇异值分解,计算复杂度较低,但该方法不能很好的刻画张量的线性结构,因此PSNR数值最低。而在ROM下,DNTC没有快速算法,导致了计算复杂度高于TCTF。

5. 结束语

针对张量填充问题,结合了Schatten-p范数与张量分解的思想,提出了基于双核范数最小化方法,保证了张量填充的效果优越性,并提高了优化速度。在后续工作中,将双核范数扩展到张量低秩表示模型中,以利于子空间聚类。

文章引用

张 军,李峥儿,姜 伟. 基于双核范数最小化的低秩张量填充
Robust Low-Rank Tensor Completion via Double Nuclear Norm Minimization[J]. 应用数学进展, 2022, 11(01): 442-449. https://doi.org/10.12677/AAM.2022.111052

参考文献

  1. 1. Kolda, T.G. and Bader, B.W. (2009) Tensor Decompositions and Applications. SIAM Review, 51, 455-500. https://doi.org/10.1137/07070111X

  2. 2. Liu, J., Musialski, P., Wonka, P., et al. (2009) Tensor Completion for Estimating Missing Values in Visual Data. IEEE International Conference on Computer Vision, 35, 208-220. https://doi.org/10.1109/TPAMI.2012.39

  3. 3. Zhou, M.Y., Liu, Y.P., Long, Z., et al. (2019) Tensor Rank Learning in CP Decomposition via Convolutional Neural Network. Signal Processing Image Communication, 73, 12-21. https://doi.org/10.1016/j.image.2018.03.017

  4. 4. Tucker, L. (1966) Some Mathematical Notes on Three-Mode Factor Analysis. Psychometrika, 31, 279-311. https://doi.org/10.1007/BF02289464

  5. 5. Oseledets, I.V. (2011) Tensor-Train Decomposition. SIAM Journal on Scientific Computing, 33, 2295-2317. https://doi.org/10.1137/090752286

  6. 6. Kilmer, M.E., Braman, K., Hao, N., et al. (2013) Third-Order Tensors as Operators on Matrices: A Theoretical and Computational Framework with Applications in Imaging. SIAM Journal on Matrix Analysis and Applications, 34, 148-172. https://doi.org/10.1137/110837711

  7. 7. Zhou, M.Y., Liu, Y.P., Zhen, L., et al. (2019) Tensor Rank Learning in CP Decomposition via Convolutional Neural Network. Signal Processing Image Communication, 73, 12-21. https://doi.org/10.1016/j.image.2018.03.017

  8. 8. Bengua, J.A., Phien, H.N., Tuan, H.D., et al. (2017) Efficient Tensor Completion for Color Image and Video Recovery: Low-Rank Tensor Train. IEEE Transactions on Image Processing, 26, 2466-2479. https://doi.org/10.1016/j.image.2018.03.017

  9. 9. Braman, K. (2010) Third-Order Tensors as Linear Operators on a Space of Matrices. Linear Algebra and Its Applications, 433, 1241-1253. https://doi.org/10.1016/j.laa.2010.05.025

  10. 10. Kernfeld, E., Kilmer, M. and Aeron, S. (2015) Tensor-Tensor Products with Invertible Linear Transforms. Linear Algebra and Its Applications, 485, 545-570. https://doi.org/10.1016/j.laa.2015.07.021

  11. 11. Lu, C.Y., Feng, J.S., Chen, Y.D., et al. (2019) Tensor Robust Principal Component Analysis with a New Tensor Nuclear Norm. IEEE Transactions on Pattern Analysis and Machine Intelligence, 42, 925-938. https://doi.org/10.1109/TPAMI.2019.2891760

  12. 12. Zhang, Z.M., Ely, G., Aeron, S., et al. (2014) Novel Methods for Multilinear Data Completion and De-Noising Based on Tensor-SVD. IEEE Conference on Computer Vision and Pattern Recognition, Columbus, 23-28 June 2014, 3842-3849. https://doi.org/10.1109/CVPR.2014.485

  13. 13. Kong, H., Xie, X.Y. and Lin, Z.C. (2018) T-Schatten-P Norm for Low-Rank Tensor Recovery. IEEE Journal of Selected Topics in Signal Processing, 12, 1405-1419. https://doi.org/10.1109/JSTSP.2018.2879185

  14. 14. Zhou, P., Lu, C.Y., Lin, Z.C., et al. (2018) Tensor Factorization for Low-Rank Tensor Completion. IEEE Transactions on Image Processing, 27, 1152-1163.

期刊菜单