Advances in Applied Mathematics
Vol. 11  No. 10 ( 2022 ), Article ID: 56560 , 7 pages
10.12677/AAM.2022.1110732

双因子张量范数正则化低秩张量填充

李鸿燕1*,姜伟1,2

1辽宁师范大学,辽宁 大连

2温州大学,浙江 温州

收稿日期:2022年9月10日;录用日期:2022年10月2日;发布日期:2022年10月10日

摘要

本文提出了一种新的正则化方法,解决了低秩张量恢复问题。通过将张量Schatten-p范数分解成 l 2 , q 范数与 l 2 , 1 范数的加权和,避免了求解张量Schatten-p范数需要张量奇异值分解的问题,从而降低了算法的复杂度。采用交替方向乘子法用于求解提出的模型。通过真实数据的实验,在精度和时间复杂度两个方面验证了算法的有效性。

关键词

低秩张量恢复,张量Schatten-p范数,分解

Double Factor Tensor Norm Regularized Low Rank Tensor Completion

Hongyan Li1*, Wei Jiang1,2

1Liaoning Normal University, Dalian Liaoning

2Wenzhou University, Wenzhou Zhejiang

Received: Sep. 10th, 2022; accepted: Oct. 2nd, 2022; published: Oct. 10th, 2022

ABSTRACT

In this paper, a new regularization method is proposed to solve the recovery problem of low rank tensors. By decomposing the tensor Schatten-p norm into the weighted sum of l 2 , q -norm and l 2 , 1 -norm, the problem of solving the tensor Schatten-p norm requiring tensor singular value decomposition is avoided, reducing the complexity of the algorithm. The alternating direction multiplier method is used to solve the proposed model. Experiments on real data demonstrate the effectiveness of the algorithm in terms of accuracy and time complexity.

Keywords:Recovery Problem of Low Rank Tensors, T-Schatten-p Norm, Decompose

Copyright © 2022 by author(s) and Hans Publishers Inc.

This work is licensed under the Creative Commons Attribution International License (CC BY 4.0).

http://creativecommons.org/licenses/by/4.0/

1. 引言

随着信息技术的迅速发展和应用,数据填充已经成为了计算机视觉、人工智能和优化领域研究的热点问题。数据可以用矩阵来表示,而张量是矩阵向更高维度的推广,可以更大程度上保留数据结构的完整性。在实际场景中,由于传感器的故障,不当的人类操作和遮挡等,计算机视觉应用中遇到的张量数据很少是完整的。由此,恢复高质量的张量数据对于一些实际应用是必不可少的。为了弥合现实与需求之间的差异,需要从受损或不完整的张量数据中恢复完整的信息。以张量为代表的多媒体数据,如彩色图像和视频,由于空间相关性、全局对称性和局部相似性等原因,通常表现出低秩性。低秩张量恢复的一个典型问题是低秩张量填充问题,即估计张量中的缺失值。这是计算机科学和数学领域的一个持续的研究挑战。广泛应用于许多现实问题,如视觉数据 [1] [2]、EEG数据 [3] [4]、高光谱数据分析 [5]、链接预测 [6]。但秩的极小化问题很难求解,根据张量定义的秩的不同,张量分解方式也有不同,如基于CP分解 [7] 的CANDECOMP/PARAFAC秩,基于Tucker分解 [8] 的Tucker秩,基于TT分解 [9] 的Tensor Train秩,以及基于张量奇异值分解 [10] 的tubal秩。因此张量秩的替代有很多种,但是很多方法有其局限性,寻找复杂度低的张量填充模型极其重要。

本文主要研究张量奇异值框架下的三阶张量填充问题,在过去的几年中,我们见证了许多方法的发展,秩最小化方法可分为两类。一种是低秩张量因子分解方法,另一种是张量核范数最小化方法。低秩张量因子分解方法旨在将给定张量分解成两个较小的张量,可以在某些损失函数下重建张量,但是却忽略了目标函数中谱正则化的使用。张量核范数最小化方法代表了研究的另一个主要分支,它的一个限制是过度惩罚奇异值的大条目,大规模张量的奇异值分解导致了较高的计算成本,研究人员试图用一些非凸范数来代替核范数。最近研究表明,利用非凸的 l p 范数来松弛 l 0 范数(向量的非零条目数) [11] [12] 和Schatten-p范数,以近似秩函数有最佳的性能 [13] [14],而不是 l 1 范数和核范数作为压缩感知和矩阵恢复问题的替代。对于张量数据,Liu等人 [15] 基于张量奇异值分解定义了张量p收缩核范数,这对于矩阵情况下的高维大规模数据来说是昂贵的。为了解决Schatten-p范数最小化的高计算成本,Kong等人 [16] 定义了低秩张量补全的张量Schatten-p拟范数( 0 < p < 1 ),并提供了一个multi-tensor-Schatten-p拟范数替代项,以转换一个非凸和非光滑的大型张量Schatten-p范数,对于 p > 0 的多个小尺度因子张量的总和,Schatten-p可以是凸的和光滑的。该方法在一定程度上降低了算法的时间复杂度。然而这些形式的一个主要缺点是,需要计算多个小尺度因子张量的奇异值,会在大数据设置中限制计算。Fan [17] 等人和Jia [18] 采用矩阵因子分解的方式将Schatten-p范数分解为 l 2 , p 范数和 l 2 , 1 范数加权和的形式,此方法不需要奇异值分解,降低了复杂度。

2. 预备知识

定义1 [19] 张量Frobenius范数:张量 X n 1 × n 2 × n 3 X ¯ 表示张量进行傅里叶变换的块对角矩阵,张量Frobenius范数为:

X F = 1 n 3 X ¯ F

定义2张量 l 2 , q 范数:设 X n 1 × n 2 × n 3 ,则张量 l 2 , q 范数的q次幂为:

X 2 , q q = 1 n 3 X ¯ 2 , q q

定义3 [20] 张量奇异值分解:设 X n 1 × n 2 × n 3 ,则 X 的奇异值分解为 X = U S V T ,其中 U U T = I V V T = I S n 2 × n 2 × n 3 是对角张量。

定义4 [16] 张量Schatten-p范数:设 X n 1 × n 2 × n 3 ,张量 X 的奇异值分解为 X = U S V T ,如果 r = rank t ( X ) ,则具有p次幂的t-Schatten-p范数定义为:

X S P p = i = 1 r S p ( i , i , 1 )

定理1 A n 1 × n 2 × n 3 B n 4 × n 2 × n 3 ,让 X = A B T ,则以下情况成立:

1) A F 2 = 1 n 3 A ¯ F 2

2) X = A B T X ¯ = A ¯ B ¯ T 互相等价。

3. 双因子张量范数的正则化低秩张量填充

3.1. 模型确立

在本节中,为提高低秩张量模型对受损图像和视频的恢复效果,引入了一种基于tubal秩的新的张量补全的方法,将张量Schatten-p范数的形式引入传统张量补全模型。

T n 1 × n 2 × n 3 ,观察元素的位置由 Ω { 0 , 1 } n 1 × n 2 × n 3 决定,其中如果观察到 T i j k ,则 Ω i j k = 1 ,否则为0。假设部分观察的数量足够大。则低tubal秩张量补全问题如下表示:

min X 1 2 P Ω ( X T ) F 2 + λ X S P p (1)

为了解决大规模张量Schatten-p范数最小化的高计算成本,提出了张量Schatten-p范数的因子分解形式。

定理2张量 X 分解为张量积形式 X = U V T U n 1 × d × n 3 V n 1 × d × n 3 r a n k t ( X ) = r d q = p 1 p ,所以有

X S P p = min X = U V T p q U 2 , q q + p V 2 , 1 (2)

应用定理2张量最优化问题模型如下:

min U , V 1 2 P Ω ( X T ) F 2 + α U 2 , q q + β V 2 , 1 s .t . X = U V T (3)

其中 α = λ p q β = λ p X n 1 × n 2 × n 3 U n 1 × d × n 3 V n 1 × d × n 3

接下来我们用ADMM法进行求解,首先我们写出上式的拉格朗日函数。

L μ ( X , U , V , Y ) = 1 2 P Ω ( X T ) F 2 + α U 2 , q q + β V 2 , 1 + Y , X U V T + μ 2 X U V T F 2 (4)

其中是 Y 拉格朗日乘子, μ 是拉格朗日惩罚参数, , 表示张量内积算子。

3.2. 模型求解

我们用交替方向乘子法对 X , U , V 进行模型求解。求解之前,我们先给出以下引理。

引理1对于问题

min X 1 2 X Z F 2 + λ X 2 , p p (5)

的解为 X = Prox ( Z ) Prox ( Z ) = Z W ,其中W是对角矩阵,它的对角元素 W i i = ϖ i Z i 2 ϖ i = arg min x 1 2 ( x Z i 2 ) 2 + | x | p

引理2 Q = [ q 1 ; q 2 ; ; q m ] 为给定矩阵, λ 是正标量,下列问题

min W 1 2 W Q F 2 + λ W 2 , 1 (6)

的解为W,W的第i行为 w i = { ( 1 λ q i ) q i , q i > λ 0

在第 τ + 1 次迭代时,更新 X τ + 1

X τ + 1 = arg min X 1 2 P Ω ( X T ) F 2 + μ 2 X U τ + 1 V τ + 1 T μ τ 1 Y τ F 2 (7)

然后,我们可以直接得到 X τ + 1 的最优解

X τ + 1 = arg min X P Ω c ( U τ + 1 V τ + 1 T μ τ 1 Y τ ) + P Ω ( T + μ τ U τ + 1 V τ + 1 T μ τ 1 Y τ + 1 1 + μ τ ) (8)

其中 P Ω c P Ω 的互补算子。

在第 τ + 1 次迭代时,更新 U τ + 1 ,我们将最小化与 L 的有关的 U ,同时保持所有其他变量不变。最小化问题变成

U τ + 1 = arg min U α U 2 , q q + Y τ , X τ U V τ T + μ 2 X τ U τ V τ T F 2 (9)

通过应用离散傅里叶变换并利用定理1的性质,(9)的解可以等价于在变换域中求解以下问题

U ¯ τ + 1 ( i ) = arg min U ¯ ( i ) α U ¯ ( i ) 2 , q q + L τ + 1 U 2 U ¯ ( i ) U ¯ τ ( i ) + ( L τ + 1 U ) 1 Q ¯ τ + 1 ( i ) F 2 (10)

其中 Q ¯ τ + 1 ( i ) = μ τ ( X ¯ τ ( i ) U ¯ τ ( i ) ( V ¯ τ ( i ) ) T + Y ¯ τ ( i ) / μ τ ) ( V ¯ τ ( i ) ) L τ + 1 U max { μ τ V ¯ τ ( i ) 2 2 , i = 1 , , n 3 }

根据引理1可求解。

在第 τ + 1 次迭代时,更新 V τ + 1 ,们将最小化与 L 的有关的 V ,同时保持所有其他变量不变。最小化问题变成

V ¯ τ + 1 ( i ) = arg min V ¯ ( i ) β V ¯ ( i ) 2 , q q + L τ + 1 V 2 V ¯ ( i ) V ¯ τ ( i ) + ( L τ + 1 V ) 1 K ¯ τ + 1 ( i ) F 2 (11)

其中 K ¯ τ + 1 ( i ) = μ τ ( ( U ¯ τ ( i ) ) T ) ( X ¯ τ ( i ) U ¯ τ + 1 ( i ) ( V ¯ τ ( i ) ) T + Y ¯ τ ( i ) / μ τ ) L τ + 1 V max { ( μ τ U ¯ τ ( i ) 2 2 ) , i = 1 , , n 3 }

根据引理2可求解。

在第 τ + 1 次迭代时,更新 Y τ + 1 μ τ + 1

Y τ + 1 = Y τ + μ τ ( X τ + 1 U τ + 1 V τ + 1 T ) (12)

μ τ + 1 = min ( ρ μ τ , μ max ) (13)

其中 ρ > 1 为常数参数, μ max 为默认最大值,可防止 μ 变得过大。

4. 实验

在本节中选取了大小为300 × 300 × 3的图片进行了实验,当自然图像转换为矩阵时,可以被视为低秩结构,张量数据也是如此。该图显示采样率为0.4,本文的方法与其他方法对比进行图像恢复的结果,以验证本文所提出算法的有效性和效率。将本文模型取p = 1/2和p = 2/3时的算法与张量的TNN和TCTF进行比较,并选择所有方法的参数,以确保它们尽可能好地执行。将结果和原始图片进行了比较。通过各种方法恢复的视觉结果如图1所示。并选择时间(TIME)、峰值信噪比(PSNR)和结构化相似性指数(SSIM)作为评估指标的结果如表1所示。PSNR和SSIM的数值越大,实验效果越好。

(a) (b) (c) (d) (e) (f)

Figure 1. The results of image in painting, where (a) is original image; (b) is observation; (c) is DFTN1/2; (d) is DFTN2/3; (e) is TCTF; (f) is TNN

图1. 不同算法的图像修复的结果,其中(a) 是原始图像;(b) 是观察图像;(c) 是DFTN1/2;(d) 是DFTN2/3;(e) 是TCTF;(f) 是TNN

Table 1. Comparison of PSNR, SSIM and computation time for image inpainting

表1. 图像修复的PSNR、SSIM和计算时间的比较

5. 结论

本文中提出了双因子张量范数正则化低秩张量填充模型,并给出了求解低秩张量补全的有效算法。在这个优化过程中,避免了大规模张量的奇异值分解。此外,我们选取p = 1/2和p = 2/3的算法模型,通过真实数据的实验,从精度和时间消耗两个方面验证了该算法的优越性。

基金项目

该文得到了辽宁省高等学校创新人才支持计划的资助。

文章引用

李鸿燕,姜 伟. 双因子张量范数正则化低秩张量填充
Double Factor Tensor Norm Regularized Low Rank Tensor Completion[J]. 应用数学进展, 2022, 11(10): 6908-6914. https://doi.org/10.12677/AAM.2022.1110732

参考文献

  1. 1. Liu, J., Musialski, P., Wonka, P. and Ye, J. (2009) Tensor Completion for Estimating Missing Values in Visual Data. 2009 IEEE 12th International Conference on Computer Vision (ICCV), Kyoto, 29 September-2 October 2009, 2114-2121. https://doi.org/10.1109/ICCV.2009.5459463

  2. 2. Liu, J., Musialski, P., Wonka, P. and Ye, J. (2013) Tensor Com-pletion for Estimating Missing Values in Visual Data. IEEE TPAMI, 35, 208-220. https://doi.org/10.1109/TPAMI.2012.39

  3. 3. Acar, E., Dunlavy, D.M., Kolda, T.G. and Morup, M. (2010) Scala-ble Tensor Factorizations with Missing Data. Proceedings of the SIAM International Conference on Data Mining, SDM 2010, Columbus, 29 April-1 May 2010, 701-711. https://doi.org/10.1137/1.9781611972801.61

  4. 4. Morup, M., Hansen, L.K., Herrmann, C.S., Parnas, J. and Arn-fred, S.M. (2006) Parallel Factor Analysis as an Exploratory Tool for Wavelet Transformed Event-Related EEG. Neu-roImage, 29, 938-947. https://doi.org/10.1016/j.neuroimage.2005.08.005

  5. 5. Gandy, S., Recht, B. and Yamada, I. (2011) Tensor Com-pletion and Low-n-Rank Tensor Recovery via Convex Optimization. Inverse Problem, 27, Article ID: 025010. https://doi.org/10.1088/0266-5611/27/2/025010

  6. 6. Yilmaz, Y.K., Cemgil, A.T. and Simsekli, U. (2011) General-ized Coupled Tensor Factorization. 25th Annual Conference on Neural Information Processing Systems 2011, Granada, 12-15 December 2011, 2151-2159.

  7. 7. Liu, Y., Shang, F., Jiao, L., Cheng, J. and Cheng, H. (2015) Trace Norm Reg-ularized Candecomp/Parafac Decomposition with Missing Data. IEEE Transactions on Cybernetics, 45, 2437-2448. https://doi.org/10.1109/TCYB.2014.2374695

  8. 8. Zhou, G., Cichocki, A., Zhao, Q. and Xie, S. (2015) Efficient Nonnegative Tucker Decompositions: Algorithms and Uniqueness. IEEE Transactions on Image Processing, 24, 4990-5003. https://doi.org/10.1109/TIP.2015.2478396

  9. 9. Bigoni, D., Engsig-Karup, A.P. and Marzouk, Y.M. (2014) Spectral Tensor-Train Decomposition. SIAM Journal on Scientific Computing, 38, Article ID: 24052439. https://doi.org/10.1137/15M1036919

  10. 10. Zhang, X., Wang, D. and Zhou, Z. (2021) Robust Low-Rank Tensor Recovery with Rectification and Alignment. IEEE Transactions on Pattern Analysis and Machine Intelligence, 43, 238-255. https://doi.org/10.1109/TPAMI.2019.2929043

  11. 11. Wen, F., Liu, P. and Liu, Y. (2017) Robust Sparse Recovery in Impulsive Noise via “p-1” Optimization. IEEE Transactions on Signal Processing, 65, 105-118. https://doi.org/10.1109/TSP.2016.2598316

  12. 12. Zuo, W.M., Meng, D.Y., Zhang, L., Feng, X.C. and Zhang, D. (2013) A Generalized Iterated Shrinkage Algorithm for Non-Convex Sparse Coding. 2013 IEEE International Confer-ence on Computer Vision (ICCV), Sydney, 1-8 December 2013, 217-224. https://doi.org/10.1109/ICCV.2013.34

  13. 13. Nie, F., Wang, H. and Huang, H. (2015) Joint Schatten p-Norm and p-Norm Robust Matrix Completion for Missing Value Recovery. Knowledge and Information Systems, 42, 525-544. https://doi.org/10.1007/s10115-013-0713-z

  14. 14. Marjanovic, G. and Solo, V. (2012) On LQ Optimization and Ma-trix Completion. IEEE Transactions on Signal Processing, 60, 5714-5724. https://doi.org/10.1109/TSP.2012.2212015

  15. 15. Liu, C., Shan, H. and Chen, C. (2019) Tensor p-Shrinkage Nucle-ar Norm for Low-Rank Tensor Completion. Neurocomputing, 387, 255-267. https://doi.org/10.1016/j.neucom.2020.01.009

  16. 16. Kong, H., Xie, X. and Lin, Z. (2018) t-Schatten-p Norm for Low-Rank Tensor Recovery. IEEE Journal of Selected Topics in Signal Processing, 12, 1405-1419. https://doi.org/10.1109/JSTSP.2018.2879185

  17. 17. Fan, J., Ding, L., Chen, Y., et al. (2019) Factor Group-Sparse Regularization for Efficient Low-Rank Matrix Recovery.

  18. 18. Jia, X., Feng, X., Wang, W., et al. (2018) Online Schatten Quasi-Norm Minimization for Robust Principal Component Analysis. Information Sciences, 476, 83-94. https://doi.org/10.1016/j.ins.2018.10.003

  19. 19. Lu, C.Y., Feng, J.S., Chen, Y.D., Liu, W., Lin, Z.C. and Yan, S.C. (2016) Tensor Robust Principal Component Analysis: Exact Recovery of Corrupted Low-Rank Tensors via Convex Op-timization. 2016 Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, Las Vegas, 27-30 June 2016, 5249-5257. https://doi.org/10.1109/CVPR.2016.567

  20. 20. Jolliffe, I. (2002) Principal Component Analysis. Wiley Online Li-brary, New York.

  21. NOTES

    *通讯作者。

期刊菜单