Advances in Applied Mathematics
Vol. 10  No. 10 ( 2021 ), Article ID: 45783 , 7 pages
10.12677/AAM.2021.1010345

双加权截断核范数张量填充

李峥儿,尚紫微

辽宁师范大学,辽宁 大连

收稿日期:2021年9月13日;录用日期:2021年10月6日;发布日期:2021年10月15日

摘要

低秩张量填充根据数据的低秩性来恢复所有丢失的元素来更好地描述高维数据结构,逐渐得到各领域学者的重视。先前的学者们已经提出了张量核范数的几种定义,但是可能无法正确地近似张量真正的秩,并且在优化中这种方法没有明确地使用低秩性质,基于此,有学者提出了张量截断核范数(T-TNN),但需要大量的迭代才能收敛。因此,本文提出了一种新的方法双加权截断核范数张量填充(DW-T-TNN),为张量每片分配不同的权重,以加速收敛,并获得可接受的性能。本文设计了一种简洁的梯度下降方法,代替了T-TNN第二步的迭代更新方案。在实验过程中,我们的方法有良好的视觉效果并且所用时间更少。

关键词

张量填充,截断核范数,低秩,双加权

Double Weighted Truncated Nuclear Norm Regularization for Low-Rank Tensor Completion

Zheng’er Li, Ziwei Shang

Liaoning Normal University, Dalian Liaoning

Received: Sep. 13th, 2021; accepted: Oct. 6th, 2021; published: Oct. 15th, 2021

ABSTRACT

To better describe the high dimensional data structure, low-rank tensor completion based on the low rank property has gradually attracted the attention of scholars in various fields whose partial elements are missing. Previous scholars have proposed several definitions of tensor nuclear norm, but it may not be able to correctly approximate the real rank of tensor, and this method does not explicitly use the low rank property in optimization. Based on this, some scholars have proposed Tensor Truncated Nuclear Norm (T-TNN), but it requires numerous iterations to converge. Therefore, this paper proposes a new method, Double Weighted Truncated Nuclear Norm Regularization for Low-Rank Tensor Completion (DW-T-TNN) which assigns different weights to each piece of tensor to accelerate convergence and obtain acceptable performance. In this paper, an efficient gradient descent strategy is designed to replace the iterative update scheme of the second step of T-TNN. In the experiment of real-world image, our method has good visual effect and takes less time.

Keywords:Tensor Completion, Truncated Nuclear Norm, Low-Rank, Double Weighted

Copyright © 2021 by author(s) and Hans Publishers Inc.

This work is licensed under the Creative Commons Attribution International License (CC BY 4.0).

http://creativecommons.org/licenses/by/4.0/

1. 引言

近年来,随着现代网络技术的急速发展,计算机视觉、图像处理以及推荐系统等领域得到了前所未有的关注与高度,与此同时获取大量的高维数据也逐渐变得简单起来。但是获取高维数据过程中难免会有部分数据丢失的情况出现。虽然矩阵填充也可恢复出丢失的元素,但是当待恢复的高维数据具有相对复杂的结构时,利用矩阵填充可能会造成维度灾难、过拟合以至于最终破坏数据结构。因此作为矩阵填充的推广,根据数据的低秩性来恢复出所有丢失的元素来更好地描述高维数据结构的低秩张量填充,逐渐得到各领域学者的重视。

通过将彩色图像或者视频看做三维张量,先前的学者们已经提出了张量核范数的几种定义。但是这些定义可能无法正确地近似于张量真正的秩而且在优化中没有明确地使用低秩性质,这就造成了局限性。最近提出的截断核范数(TNN)被证明可以代替传统的核范数来更好的近似秩。基于此, [1] 提出了张量截断核范数(T-TNN)将截断核范数从矩阵情形推广到张量情形。但是这种方法需要多次迭代才能收敛。本文在熟悉截断核范数和张量相关知识的基础上,认真分析国内外学者在张量填充领域的研究现状,提出了双加权截断核范数张量填充(DW-T-TNN)方法,将不同的权重分别分配给张量每个前片的行和列,以加快收敛速度并获得可接受的性能。同时提出了一种简单的梯度下降方法,代替了T-TNN中第二步的迭代更新方法。在真实数据上进行的有效实验证明,DW-T-TNN具有良好的性能,在完成的速度和视觉效果上都具有优势。

2. 预备知识

定义1 [2] 张量核范数:张量 A n 1 × n 2 × n 3 的核范数记为 A ,表示 A ¯ 所有正面切片核范数的平均值,即: A F = 1 n 3 A ¯ F

定义2 [2] 张量 F 范数:张量 A n 1 × n 2 × n 3 A ¯ 表示张量进行傅里叶变换之后的块循环矩阵,张量 F 范数即: A F = 1 n 3 A ¯ F

定义3 [1] 张量截断核范数:

张量 X n 1 × n 2 × n 3 的截断核范数为 X r ,被定义为

X r = X max A A T = I B B T = I t r ( A X B )

其中 A n 1 × n 2 × n 3 B n 1 × n 2 × n 3 是由TSVD生成的,

定义4 [3] 张量奇异值分解:

A n 1 × n 2 × n 3 的TSVD是 A = U S V T ,其中 U n 1 × n 1 × n 3 V n 2 × n 2 × n 3 是正交的, S n 1 × n 2 × n 3 是f-对角张量。

定义5 [2] A n 1 × n 2 × n 3 B n 1 × n 2 × n 3 ,则有 A , B = 1 n 3 A ¯ , B ¯

3. 双加权截断核范数张量填充

3.1. 模型的建立

由 [1] 易证明,张量截断核范数等价于

min max t r ( A X B T ) A A T = B B T = I max t r ( C X D T ) C C T = D D T = I st X Ω = M Ω (1)

其中 A n 1 × n 1 × n 3 B n 1 × n 2 × n 3 C n 1 × r × n 3 D n 2 × r × n 3

显而易见,直接求解上式并不容易,所以我们把这个优化分为两步进行,指定 X 1 = M Ω 作为初始化.在第k次迭代中,第一步我们固定 X k 来更新 A k B k C k D k

A K = U T (2)

B K = V ( : , 1 : n 1 , : ) T (3)

C K = U ( : , 1 : r , : ) T (4)

D K = V ( : , 1 : r , : ) T (5)

接下来在第二步中,我们通过保持其他变量不变,通过下列算式更新优化 X K + 1

min t r ( A k X B k T ) A A T = B B T = I t r ( C k X D k T ) C C T = D D T = I st X Ω = M Ω (6)

然后引入辅助变量,在这里我们采用交替乘子法进行求解,

min t r ( A k X B k T ) A A T = B B T = I t r ( C k X D k T ) C C T = D D T = I st X Ω = W Ω W Ω = M W (7)

随后转化成为一个无约束的增广拉格朗日函数进行求解,

L ( X , W , Y ) = t r ( A k X B k T ) t r ( C k X D k T ) + μ 2 X W F 2 + t r ( Y T ( X W ) ) (8)

为了更准确,有更高优先级的进行填充,我们选择在这里加入权重

L ( X , W , Y ) = t r ( A k X B k T ) t r ( C k X D k T ) + μ 2 P ( X W ) Q F 2 + t r ( Y T P ( X W ) Q ) (9)

其中 P Q 是权重对角张量。

3.2. 模型的优化

假设 X K Y K 表示第二步中第K次迭代的结果,我们通过保持其他变量不变,来更新 W K + 1 如下

W K + 1 = arg min L ( X , W , Y ) = arg min W t r ( C k W D k T ) + μ 2 P ( X W ) Q F 2 + t r ( Y T P ( X W ) Q ) = X K + 1 μ ( P 2 C K T D k Q 2 + P 1 Y K Q 1 ) (10)

由约束条件可知,观测元素的值保持不变,在此获得

W K + 1 = ( W K + 1 ) Ω c + M Ω (11)

X 的更新如下

X k + 1 = arg min X L ( X , W K + 1 , Y K ) = arg min X t r ( A k X B k T ) + μ K 2 P ( X W K + 1 ) Q + Y K μ K F 2 = W K + 1 1 μ K ( P 2 A K T B k Q 2 + P 1 Y K Q 1 ) (12)

Y 的更新如下

Y k + 1 = Y k + β k P ( X k + 1 W K + 1 ) Q (13)

其中 β k 是单调递增序列。

这三项更新步骤在实际应用中需要大量的迭代才能收敛,计算代价很大。在此我们根据其中的内在关联,推出一种简洁的梯度下降方式,即在不需要大量迭代步骤的情况下,就可以有效地更新 X ,如下定理1所示。

定理1 [4]:如果 0 < μ t < μ t + 1 t = 1 , 2 , , N 1 α K = t = 1 N 1 1 μ t ,由(10)~(13), X k 的更新可以由下的面一步迭代更新完成

X = X k 1 α K P 2 ( A K T B K C K T D K ) Q 2 (14)

X k + 1 = ( X ) Ω C + M Ω (15)

其中 1 α K 代表补步长,证明在此处不详述。

此外,为了简便表示,下面我们定义两个两个对角张量 P 2 = P ˜ Q 2 = Q ˜

P ˜ 的每一个前片 P ˜ ( i ) = d i a g ( p 1 , , p n 1 ) , i = 1 , , n 3 (16)

Q ˜ 的每一个前片 Q ˜ ( i ) = d i a g ( q 1 , , q n 2 ) , i = 1 , , n 3 (17)

{ p i } i = 1 n 1 0 { q i } i = 1 n 2 0 分别根据每行和每列中观察到的元素的数量精确确定,如下

p i = exp ( θ 1 ( N i r n 1 ) ) 1 , i = 1 , , n 1 q i = exp ( θ 2 ( N j c m 1 ) ) 1 , j = 1 , , n 2 (18)

其中 θ 1 θ 2 是缩放权重,这意味着具有更多的观察元素的行(列)具有更小的权重值,并且 p i = 0 ( q i = 0 ) 意味着此时没有元素丢失。

基于上述,我们引入梯度下降法。

首先我们介绍一个引理 [5]:假设对于任意两个张量 A n 1 × n 2 × n 3 B n 2 × n 4 × n 3 ,令 F = A B ,则有下面性质成立

1) A F 2 = 1 n 3 A ¯ F 2

2) F = A B F ¯ = A ¯ * B ¯ 相互相等。

A ¯ k ( i ) = U K ( 1 ) T = [ u 1 , , u r , , u n 1 ] T = [ C K T , u r + 1 , , u n 1 ] T = [ C K T , H k T ] T , i = 1 , 2 , , n 3 (19)

B ¯ k ( i ) = [ v 1 , , v r , , v n 1 ] T = [ D K T , v r + 1 , , v n 1 ] T = [ D K T , L k T ] T , i = 1 , 2 , , n 3 (20)

由引理1, A T B = A T ¯ * B ¯ ,容易证得

A K T B K C K T D K = [ C ¯ K T , H ¯ K T ] [ D ¯ K L ¯ K ] = H ¯ K T L ¯ K = H K T L K , i = 1 , 2 , , n 3 (21)

因此,通过定理1,(16)~(18),和(21), X K + 1 可以不用大量迭代,即通过一个简单的梯度下降方法就可以有效地计算,即:

X * = X k 1 α K P H K T L K Q (22)

X k + 1 = ( X * ) Ω C + M Ω (23)

在上面两个式子的基础上,我们发现它们等价于函数 t r ( H k P ˜ X Q ˜ L k T ) 的梯度下降法搜索的解。

由于上述一步梯度下降法的优点,代替了在第二步中迭代计算 X k ,因此,我们可以将(1)转换为以下公式:

min t r ( H P ˜ X Q ˜ L T ) s . t . X Ω = M Ω (24)

注意到当 r = n 1 意味着 H = O L = O 这就意味着梯度消失,所以在此我们选择 r n 1 这样就会避免这种情况的发生,这也符合视觉数据(例如真实图像)普遍具有低阶结构的事实。换句话说,实际的秩r要比图像的尺寸小得多。

初始值 X 1 = M Ω ,(24)的优化是通过一个梯度下降法解决如下

X k + 1 = X k 1 α K P ˜ H K T L K Q ˜ (25)

X k + 1 = ( X k + 1 ) Ω C + M Ω

其中 1 α K 是递减的步长,满足

α K + 1 = ρ α K (26)

其中 ρ > 1 是一个常数。

4. 实验部分

实验部分将本文模型(DW-T-TNN)与TNN (截断核范数)、T-TNN (张量截断核范数)、DW-TNN (加权截断核范数)这3个模型来作比较,在此选取图片大小为300 × 300 × 3,椒盐噪声为50%的彩色图片。我们通过对比彩色图片的恢复情况的视觉效果,展示本文模型的恢复效果。下面列出在单张彩色图片上这四种模型恢复上的视觉效果,如图1所示。并且对比了四种模型恢复图片所用的时间,如表1所示。

原始图片 噪声图片 DW-T-TNN DW-TNN T-TNN TNN

Figure 1. Comparison of visual effects of four different denoising algorithms (a) Original image; (b) Noisy image; (c) DW-T- TNN; (d) DW-TNN; (e) T-TNN; (f) TNN

图1. 四种不同算法去噪视觉效果对比 (a) 原始图片;(b) 噪声图片;(c) DW-T-TNN;(d) DW-TNN;(e) T-TNN;(f) TNN

Table 1. Comparison of denoising time of four different algorithms

表1. 四种不同算法去噪时间对比

5. 结论

在本文中,我们提出了双加权截断核范数张量填充模型,以及一种简洁的梯度下降方法。实验表明在相同噪声情况下,视觉效果和时间都优于其他算法,所以该方法对图像恢复是有优化效果的。

文章引用

李峥儿,尚紫微. 双加权截断核范数张量填充
Double Weighted Truncated Nuclear Norm Regularization for Low-Rank Tensor Completion[J]. 应用数学进展, 2021, 10(10): 3288-3294. https://doi.org/10.12677/AAM.2021.1010345

参考文献

  1. 1. Xue, S.K., Qiu, W.Y., Liu, F. and Jin, X. (2018) Low-Rank Tensor Completion by Truncated Nuclear Norm Regularization. 2018 24th International Conference on Pattern Recognition (ICPR), Beijing, 20-24 August 2018, 2600-2605. https://doi.org/10.1109/ICPR.2018.8546008

  2. 2. Lu, C.Y., Feng, J.S., Chen, Y.D., Liu, W., Lin, Z.C. and Yan, S.C. (2016) Tensor Robust Principal Component Analysis: Exact Recovery of Corrupted Low-Rank Tensors via Convex Optimization. 2016 Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, Las Vegas, NV, 27-30 June 2016, 5249-5257. https://doi.org/10.1109/CVPR.2016.567

  3. 3. Jolliffe, I. (2002) Principal Component Analysis. Wiley Online Library, New York.

  4. 4. Xue, S.K., Qiu, W.Y., Liu, F. and Jin, X.Y. (2019). Double Weighted Truncated Nuclear Norm Regularization for Low- Rank Matrix Completion. arXiv:1901.01711v1 [cs.CV].

  5. 5. Kilmer, M.E. and Martin, C.D. (2011) Factorization Strategies for Third-Order Tensors. Linear Algebra and Its Applications, 435, 641-658. https://doi.org/10.1016/j.laa.2010.09.020

期刊菜单