Pure Mathematics
Vol. 13  No. 10 ( 2023 ), Article ID: 74258 , 11 pages
10.12677/PM.2023.1310294

基于低秩张量表示的多视图子空间聚类

李欢,唐科威

辽宁师范大学数学学院,辽宁 大连

收稿日期:2023年9月9日;录用日期:2023年10月10日;发布日期:2023年10月18日

摘要

近年来,多视图子空间聚类是一个热点话题,基于低秩张量的方法受到广泛关注。为了更好地挖掘不同视图间的高阶关联性,本文采用最新基于t-SVD的张量核范数,使用系数矩阵的核范数和Frobenius范数作为正则项。在PIE、ORL、MSRA和MNIST四个数据集上与流行的子空间聚类算法的对比试验表明,本文提出的算法是一个有效的方法。

关键词

子空间聚类,低秩张量表示,Frobenius范数,张量核范数

Multi-View Subspace Clustering Based on Low-Rank Tensor Representation

Huan Li, Kewei Tang

School of Mathematics, Liaoning Normal University, Dalian Liaoning

Received: Sep. 9th, 2023; accepted: Oct. 10th, 2023; published: Oct. 18th, 2023

ABSTRACT

In recent years, multi-view subspace clustering has been a hot topic, and methods based on low-rank tensors have received widespread attention. In order to better mine the high-order correlation between different views, this paper adopts the latest tensor kernel norm based on t-SVD, using the kernel norm and Frobenius norm of the coefficient matrix as regularization terms. Comparative experiments with popular subspace clustering algorithms on four data sets: PIE, ORL, MSRA and MNIST show that the algorithm proposed in this article is an effective method.

Keywords:Subspace Clustering, Low-Rank Tensor Representation, Frobenius Norm, Tensor Core Norm

Copyright © 2023 by author(s) and Hans Publishers Inc.

This work is licensed under the Creative Commons Attribution International License (CC BY 4.0).

http://creativecommons.org/licenses/by/4.0/

1. 引言

多视图学习一直是人工智能和数据分析中一个活跃的话题,因为多视图数据在实际应用中普遍存在并且影响着人们生活的方方面面。例如:网页可以通过使用页面文本和超链接来表示;图像可以用不同类型的特征来描述,如颜色、边缘和纹理,这样有助于提供更多的互补性和差异性的信息。多视图学习主要包括多视图聚类、分类和去噪等,旨在寻找有意义的数据组,对各种现实世界的应用非常重要。

本文将研究多视图子空间聚类问题,子空间聚类在近20年来一直受到学者们的广泛关注,已知采样于多个线性子空间的数据点,子空间聚类的任务是把这些数据点按照各自所在的线性子空间进行聚类。传统的子空间聚类方法主要是单视图方法,经典的方法包括低秩表示算法(LRR) [1] ,主要思路是通过低秩性得到子空间表示矩阵,然后构造相似度矩阵,最后利用谱聚类算法来得到最终的聚类结果。关于LRR的改进扩展有很多工作,最小二乘回归(LSR) [2] 对子空间表示矩阵采用了F范数的惩罚,这种做法不仅能大大提升算法速度,还能得到同LRR一样的理论保证结果。如果将LRR这样的传统子空间聚类方法用于多视图数据集,只能将不同视图的数据进行拼接或者仅仅使用某个视图的信息,完全忽视了各个视图间的关系,因为不同的视图通常包含可以利用的彼此互补的信息。因此,利用这种信息以揭示多视图数据的潜在价值的方法在大数据研究中非常重要。多视图聚类在实践中越来越流行,对多视图聚类模型和算法的研究越来越受到人们的关注。多视图聚类的关键是如何融合多个视图提供的信息,以提高聚类性能。近年来,学者们提出了诸多多视图子空间聚类方法,各种方法都是基于两个重要的原则,共识原则或补充原则,尽可能充分地融合各个视图提供的互补的信息,以改进由单个视图中的有限信息生成的聚类结果。

早期的多视图子空间聚类方法包括多视图子空间聚类(MSVC) [3] ,该方法通过让不同视图的子空间表示矩阵得到一致的聚类结果来引入一致性。文章 [3] 通过构造不同视图间子空间表示矩阵的正则项引入多样性,该性质考虑了不同视图间的互补关系,文章 [3] 同时考虑了视图间的多个性质,包括一致性、排他性。近几年,有一些工作利用深度网络来处理多视图子空间聚类问题,但是视图间的关系仍然被这些方法所关注。

上述多视图聚类方法已经取得了良好的效果,但还是没有有效的利用多视图数据间的互补信息。针对这一问题,张等 [4] 提出了低秩张量约束的多视图子空间聚类(LT-MSC)方法,该技术可以挖掘多视图数据的空间结构和高阶信息,考虑视图间的高阶相关性,从而进一步提高聚类性能。其方法是将不同视图的子空间表示矩阵视为一个张量,然后亲和矩阵的推导是一个张量核范数最小化问题,但其张量核范数是基于Tucker分解的,而Tucker分解并不是秩函数的凸松弛。与上述方法相比,谢等 [5] 提出的多视图子空间聚类是基于张量奇异值(t-SVD)分解的,基于t-SVD分解的张量核范数已被证明是一种有效的凸松弛。但上述方法同等的对待每一个奇异值,限制了处理问题的灵活性,所以高等 [6] 提出了加权张量核范数的多视图聚类方法。但以上两种基于t-SVD分解的张量核范数是多秩的凸松弛,在t-SVD代数框架下定义的张量核范数中,它并不是最为严格的。此外,上述方法在计算各个视图的子空间表示矩阵时,并没有对表示矩阵进行任何惩罚,无法确保得到的表示矩阵能够很好地挖掘数据间的关系。

为了克服上述方法的局限性,本文提出了低秩张量表示方法(LRTR),基于LSR的思路,我们的方法对各个视图的子空间表示矩阵引入了F范数的惩罚,这样可以在确保数据间关系被较好地挖掘的同时不增加算法的计算量,此外,本文采用卢等 [7] 提出的新的张量核范数,他们将张量乘积看作是一个算子,然后利用算子范数诱导出张量谱范数,最后将张量谱范数的对偶范数定义为张量核范数。他们还提出了张量平均秩的概念,同时证明了张量核范数是张量平均秩在张量谱范数单位球里的凸松弛。这个框架,包括新的张量核范数概念及其关系,与矩阵情况下的框架是一致的。

2. 基本概念与预备知识

本文提出的多视图聚类主要是在矩阵和3阶张量基础上开展的,在介绍具体之前,先将涉及到的符号进行简单的介绍。一些常见符号如表1所示。

Table 1. Summary of notations in this paper

表1. 相关符号

给定任意张量 A R n 1 × n 2 × n 3 ,引入bcirc、unfold和fold算子。 bcirc ( A ) 表示张量 A 的块循环矩阵

bcirc ( A ) = [ A ( 1 ) A ( n 3 ) A ( 2 ) A ( 2 ) A ( 1 ) A ( 3 ) A ( n 3 ) A ( n 3 1 ) A ( 1 ) ]

算子unfold和它的逆算子fold为

unfold ( ) = [ A ( 1 ) A ( 2 ) A ( n 3 ) ] R n 1 n 3 × n 2 , fold ( unfold ( ) ) =

定义1-1 (张量t-积):两个张量 A R n 1 × r × n 3 B R r × n 2 × n 3 的t-积为大小为 n 1 × n 2 × n 3 的张量:

A B = fold ( bcirc ( A ) unfold ( B ) ) (1)

定义1-2 (共轭转置):张量 A C n 1 × n 2 × n 3 的共轭转置为 A C n 2 × n 1 × n 3 ,它是通过先将 A 的每个正面切片共轭转置,然后从第二个正面切片到第 n 3 个正面切片依次交换位置得到。

定义1-3 (单位张量):若存在张量 I R n 1 × n 1 × n 3 ,它的第一个正面切片为单位矩阵,其余前向切片均为 n 1 × n 1 的零矩阵,则称 I 为单位张量。

定义1-4 (正交张量):若存在张量 Q R n × n × n 3 满足 Q Q = Q Q = I ,则称 Q 为正交张量。

定义1-5 (f-对角张量):若张量 A R n 1 × n 1 × n 3 的所有正面切片都为对角矩阵,则称 A 为f-对角张量。

定义1-6 (张量奇异值分解):张量 A R n 1 × n 2 × n 3 的张量奇异值分解(t-SVD)如图1所示,定义为

A = U S V (2)

其中 S R n 1 × n 2 × n 3 为f-对角张量, U R n 1 × n 1 × n 3 V R n 2 × n 2 × n 3 为正交张量。

Figure 1. t-SVD of 3rd-order tensor

图1. 三阶张量的张量奇异值分解示意图

定义1-7 (张量平均秩 [7] ):对于张量 A R n 1 × n 2 × n 3 ,其平均秩定义为

rank a ( A ) = 1 n 3 rank ( brirc ( A ) )

定义1-8 (张量管秩 [7] ):给定张量 A R n 1 × n 2 × n 3 和它的t-SVD分解 A = U S V ,张量 A 的管秩定义为张量 S 的所有管纤维中非零向量的个数,即

rank t ( S ) = # { i , S ( i , i , : ) 0 }

在文献 [7] 中,作者卢等人利用离散傅里叶变换的性质得到如下结论:

S ( i , i , 1 ) = 1 n 3 j = 1 n 3 S ¯ ( i , i , j )

由上式可知, S 的管纤维是否为零向量等价于 S 的第一个正面切片对角线元素是否为零,则由此定义 S 的第一个正面切片对角线元素为张量 A 的奇异值,张量的管秩等价定义为非零张量奇异值的个数,即

rank t ( A ) = # { i , S ( i , i , 1 ) 0 }

这同矩阵秩的定义在某种程度上具有一致性。

定义1-9 (张量核范数 [7] ):给定张量 A R n 1 × n 2 × n 3 ,若其t-SVD分解为 A = U S V ,那么它的张量核范数(TNN)定义为

A = i = 1 r S ( i , i , 1 )

其中,r为 r = rank t ( A )

3. 基于LRTR的多视图子空间聚类

本文提出了低秩张量表示算法(Low Rank Tensor Representation, LRTR),多个视图特征矩阵堆叠可以形成张量,因此我们引入了一个低秩张量约束,并且联合核范数和Frobenius范数构建模型。

3.1. 基于自表示的子空间聚类

子空间聚类的方法是将数据聚类成多个子空间。本文考虑了基于自表示的子空间聚类方法,该方法通过重构系数构造亲和矩阵。假设 X = [ x 1 , x 2 , , x N ] R D × N

为数据向量的矩阵,其中每列为D维样本向量。为了将数据聚类到各自的子空间中,我们首先计算一个子空间表示矩阵如下:

min Z , E R ( Z ) + λ L ( X , Z ) s .t . X = X Z + E , (3)

其中 Z = [ z 1 , z 2 , , z N ] R N × N 是子空间表示矩阵,E为重构误差矩阵。 L ( : , : ) 表示损失函数, R ( ) 是正则化器, λ 是控制损失强度的参数。在得到自表示矩阵Z后,得到一个亲和矩阵 ( | Z | + | Z T | ) / 2 | Z | 为Z元素取绝对值形成的矩阵,并输入谱聚类算法,得到最终的聚类结果。尽管取得了很好的性能,但所有这些方法都集中在单视图数据上。一种扩展式(3)处理多视图数据的方式如下:

min Z ( v ) , E ( v ) v = 1 V ( R ( Z v ) + λ v L ( X ( v ) ) , ( Z ( v ) ) ) s .t . X ( v ) = X ( v ) Z ( v ) + E ( v ) , v = 1 , 2 , , V , (4)

其中 X ( v ) Z ( v ) E ( v ) 表示第v个视图的数据矩阵、子空间表示矩阵和重构误差矩阵。 λ v 是第v个视图控制损失惩罚强度的参数。然而,这种方式只独立地考虑每个视图,而忽略了不同视图之间的相关性。为了解决这个问题,我们建议用张量约束这些亲和矩阵。

3.2. 构建LRTR算法的目标函数

我们在子空间聚类中引入了一个低秩张量约束,并提出了一个基于LRTR的多视图子空间聚类算法,联合学习不同视图的子空间表示,探索不同视图之间的内在相关性。首先我们利用张量将不同视图的特征自表示信息进行统一建模,并使用新的张量核范数进行约束,得到初步目标函数为:

min Z ( v ) , E ( v ) Z + λ E 2 , 1 , s .t . X ( v ) = X ( v ) Z ( v ) + E ( v ) , v = 1 , 2 , , V , Z = Ψ ( Z ( 1 ) , Z ( 2 ) , , Z ( V ) ) , E = [ E ( 1 ) ; E ( 2 ) ; ; E ( V ) ] , (5)

其中 Ψ ( ) 通过合并不同的表示矩阵 Z ( v ) 来构造一个三阶张量 Z ,其维数为 N × N × V E = [ E ( 1 ) ; E ( 2 ) ; ; E ( V ) ] 是通过沿着每个视图对应误差的列垂直连接在一起而形成的。并应用 l 2 , 1 范数 2 , 1 鼓励E在列中保持稀疏。我们对不同视图的数据矩阵进行归一化,以迫使不同视图的误差是相同的尺度,这可以减少不同视图之间误差幅度的变化。直观地说,式(5)中的目标函数通过共同协作多个视图来寻求自我呈现的最低秩。

在确保数据间关系被较好地挖掘的同时不增加算法的计算量,我们加入矩阵 Z ( v ) 奇异值的 l 2 范数惩

罚函数 Z ( v ) F 2 。因此式(5)中的 Z 可以优化为 Z + β v = 1 V Z ( v ) F 2 β 用于平衡 Z v = 1 V Z ( v ) F 2 的关系。由于 v = 1 V Z ( v ) F 2 = Z F 2 ,因此我们得到的目标函数为:

min Z ( v ) , E ( v ) Z + λ E 2 , 1 + β Z F 2 , s .t . X ( v ) = X ( v ) Z ( v ) + E ( v ) , v = 1 , 2 , , V , Z = Ψ ( Z ( 1 ) , Z ( 2 ) , , Z ( V ) ) , E = [ E ( 1 ) ; E ( 2 ) ; ; E ( V ) ] , (6)

3.3. 求解LRTR算法的目标函数

我们采用ADMM算法 [8] 求解式(6),引入辅助变量 G ,式(6)可以转变为

min Z ( v ) , E ( v ) G + λ E 2 , 1 + β G F 2 , s .t . X ( v ) = X ( v ) Z ( v ) + E ( v ) , v = 1 , 2 , , V , Z = G , Z = Ψ ( Z ( 1 ) , Z ( 2 ) , , Z ( V ) ) , E = [ E ( 1 ) ; E ( 2 ) ; ; E ( V ) ] , (7)

式(7)的增广拉格朗日函数为

L ( Z ( 1 ) , , Z ( v ) ; E ( 1 ) , , E ( v ) ; Y ( v ) ; G , W ) = G + λ E 2 1 + β G F 2 + v = 1 V Y ( v ) , X ( v ) X ( v ) Z ( v ) E ( v ) + μ 2 v = 1 V X ( v ) X ( v ) Z ( v ) E ( v ) F 2 + W , Z G + μ 2 Z G F 2 (8)

其中 Y ( v ) W 为拉格朗日乘子, μ 为惩罚参数。使用ADMM对每个变量进行交替更新。

固定变量E, G ,更新 Z ( v ) ,即:

min Z ( v ) Y ( v ) , X ( v ) X ( v ) Z ( v ) E ( v ) + μ 2 X ( v ) X ( v ) Z ( v ) E ( v ) F 2 + W ( v ) , Z ( v ) G ( v ) + μ 2 Z ( v ) G ( v ) F 2 (9)

式(9)对 Z ( v ) 求导并令导数等于0,可以求得:

Z ( v ) = ( X ( v ) T X ( v ) + I ) 1 ( X ( v ) T X ( v ) X ( v ) T E ( v ) + X ( v ) T Y ( v ) μ + G ( v ) W ( v ) μ ) (10)

固定变量 Z ( v ) G ,更新E,即:

E = arg min E λ E 2 , 1 + v = 1 V Y ( v ) , X ( v ) X ( v ) Z ( v ) E ( v ) + μ 2 v = 1 V X ( v ) X ( v ) Z ( v ) E ( v ) F 2 = arg min E λ μ E 2 , 1 + 1 2 E F F 2 (11)

式中F为 X ( v ) X ( v ) Z ( v ) + Y ( v ) μ 沿着列垂直连接形成的矩阵。式(11)也有闭解,可以通过 l 2 , 1 范数最小化算子求解,由引理1给出。

引理1 [1] 给定矩阵 F = [ f 1 , f 1 , , f n ] ,如果优化问题 min X τ X 2 , 1 + 1 2 X F F 2 的解为 X X 的第i列由式(12)获得。

X ( : , i ) = { f i 2 τ f i 2 f i , τ < f i 2 0 , τ f i 2 (12)

固定变量E, Z ( v ) ,更新 G ,即:

min G G + β G F 2 + μ 2 Z G + W μ F 2 (13)

式(13)可变为:

min G 1 2 β + μ G + 1 2 G H F 2 (14)

式中 H = μ Z + W 2 β + μ ,基于t-SVD分解的张量核范数最小化问题可以对 H 进行奇异值阈值(SVT) [7] 操作求解,即

G = U T τ ( S H ) V T (15)

式中 τ = 1 2 β + μ U S H V T H 的t-SVD分解, T τ ( S H ) = ifft ( ( S ¯ H τ ) + , [ ] , 3 )

其算法总结如下:

3.4. 基于LRTR的多视图子空间聚类

我们将基于自表示的子空间聚类扩展到多视图,通过使用张量约束来探索不同视图之间的相关性。通过求解目标函数(7)得 Z ,然后共同构建了亲和矩阵 S = 1 V i = 1 V ( | Z ( : , : , i ) | + | Z ( : , : , i ) T | ) ,目的是捕获不同视图之间的高阶相关性,最后应用基于亲和矩阵S的谱聚类算法 [9] ,得到聚类结果。

4. 实验

4.1. 实验设置

4.1.1. 数据集

为验证方法的有效性,我们在以下4个数据集上进行了几组实验。

1) PIE数据集是一个有代表性的人脸图像数据集,广泛地应用于聚类实验。该数据集包含68类在不同姿态、光照和表情下的11,554张人脸图像,每幅图像的大小是32 × 32。在本节实验中,我们从中选取20类图像,每类取150张进行实验,分别提取了强度、HOG [10] 和Gabor [11] 三种特征。

2) ORL数据集为40个不同人的人脸,对于每个人,都有在不同的时间段,以不同的面部表情,面部细节以及光照条件拍摄的10张人脸图像,共400张图像,图像的大小为32 × 32,该数据集提取了3种特征集,即4096维强度特征,3304维LBP [12] 特征和6750维Gabor特征。

3) MSRA数据集是含有六个试图数据的数据集,包含了7个不同类别的210张图像,其中,每个类别包含30幅图像。

4) MNIST数据集包含大小为28 × 28像素的手写数字的灰度图像。本文选取十类作为实验对象,每类10张,分别提取强度、LBP和Gabor三种特征作为多视图数据的不同视图。

4.1.2. 对比算法

为了说明提出算法的有效性,我们将在实验数据集上与下列7个相关算法进行对比:

1) SPCbest [13] ,对各个视图数据执行谱聚类算法,选取结果最好的那个视图作为结果。

2) LRRbest [1] ,对各个视图数据实施低秩约束,执行LRR算法,最后选取结果最好的那个视图。

3) RMSC [14] ,基于稀疏和低秩特性,首先从每个视图中构造出转移概率矩阵,并使用这些矩阵对共享的低秩转移概率矩阵进行恢复。

4) LT-MSC [4] ,将子空间表示矩阵构成张量并基于Tucker分解进行低秩张量约束,以此获取各个视图之间的高阶相关性,并对融合后的子空间表示矩阵进行谱聚类。

5) t-SVD-MSC [5] ,基于张量奇异值分解,对旋转张量施加一种低秩张量约束,最后对亲和矩阵进行谱聚类。

6) ETLMSC [15] ,基于马尔可夫链的谱聚类,提出一种新的基本张量学习方法来探索多视图表示的高阶相关性。

7) UGLTL [16] ,联合学习投影子空间中的最优亲和矩阵及其固有的低秩张量,用于多视图聚类。

4.1.3. 评价指标

为了综合评估聚类的性能,本文采用6个评价指标对结果进行度量,分别是:精确度(ACC) [17] 、归一化互信息(NMI) [17] 、调整兰德指数(ARI) [17] 、F值(F-score)、查准率(Precision) [17] 以及查全率(Recall) [17] 。对于所有指标,值越高表示性能越好。

4.2. 实验结果与分析

表2~5为各算法在4个数据集上的测试结果,从表中可以看出,本文提出的算法都取得了最佳聚类性能。而且本文算法在ORL、MSRA和MNIST数据集上各项评价指标都达到了100%。由上述实验可以发现,与其他传统算法相比,基于张量的方法在所有数据集上综合表现的更好,主要归功于张量低秩最小化对多视图高阶相关性的有效探索。值得注意的是,LT-MSC是基于展开的张量核范数的方法,它是塔克秩的松弛替代。由于松弛性,LT-MSC方法整体的聚类性能比其他基于张量的方法差一些。而本文算法使用最新的张量核范数并且添加正则项后,与LT-MSC、t-SVD-MSC和ETLMSC相比有明显的进步,相比最有竞争力的UGLTL算法仍体现出优越性。

Table 2. Experimental results on PIE

表2. PIE数据集上实验结果

Table 3. Experimental results on ORL

表3. ORL数据集上实验结果

Table 4. Experimental results on MSRA

表4. MSRA数据集上实验结果

Table 5. Experimental results on MNIST

表5. MNIST数据集上实验结果

5. 结论

本文提出了基于LRTR的多视图子空间聚类方法,在原有LT-MSC模型的基础上做了改进,对各个视图的子空间表示矩阵引入了F范数的惩罚,这样可以确保数据间关系被较好地挖掘,此外,本文采用新的张量核范数,深入探索了各视图之间的高阶相关性。最后,在4种数据库上的实验结果表明了本文算法的有效性。对于未来的工作,我们计划借助卷积神经网络来学习亲和矩阵,进一步提高多视图子空间聚类算法的性能。

基金项目

国家自然科学基金项目(62076115)。

文章引用

李 欢,唐科威. 基于低秩张量表示的多视图子空间聚类
Multi-View Subspace Clustering Based on Low-Rank Tensor Representation[J]. 理论数学, 2023, 13(10): 2877-2887. https://doi.org/10.12677/PM.2023.1310294

参考文献

  1. 1. Liu, G.C., Lin, Z.C., Yan, S.C., et al. (2013) Robust Recovery of Subspace Structures by Low-Rank Representation. IEEE Transactions on Pattern Analysis and Machine Intelligence, 35, 171-184. https://doi.org/10.1109/TPAMI.2012.88

  2. 2. Lu, C.Y., Min, H., Zhao, Z.Q., et al. (2012) Robust and Efficient Subspace Segmentation via Least Squares Regression. Proceedings of the 12th European Conference on Computer Vi-sion, Volume 7, 347-360. https://doi.org/10.1007/978-3-642-33786-4_26

  3. 3. Gao, H.C., Li, X.L., Nie, F.P., et al. (2015) Multi-View Subspace Clustering. Proceedings of the IEEE International Conference on Computer Vision, Santiago, 7-13 December 2015, 4238-4246. https://doi.org/10.1109/ICCV.2015.482

  4. 4. Zhang, C.Q., Fu, H.Z., Liu, S., et al. (2015) Low-Rank Tensor Constrained Multiview Subspace Clustering. Proceedings of the 2015 IEEE International Conference on Computer Vision (ICCV), Santiago, 7-13 December 2015, 1582-1590. https://doi.org/10.1109/ICCV.2015.185

  5. 5. Xie, Y., Tao, D.C., Zhang, W.S., et al. (2018) On Unifying Mul-ti-View Self-Representations for Clustering by Tensor Multi-Rank Minimization. International Journal of Computer Vision, 126, 1157-1179. https://doi.org/10.1007/s11263-018-1086-2

  6. 6. Gao, Q.X., Xia, W., Wan, Z.Z., et al. (2020) Tensor-SVD Based Graph Learning for Multi-View Subspace Clustering. Proceedings of the AAAI Conference on Artificial Intelligence, 34, 3930-3937. https://doi.org/10.1609/aaai.v34i04.5807

  7. 7. Lu, C.Y., Feng, J.S., Chen, Y.D., et al. (2019) Tensor Robust Prin-cipal Component Analysis with a New Tensor Nuclear Norm. IEEE Transactions on Pattern Analysis and Machine Intelligence, 42, 925-938. https://doi.org/10.1109/TPAMI.2019.2891760

  8. 8. Lin, Z.C., Liu, R.S. and Su, Z.X. (2011) Linearized Alternating Direction Method with Adaptive Penalty for Low-Rank Representation. Proceedings of the Neural Information Processing Systems, Granada, 12-15 December 2011, 612-620.

  9. 9. Shi, J.B. and Malik, J. (2000) Normalized Cuts and Image Segmentation WJJ. IEEE Transactions on Pattern Analysis and Machine Intelligence, 22, 888-905. https://doi.org/10.1109/34.868688

  10. 10. Dalal, N. and Triggs, B. (2005) Histograms of Oriented Gradients for Human Detection. Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR’05), San Diego, 20-25 June 2005, 886-893.

  11. 11. Lades, M., Vorbruggen, J.C., Buhmann, J., et al. (1993) Distortion Invariant Object Recognition in the Dynamic Link Architecture. IEEE Transactions on Computers, 42, 300-311. https://doi.org/10.1109/12.210173

  12. 12. Ojala, T., Pietikainen, M. and Maenpaa, T. (2002) Multiresolution Gray-Scale and Rotation Invariant Texture Classification with Local Binary Patterns. IEEE Transactions on Pattern Analysis and Machine Intelligence, 24, 971-987. https://doi.org/10.1109/TPAMI.2002.1017623

  13. 13. Ng, A., Jordan, M. and Weiss, Y. (2001) On Spectral Clus-tering: Analysis and an Algorithm. NIPS’01: Proceedings of the 14th International Conference on Neural Information Processing Systems: Natural and Synthetic, Vancouver, 3-8 December 2001, 849-856.

  14. 14. Xia, R., Pan, Y., Du, L., et al. (2014) Robust Multi-View Spectral Clustering via Low-Rank and Sparse Decomposition. In: Proceedings of the 28th AAAI Conference on Artificial Intelligence, AAAI Press, Palo Alto, 2149-2155. https://doi.org/10.1609/aaai.v28i1.8950

  15. 15. Wu, J.L., Lin, Z.C. and Zha, H.B. (2019) Essential Tensor Learning for Multi-View Spectral Clustering. IEEE Transactions on Image Processing, 28, 5910-5922. https://doi.org/10.1109/TIP.2019.2916740

  16. 16. Wu, J., Xie, X., Nie, L., et al. (2020) Unified Graph and Low-Rank Tensor Learning for Multi-View Clustering. Proceedings of the AAAI Conference on Artificial Intelligence, 34, 6388-6395. https://doi.org/10.1609/aaai.v34i04.6109

  17. 17. Schütze, H., Manning, C.D. and Raghavan, P. (2008) Introduction to Information Retrieval. Cambridge University Press, Cambridge. https://doi.org/10.1017/CBO9780511809071

期刊菜单