Advances in Applied Mathematics
Vol. 12  No. 01 ( 2023 ), Article ID: 61016 , 8 pages
10.12677/AAM.2023.121048

基于L2,1范数的超图正则化非负矩阵分解

文学春

贵州师范大学数学科学学院,贵州 贵阳

收稿日期:2022年12月28日;录用日期:2023年1月21日;发布日期:2023年1月31日

摘要

图学习的方法只考虑了样本间的关系,忽略了样本间的高维结构,基于欧氏距离的非负矩阵模型易受到噪声和异常值的影响。为解决以上问题,给出一种基于L2,1范数的超图正则化非负矩阵分解(L2,1HNMFL)方法,并给出了算法的更新规则。通过在COIL20和ORL经典数据集上与其他算法的比较验证了该算法的有效性。

关键词

L2,1范数,超图学习,聚类分析,非负矩阵分解

Hypergraph Regular Nonnegative Matrix Factorization Based on L2,1 Norms

Xuechun Wen

School of Mathematical Sciences, Guizhou Normal University, Guiyang Guizhou

Received: Dec. 28th, 2022; accepted: Jan. 21st, 2023; published: Jan. 31st, 2023

ABSTRACT

The graph learning method only considers the relationship between samples, but ignores the high-dimensional structure between samples. The non-negative matrix model based on Euclidean distance is easily affected by noise and outliers. To solve the above problems, a hypergraph regularization nonnegative matrix factorization (L2,1HNMFL) method based on L2,1 norm is presented, and the updating rules of the algorithm are given. The effectiveness of this algorithm is verified by comparing it with other algorithms on classical data sets COIL20 and ORL.

Keywords:L2,1 Norm, Hypergraph Learning, Cluster Analysis, Nonnegative Matrix Decomposition

Copyright © 2023 by author(s) and Hans Publishers Inc.

This work is licensed under the Creative Commons Attribution International License (CC BY 4.0).

http://creativecommons.org/licenses/by/4.0/

1. 引言

聚类是特征学习和计算机视觉中的一项重要但具有挑战性的任务。对于图像聚类任务,最重要的是找到原始数据的有效表示。为了挖掘出原始数据中内在的结构信息,许多研究人员已经做了大量的工作。最流行的特征提取方法包括主成分分析 [1] (PCA)、奇异值分解 [2] (SVD)、概念分解 [3] (CF)非负矩阵分解 [4] (NMF)等。1999年,Lee和Seung [4] 在《自然》杂志上首次提出了非负矩阵分解的概念。NMF的目标是得到两个非负矩阵,基矩阵和编码矩阵,其乘积尽可能接近原始矩阵。由于NMF的良好性能,在Lee和Seung的工作之后,许多标准NMF的变体被提出,用于从不同的观点改进NMF。

为了提高NMF的稀疏性,Li等人提出了一种加入局部约束的局部NMF [5] (LNMF)。在此之后,Chen等人在NMF中引入了局部坐标约束 [6]。Cai等人提出了一个图正则化 [7] NMF (GNMF),试图涉及数据空间的几何信息。GNMF通过构造一个k最近邻(kNN)图来对几何结构进行编码。因为一个简单图中的一条边只能连接两个顶点,GNMF只考虑了两个样本之间的成对关系,而忽略了样本间的高维结构。为了探索样本之间的高阶关系,Zeng等人通过构建一个编码更多样本之间关系的超图,开发了一个超图正则化 [8],因为超图可以连接两个以上的顶点,HNMF可以找出数据的高阶关系。

上述方法在某种程度上确实改进了标准的NMF。然而,由于原始数据中所包含的潜在噪声会影响聚类和分类的性能。当数据包含噪声或离群值时,特征和样本的误差都是平方的,因此有一些噪声特征或一些离群值的误差较大将支配目标函数。Kong等人提出了鲁棒非负矩阵分解算法 [9],克服了标准NMF算法对噪声和异常值敏感的缺点。

为了减轻噪声或异常值的影响,处理高维、包含噪声和异常值的数据。整合L2,1范数和超图正则化的优点,给出了一种基于L2,1范数的超图正则化非负矩阵分解。在COIL20和ORL数据集上的实验结果表明,L2,1HNMFL方法在聚类精度和归一化互信息上优于四种具有代表性的方法k-means、NMF、L2,1NMF和GNMF。在第二节中,简要回顾了标准NMF及其一些具有代表性的变体。在第三节中,详细描述了L2,1HNMFL方法并给出了有效的迭代更新规则。第四节展示了在数据集上的实验结果。最后,在第五节中简要地总结了这篇论文。

2. 预备知识

给定的非负数据矩阵 X = ( x 1 , x 2 , , x n ) x i R m 表示一个数据点。标准NMF定义为:

min U , V X U V F 2 , U 0 , V 0

上述问题通常通过迭代更新算法来解决,其中U和V的迭代更新方法如下:

u i k u i k ( X V T ) i k ( U V V T ) i k ,

v k i v k i ( U T X ) k j ( U T U V ) k j .

为了提高NMF的鲁棒性,Kong等人提出L2,1NMF算法,能够降低数据集中噪声和异常值的影响。目标函数定义为:

min U , V X U V 2 , 1 , U 0 , V 0

其中L2,1范数定义为 Y 2 , 1 = i = 1 m j = 1 n Y i j 2 = i = 1 m Y i , : 2

迭代更新规则为

u i k u i k ( X G V T ) i k ( U V G V T ) i k ,

v k j v k j ( U T X G ) k j ( U T U V G ) k j .

为了保持数据的局部几何结构,Cai等人提出了GNMF,目标函数为

min U 0 , V 0 X U V F 2 + λ T r ( V L V T )

其中 L = D W 是图拉普拉斯矩阵。W是图的权重矩阵,D是对角矩阵, D i i = j W i j

因为一个简单图中的一条边只能连接两个顶点。为了考虑样本之间的高维结构,Zeng等人提出了超图正则化。下面将简单地介绍超图的一些基本定义 [10]:

给定一个超图 G = ( A , E , S ) ,其中A表示超图中所有顶点的集合,E表示所有超边的集合,任意一个超边 e E 是顶点集A的一个子集。S是超图的权重矩阵,它是一个对角矩阵,元素 s ( e ) 表示超边e权重

的大小。把一个顶点和一条超边的关系记为关联矩阵H,则关联矩阵H表示为 H ( a i , e j ) = { 0 a i e j 1 a i e j

对于任意顶点 a A ,顶点a的度定义为 d ( a ) = e E s ( a ) H ( a , e ) ,对于超边 e E ,它的度定义为 δ( e )= eE H( a,e ) 。超图的权重矩阵为S,其元素 s i j 表示为 s i j = e E ( i , j ) e s ( e ) δ ( e ) 。超图拉普拉斯矩阵 L H y p e r = D a B B = H S D e 1 H T

3. 基于L2,1范数的超图正则化非负矩阵分解

在这一部分中,给出了基于L2,1范数的超图正则化非负矩阵分解算法(L2,1HNMFL),不仅可以克服数据中噪声和异常值的影响,还可以保持数据集的内在几何结构,得到更加准确的聚类效果。下面先介绍目标中正则化项。

3.1. 目标函数

首先介绍坐标编码的概念 [11]。

定义:坐标编码是一对 ( γ , C ) C R d 是一组锚点, γ x R d [ γ v ( x ) ] v C R | C | 的映射。得到物

理近似式: γ ( x ) = v C γ v ( x ) v

根据上式,基矩阵U的列可以看作是一组锚点,而数据集中的每个数据点都可以用锚点的线性组合来表示。编码矩阵V的列包含了数据点相对于锚点的坐标。为了获得稀疏编码,每个数据点都应该表示为只有几个附近锚点的线性组合,即每个数据点应该只足够接近几个锚点。这可以通过引入局部坐标约束来实现,局部坐标约束可以表述为以下问题:

J 1 = k = 1 K | v k i | u k x i 2

将上式整合到鲁棒的NMF中,并且增加超图正则项,目标函数定义为:

J L 21 H N M F L = X U V 2 , 1 + α i = 1 N k = 1 K | v k i | u k x i 2 + λ T r ( V L H y p e r V T ) (1)

s.t. U = [ u 1 , , u K ] R M × K > 0 , V = [ v 1 , , v N ] R K × N > 0 .

3.2. 更新规则

下面给出更新规则和推导过程,经过简单运算,(1)式可以改写为:

J L 21 H N M F L = X U V 2 , 1 + α i = 1 N ( x i 1 T U ) Λ i 1 / 2 F 2 + λ T r ( V L H y p e r V T )

其中 α λ 是大于0的常数。目标函数的第二项和第三项分别是局部坐标约束项和超图正则化项。 Λ i = d i a g ( | V i | ) R K × K ,根据迹的知识,目标函数可以写为:

J L 21 H N M F L = 2 T r ( X T I X 2 X T I U V + V T U T I U V + μ i = 1 N ( x i 1 T Λ i 1 x i T 2 x i 1 T Λ i U T + U Λ i U T ) ) + λ T r ( V L H y p e r V T )

其中, I i i = 1 / 2 j = 1 n ( X U V ) i j 2 L H y p e r = D a B B = H S D e 1 H T

ψ i k ϕ k j 分别是 u i k v k j 的拉普拉斯乘子。 Ψ = [ ψ i k ] Φ = [ ϕ k j ] 是对应的拉普拉斯矩阵,则拉普拉斯扩展式L为:

L = X U V 2 , 1 + α i = 1 N ( x i 1 T U ) Λ i 1 / 2 F 2 + λ T r ( V L H y p e r V T ) T r ( Ψ U T ) T r ( Φ V T )

L U = 0 L V = 0 ,得到:

Ψ = 2 I X V T + 2 I U V V T + μ i = 1 N ( 2 x i 1 T Λ i + 2 U Λ i )

Φ = 2 U T I X + 2 U T I U V + μ ( C 2 U T X + D ) + 2 λ V L H y p e r

定义列向量 C = ( c , , c ) T 。设 C = ( c , , c ) T 是一个 K × N 矩阵,其行为 c T 。定义列向量 p = d i a g ( U T U ) R K 。设 P = ( p , , p ) 为一个 K × N 矩阵,其列为p。根据上式,关于L2,1HNMFL算法的迭代公式为:

u j k u j k ( I X V T + μ i = 1 N ( x i 1 T Λ i ) ) j k ( I U V V T + μ i = 1 N U Λ i ) j k , (2)

v k i v k i ( 2 U T I X + 2 μ U T X + 2 λ V H S D e 1 H T ) k i ( 2 U T I U V + μ C + μ D + 2 λ V D a ) k i . (3)

4. 实验

4.1. 数据集的描述

ORL数据集:ORL人脸数据库共由总共400张人脸图像组成,为40个个体在不同光照条件、有/没有眼镜和不同面部表情的情况下的10张灰度人脸图像。所有图像的分辨率都被调整为32 × 32。

COIL20数据集:数据集由20个物体的1440张图像组成,灰度大小为32 × 32。每个物体有72张不同的图像,所有的图像都是黑色的背景。

4.2. 比较的方法

为了验证算法的有效性,与四种具有代表性的方法k-means、NMF、L21NMF和GNMF进行比较。

4.3. 实验设计

在实验中,使用了两个通常使用的测量方法来评估算法的效果,分别是聚类精度(AC)和归一化互信息(NMI) [12]。

聚类精度(AC)定义为:

AC = i = 1 n δ ( g n d i , m a p ( r i ) ) n

其中 g n d i 是数据集给出的标签, r i 是聚类算法提供的标签, m a p ( r i ) 是将 r i 映射到等价标签的排列映射函数, δ ( x , y ) 是delta函数,如果 x = y ,其值为1,否则为0。

互信息(NMI)可以衡量两个集群集之间的相似性,在聚类应用中得到了广泛的应用。设C和 C 为两组集,然后将MI定义为

MI ( C , C ) = c i C , c j C p ( c i , c j ) log P ( c i , c j ) p ( c i ) p ( c j )

其中, p ( c i ) p ( c j ) 分别表示属于集群C和集群 C 的样本的概率。 P ( c i , c j ) 表示一个样本同时属于C和 C 的联合概率。然后将NMI定义为:

NMI ( C , C ) = MI ( C , C ) max ( H ( C ) , H ( C ) )

其中 H ( C ) H ( C ) 分别表示C和 C 的信息熵。

在实验中,在一定范围内改变了参数,以寻找所给出的方法的最佳性能,正则化参数 μ λ 在{0.001、0.01、0.1、0、1、10、100、1000}中进行选择。所有方法对上述数据集的聚类结果如表1~4所示。对于每个给定的聚类数k,从数据集中随机选择的不同类重复10次测试运行,并聚类性能的方差和平均值。

Table 1. Clustering accuracy on COIL20

表1. COIL20上的聚类准确度(AC)

Table 2. Normalized Mutual Information on COIL20

表2. COIL20上的归一化互信息(NMI)

Table 3. Clustering accuracy on ORL

表3. ORL上的聚类准确度(AC)

Table 4. Normalized Mutual Information on ORL

表4. ORL上的归一化互信息(NMI)

4.4. 实验结果与分析

通过以上两个数据集上的实验结果进行分析,可以得出:

1) k-means的聚类性能不如其他方法。这表明,通过其他方法获得的高维样本的低维表示在数据聚类中是有用的,并可以提高聚类性能。2) 在大多数情况下,GNMF的性能优于NMF,这验证了几何结构在矩阵分解算法中的重要作用。3) 由于L2,1HNMFL算法是利用局部约束来保持几何结构,并利用L2,1范数来保持稀疏性,故L2,1HNMFL算法优于所有其他算法。4) 与其他方法相比,给出的L2,1HNMFL算法在测试的AC和NMI值上都获得最好的聚类性能。这表明,通过将超图的构造和局部约束合并到一个统一的框架中,L2,1HNMFL算法比其他方法具有更强的判别能力。

5. 结语

新方法给出了一个基于超图正则化和局部约束的聚类模型,可以有效地处理高维、稀疏和有噪声的数据。在COIL20数据集和ORL数据集上,聚类精度分别提高了6.90%和4.83%,归一化互信息分别提高了3.08%和2.30%。

文章引用

文学春. 基于2,1范数的超图正则化非负矩阵分解
Hypergraph Regular Nonnegative Matrix Factorization Based on 2,1 Norms[J]. 应用数学进展, 2023, 12(01): 451-458. https://doi.org/10.12677/AAM.2023.121048

参考文献

  1. 1. Fukunada, K. (1990) Introduction to Statistical Pattern Recognition. In: Rheinboldt, W. and Siewiorek, D., Eds., Com-puter Science and Scientific Computing, Academic Press, Cambridge.

  2. 2. Kalman, D. (1996) A Singularly Valuable Decomposition: The SVD of a Matrix. The College Mathematics Journal, 27, 2-23. https://doi.org/10.1080/07468342.1996.11973744

  3. 3. Xu, W. and Gong, Y.H. (2004) Document Clustering by Concept Factorization. Research and Development in Information Retrieval.

  4. 4. Lee, D.D. and Seung, H.S. (1999) Learning the Parts of Objects by Non-Negative Matrix Factorization. Nature, 401, 788-791. https://doi.org/10.1038/44565

  5. 5. Li, S.Z., Hou, X.W., Zhang, H.J., et al. (2001) Learning Spatially Localized, Parts-Based Representation. Proceedings of the 2001 IEEE Computer Society Conference on Computer Vision and Pat-tern Recognition, 1, I-I.

  6. 6. Chen, Y., Zhang, J., Cai, D., et al. (2012) Nonnegative Local Coordinate Factorization for Image Representation. IEEE Transactions on Image Processing, 22, 969-979. https://doi.org/10.1109/TIP.2012.2224357

  7. 7. Deng, C., et al. (2010) Graph Regularized Nonnegative Matrix Factorization for Data Representation. IEEE Transactions on Pattern Analysis and Machine Intelligence, 33, 1548-1560. https://doi.org/10.1109/TPAMI.2010.231

  8. 8. Zeng, K., Yu, J., Li, C., et al. (2014) Image Clustering by Hy-per-Graph Regularized Non-Negative Matrix Factorization. Neurocomputing, 138, 209-217. https://doi.org/10.1016/j.neucom.2014.01.043

  9. 9. Kong, D.G., Ding, C. and Huang, H. (2011) Robust Nonnega-tive Matrix Factorization Using L21-Norm. Information and Knowledge Management.

  10. 10. Zhou, D., Huang, J. and Schölkopf, B. (2006) Learning with Hypergraphs: Clustering, Classification, and Embedding. Advances in Neural In-formation Processing Systems, 19.

  11. 11. Yu, K., Zhang, T. and Gong, Y. (2009) Nonlinear Learning Uusing Local Co-ordinate Coding. Advances in Neural Information Processing Systems, 22.

  12. 12. Xu, W., Liu, X. and Gong, Y.H. (2003) Document Clustering Based on Non-Negative Matrix Factorization. Research and Development in Informaion Retriev-al.

期刊菜单