Advances in Applied Mathematics
Vol. 09  No. 02 ( 2020 ), Article ID: 34225 , 9 pages
10.12677/AAM.2020.92023

Pre-Selection of Support Vectors Base on Distance Pairing Sorting

Chengzhi Han*, Entao Zheng, Guochun Ma#

College of Science, Hangzhou Normal University, Hangzhou Zhejiang

Received: Jan. 30th, 2020; accepted: Feb. 12th, 2020; published: Feb. 19th, 2020

ABSTRACT

Support Vector Machine is a binary classification method based on statistical learning theory. The Sequential minimal optimization algorithm is an efficient algorithm developed for the dual problem of SVM. In the data training process, support vectors play a decisive role in the determination of separation hyperplane. However, support vectors are only a small part of the original sample set and distributed in the boundary of two types of data. If a boundary vector set containing most support vectors is used to replace the original sample set for training, the training time can be shortened and the classification speed can be improved on the premise of guaranteeing the classification accuracy. Pre-selection of support vector is difficult. In order to solve this problem, this paper proposes a support vector pre-selection algorithm based on distance pairing sort. The experimental results show that the proposed algorithm can effectively pre-select the set of boundary vectors containing support vectors.

Keywords:Support Vector Machine, Support Vector, Pre-Selection, The Boundary Vector Set, Distance Pairing Sorting

基于距离配对排序的支持向量预选取算法

韩成志*,郑恩涛,马国春#

杭州师范大学理学院,浙江 杭州

收稿日期:2020年1月30日;录用日期:2020年2月12日;发布日期:2020年2月19日

摘 要

支持向量机是一种基于统计学习理论的二分类方法。支持向量机最小序列化算法(SMO)是针对支持向量机的对偶问题开发的高效算法。在数据训练过程中,支持向量对于分离超平面的确定起着决定性作用,但是支持向量仅占原始样本集的一小部分,并且分布在两类数据的边界上。如果用一个包含大多数支持向量的边界向量集来替换原始样本集进行训练,这样便能在保证分类精度的前提下,缩短训练时间,提高分类速度。然而支持向量的预选取比较困难,因此为了解决该问题,本文提出了一种基于距离配对排序的支持向量预选取算法。数值实验结果表明本文的算法能够有效地预选取包含支持向量的边界向量集。

关键词 :支持向量机,支持向量,预选取,边界向量集,距离配对排序

Copyright © 2020 by author(s) and Hans Publishers Inc.

This work is licensed under the Creative Commons Attribution International License (CC BY 4.0).

http://creativecommons.org/licenses/by/4.0/

1. 引言

统计学习理论最早是在1960 [1] 年提出的。这是一种主要研究小样本统计学习规律的理论。在20世纪90年代中期,Vapnik [2] 和他的团队基于这一理论提出了一种新的学习算法,称为支持向量机。作为研究小样本的一种学习方法,支持向量机具有很强的适用性,在模式识别和回归估计等领域得到了广泛的应用 [3]。

支持向量机是统计学习方法中的一种二分类模型,在特征空间中,支持向量机的学习策略是使可分的二分类数据间隔最大化,这样二分类问题会转化成一个求解凸二次规划问题。而SMO算法是支持向量机的一种快速算法,它通过不断地将原二次规划问题分解为只有两个变量的二次规划子问题,通过启发式的方法得到原二次规划问题的最优解。我们将凸二次规划问题最优解的非零变量对应的样本称为支持向量。根据实验研究发现,支持向量样本通常只占了全部样本的一小部分,且分布在离分类超平面较近的两类样本集的边界上,所以若能提前从原样本集中选取一个包含大多数支持向量的边界向量集作为训练集,通过SMO训练得到分类超平面,将能够减少训练样本,缩减训练时间,在保证原分类精度的基础上,提高训练速度。

在支持向量预处理的研究领域中,很多学者提出了许多方法。2005年李青 [4] 提出了向量投影的边界向量预选取方法,该方法是找到两类中心点,将所有样本点做中心点连线的投影,并将所有样本按照其投影与同类中心距离远近进行预选取构造边界向量集。2006年琚旭 [5] 提出了一种利用同心超球面来选取支持向量,找出两类中心。以每类中心为球心,以同类最远和最近样本点分别作为半径,然后将超球面间隔划分,最后对每一类样本点从外到内作为工作集进行训练。2013年胡志军 [6] 提出基于距离排序的快速支持向量机分类算法,找出两类类中心,分别对两类样本按与异类中心点的距离远近进行预选取构造边界向量集,操作简单,有效实用。2013年李庆 [7] 提出基于KNN思想的K边界近邻法支持向量预处理方法,该方法的优点在于预选取过程简单,且无论参数K取何值时都能够有效预选取支持向量。2016年邱静 [8] 通过FMC聚类将两类中心点的位置进行优化,然后再使用其他以类中心距离为基础来进行支持向量预选取方法。2018年王石 [9] 提出在K边界邻近法的基础上通过CNN方法再次压缩边界向量集,减少训练样本。以上支持向量预处理方法中构造出的边界向量集都期望最大程度上保留支持向量样本,减少原始训练样本。这样便能够在保持分类效果基本不变的情况下,缩短训练时间,提高训练速度。

本文为满足预选取样本的要求提出了一种更简单实用的支持向量的预选取算法。从两类样本中分别任意选取一个样本进行配对,然后求其距离,并将所得的所有距离按照从小到大排序,排序过程中距离对应的样本点不能重复。这样便能构造出按距离从小到大排列的样本对序列,然后按一定比例抽取排在前面的样本对所关联的样本作为边界向量集,最后将构造出来的边界向量集通过SMO训练得到分类器。该算法基于距离配对排序,我们将其称为基于距离配对排序的支持向量预选取算法DPS-SMO (Pre-selection of support vectors based on distance pairing sorting)。实验结果表明,该方法简单实用,在一定程度上预选取出大多数的支持向量,避免将所有样本参与训练,使得计算量变小,缩短了训练时间,提高了训练速度。

2. 支持向量机简介

假设训练样本集是 { ( x 1 , y 1 ) , ( x 2 , y 2 ) , , ( x N , y N ) } ,其中 x i = R n y i { 1 , 1 } i = 1 , 2 , , N ,N是一个正整数,表示输入模式的特征空间。根据结构风险最小化的思想,训练的目的就是寻找最优判决函数 f ( x ) ,使得两类数据可以被分开,且泛化误差达到最小(或有上界)。Vapnik [2] 指出:具有最大间隔的分类超平面可以满足上述条件。假定该分离超平面为 w x + b = 0 ,它是由法向量w和截距b决定。在不同的情况下为找到该分离超平面,我们需要求解以下凸二次规划问题:

(1)

其中 C 0 是惩罚因子, α i 是拉格朗日乘子, 是核函数。通过求解(1)得 α * = ( α 1 * , α 2 * , , α N * ) T 。计算法向量 w * = i = 1 N α i * y i ϕ ( x i ) ,选择 α * 的一个正分量 0 < α j * < C ,计算截距 b * = y j i = 1 N α i * y i K ( x i , x j ) 。引入核函数以后,最优判决函数可表示为 f ( x ) = s i g n ( w * ϕ ( x ) + b * ) ,其中 s i g n ( ) 是一个符号函数。由凸二次规划问题得到最终二分类模型分类器为:

f ( x ) = s i g n ( i = 1 N y i α i K ( x , x i ) + b * ) . (2)

那些 α i 0 对应的样本被称为支持向量。显然只有支持向量会影响分类器的确定,但支持向量只占了所有样本的一小部分。如果支持向量可以被预选取出来进行SMO训练,这样将减少训练样本数量,进而缩短训练时间,提高训练速度。从几何的角度来看,支持向量主要分布在两类样本的边界上 [9]。因此,本文提出的算法思想是通过距离配对排序选取两类样本边界上的样本构造边界向量集。

本文接下来第3节将具体描述基于距离配对排序的支持向量预选取算法,第4节通过数值实验结果及比较来表明基于距离配对排序的支持向量预选取算法的有效性。

3. 基于距离配对排序支持向量预选取算法

3.1. 样本距离

定义:由两个样本之间的特征差异定义样本距离,可先通过映射函数 ϕ ( ) 将原来的输入空间变换到高维的特征空间中,使原始样本集在高维特征空间中线性可分 [9]。任意两个样本 x 1 x 2 ,则其距离为:

d ( x 1 , x 2 ) = K ( x 1 , x 1 ) 2 K ( x 1 , x 2 ) + K ( x 2 , x 2 ) , (3)

其中的 K ( , ) 是一个核函数。若 K ( , ) 是一个线性核函数,则(4)式将退化成欧氏距离:

d ( x 1 , x 2 ) = x 1 x 2 2 = i = 1 n ( x 1 i x 2 i ) 2 , (4)

其中上标i是对应样本的第i个分量。

3.2. 边界向量集

两类样本中离得较近的样本组成的集合为边界向量集。假设 为原始样本集,其中 x i R n y i { 1 , 1 } i = 1 , 2 , , N R n 表示输入模式的特征空间。不妨设

(5)

X = { ( x j , y j ) | y j = 1 , j = 1 , 2 , , n 2 } , (6)

其中 n 1 + n 2 = N ,易知 x x = ϕ 。两类样本之间任意两个样本进行配对然后按照3.1定义的样本距离求距离矩阵D,即:

(7)

其中 D i j = d ( x i , x j ) x i X x j = X 。将距离矩阵(7)中的元素按从小到大的顺序排序,排序过程中元素对应的样本不能重复使用。不失一般性,设 n 1 n 2 ,那么排完序后得到 n 1 个元素有序对,即 D = ( d 1 , d 2 , , d n 1 ) ,其中 d k < d k + 1 。按照一定比例a来截取前l个元素,即:

l = n 1 a , (8)

D 经抽取之后的集合用 D 来表示,即:

D = ( d 1 , d 2 , , d l ) , (9)

其中每一个分量对应原始样本集中一个互异类样本对。为了方便描述,设S为(9)式对应的原始样本组成的样本对集合,即:

S = { ( x k 1 , x k 1 ) , ( x k 2 , x k 2 ) , , ( x k l , x k l ) } . (10)

把样本对集合式(10)分别表示成两类样本集合,第一类样本集合是 { x k 1 , x k 2 , , x k l } ,第二类样本集合是 { x k 1 , x k 2 , , x k l } 。因此最终得到的边界向量集为:

A = { x k 1 , x k 2 , , x k l } { x k 1 , x k 2 , , x k l } . (11)

图1是两类样本距离矩阵中前三个最小距离对应的三个样本对抽取示意图。

因为选择的都是两类样本中互相最近的样本,选中的样本一定是边界向量,由结构风险最小化知,由边界向量构成的边界向量集一定能够很好的包含大多数的支持向量。最后将得到的边界向量集A作为SMO算法的训练集进行训练,能够较速得到分类器。

Figure 1. Diagram based on distance pairing sorting (first three sample pairs)

图1. 基于距离配对排序示意图(前三个样本对)

3.3. 基于距离配对排序的支持向量预选取算法

基于距离配对排序的支持向量预选取算法DPS-SMO (Pre-selection of support vectors based on distance pairing sorting)的伪码如下:

输入:原始样本集有两类样本集分别是

X = { ( x i , y i ) | y i = 1 , i = 1 , 2 , , n 1 }

X = { ( x j , y j ) | y j = 1 , j = 1 , 2 , , n 2 }

其中 n 1 + n 2 = N ,且 n 1 n 2 。抽取边界向量的比例值为a。

输出:边界向量集A

方法:

//计算两类样本之间的距离矩阵

For i = 1 to n 1

For j = 1 to n 2

d ( x i , x j ) = K ( x i , x i ) 2 K ( x i , x j ) + K ( x j , x j )

end for

end for

D = [ d ( x 1 , x 1 ) d ( x 1 , x 2 ) d ( x 1 , x n 2 ) d ( x 2 , x 1 ) d ( x 2 , x 2 ) d ( x 2 , x n 2 ) d ( x n 1 , x 1 ) d ( x n 1 , x 2 ) d ( x n 1 , x n 2 ) ]

//对距离矩阵中的距离从小到大排序,过程中距离对应的样本不能重复,抽取前l个较小距离

l = n 1 a

D = { d 1 , d 2 , , d l }

//排序抽取之后的距离集合对应的样本对集合

S = { ( x k 1 , x k 1 ) , ( x k 2 , x k 2 ) , , ( x k l , x k l ) }

//抽取的每类样本集合

S 1 = { x k 1 , x k 2 , , x k l }

S 2 = { x k 1 , x k 2 , , x k l }

//数量为2l个样本的边界向量集

3.4. 算法复杂度分析

DPS-SMO算法的复杂度主要取决于边界向量集的确定和SMO算法对边界向量集的训练。边界向量集确定的复杂度主要由计算两类样本之间的距离矩阵的复杂度和两类样本之间的距离排序的复杂度决定。

1) 设任意两个样本距离的计算复杂度为 O ( 1 ) 。两类样本之间的距离矩阵需要 n 1 n 2 次距离计算,其中 n 1 为第一类样本的个数, n 2 为第二类样本的个数,则两类样本之间的距离矩阵D的计算复杂度为 O ( n 1 n 2 )

2) 两类样本之间的距离矩阵有 n 1 n 2 个不同的距离。把这些距离进行从小到大排序,根据排序理论 [5] 可得到其计算复杂度为 n 1 n 2 log 2 n 1 n 2 。然后要排除重复使用的样本,从第一个最小距离开始,第一个距离对应的两个样本,后面只要有距离对应与之相同的样本就删去此距离,后面的距离再补上来,以此类推下去,最终会得到一个距离排序的集合 D ,排除重复样本的距离总共有 n 1 1 步,所以其计算复杂度为 ( n 1 1 ) O ( 1 ) 。两类样本之间的距离排序的计算复杂度为:

O ( n 1 n 2 log 2 n 1 n 2 + n 1 1 ) . (12)

3) 由于用标准的SMO算法训练原始样本集的复杂度为,其中N为原始样本集的样本个数,且 n 1 + n 2 = N 。DPS-SMO算法预选取的边界向量集里面的样本个数为2l,其中。则DPS-SMO算法对边界向量集训练的计算复杂度为 O ( 8 l 3 )

综上所述,当a足够小时,DPS-SMO的算法复杂度为:

(13)

因此基于距离配对排序的支持向量预选取算法可以以小于 O ( N 3 ) 的算法复杂度来训练,计算复杂度减小,训练时间也会随之缩短。

4. 基于距离配对排序支持向量预选取算法数值实验结果及比较

下面对DPS-SMO算法的可行性和有效性来进行实验和讨论。使其与无预处理SMO算法进行比较。本文的实验在python3.6.3环境中,2.3 GHz,Pentium,Dual CPU,4 GB内存的硬件平台上进行。实验数据采用随机产生的线性可分数据和非线性可分数据以及UCI数据库中的Banknote authentication数据。DPS-SMO算法和SMO算法对数据训练采用的核函数都是径向基核函数:

K ( x 1 , x 2 ) = exp ( x 1 x 2 2 r 2 ) , (14)

其中 r = 1.3 。训练时间的计算是预选取支持向量构造边界向量集和SMO算法训练时间的总和。

4.1. 实验一

在线性可分情况下,DPS-SMO算法与SMO算法的有效性及性能比较。我们随机产生两类线性可分的均匀分布点集数据。第一类数据 S 1 [ 0 , 0.45 ] × [ 0 , 1 ] , 第二类数据 S 2 [ 0.55 , 1 ] × [ 0 , 1 ] 。两类数据总共1800个,选取其中的800个数据作为训练数据,另外1000个数据作为测试数据 [6]。首先将两类数据采用3.1定义的样本距离求其距离矩阵,然后采用DPS-SMO算法的算法步骤确定边界向量集,其中抽取比例值 a=10% ,最后将边界向量集作为训练集进行SMO训练。表1为线性可分情况实验下DPS-SMO算法与SMO算法分类性能的结果比较,其中数值结果是100次独立数值实验结果的平均值。

Table 1. Comparison of classification performance in linear separable case

表1. 线性可分情况下分类性能比较

通过实验结果比较,我们发现原始训练数据经过DPS-SMO算法提取边界向量集再进行SMO训练与单纯的用SMO算法训练原始数据相比,训练数据大大减少,特别是训练时间降低的效果非常的明显,而且DPS-SMO算法预测准确度与SMO算法一样。实验结果说明了DPS-SMO算法在线性可分情况下是有效的,训练速度大大提升。图2是本数值实验下DPS-SMO算法预选取支持向量的效果图。

Figure 2. Pre-selection of support vector by DPS-SMO in the case of linear separability

图2. 线性可分情况下DPS-SMO对支持向量的预选取

图2中可以观察出DPS-SMO算法构造的边界向量集中的样本点都分布在两类样本点的相邻边界区域中,且边界向量集包含所有的支持向量。从图2中还可以观察出DPS-SMO算法排除了大量的非支持向量,在很大程度上减少了原始训练样本中无效样本数量,缩短了训练时间,提高了训练速度。

4.2. 实验二

在非线性可分情况下,DPS-SMO算法与SMO算法的有效性及性能比较。我们随机产生两类非线性可分的均匀分布的点集数据 [6]。如随机产生两类均匀分布的同心圆样本:

{ x 1 = ρ cos θ x 2 = ρ sin θ , θ [ 0 , 2 π ] (15)

第一类数据采用半径为 ρ 1 [ 0 , 4.5 ] ,第二类数据采用半径为 ρ 2 [ 5.5 , 10 ] ,其中 ρ 1 ρ 2 θ 都是在对应的区域内均匀取值的。两类数据共有1800个。其中800个为训练数据,1000个为测试数据。首先将两类数据采用3.1定义的样本距离求其距离矩阵,然后采用DPS-SMO算法的算法步骤确定边界向量集,其中抽取比例值 a = 42.5 % ,最后将边界向量集作为训练集进行SMO训练。表2为非线性可分情况下DPS-SMO算法与SMO算法实验分类性能结果比较,其中数值结果是100次独立数值实验结果的平均值。

Table 2. Comparison of classification performance in nonlinear separable case

表2. 非线性可分情况下分类性能比较

通过表2中的实验结果分析得出:由DPS-SMO算法步骤确定的边界向量集作为SMO算法的训练样本集与单纯地用SMO算法训练原始样本集相比较,训练样本的数量减少,时间上大大缩短,提高训练速度的效果很明显,而且预测准确度达到了97.04%。这表明了在非线性可分情况下,DPS-SMO算法可在保持很高的分类精度下,有效缩短训练时间,提高训练速度,达到了预期的效果。图3是本数值实验下DPS-SMO算法预选取支持向量效果图。

Figure 3. Pre-selection of support vector by DPS-SMO in the case of nonlinear separability

图3. 非线性可分情况下DPS-SMO对支持向量的预选取

图3明显可看出,通过DPS-SMO算法构造的边界向量集位于两类样本相邻的边界区域上。从中还可看出DPS-SMO算法去除了很多非支持向量,避免了SMO算法在非支持向量上训练时间的浪费,这样便能在保持良好的分类精度下有效提高训练速度。

4.3. 实验三

从UCI数据库中选取Banknote authentication数据用来测试DPS-SMO算法的性能。Banknote authentication数据的每个样本是由4个特征属性和1个类别属性构成的,总共有1372个样本。我们分别用DPS-SMO算法与SMO算法对Banknote authentication数据进行测试。首先将两类数据采用3.1定义的样本距离求其距离矩阵,然后采用DPS-SMO算法的算法步骤确定边界向量集,其中抽取比例值:

a = 36.4 % .

数据测试的结果如表3所示,其中数值结果是100次独立数值实验结果的平均值。

Table 3. Comparison of classification performance under UCI data test

表3. UCI数据测试下分类性能比较

通过观察表3可以得出采用DPS-SMO算法与单纯地使用SMO算法来测试数据相比,DPS-SMO算法在大大缩短训练时间的同时,还能够保持很高的分类准确度。

5. 结语

本文根据支持向量的几何分布特征,提出了一种预选取支持向量的方法,简称DPS-SMO算法。该方法能够有效预选取一个包含大多数支持向量的边界向量集作为实验的训练集。通过实验得到分类器的过程中保证了很好的分类精度,又极大地减少了训练样本的个数,提高了支持向量机的训练速度,且训练样本冗余度越大,即支持向量所占比例越小时,方法效果越明显。DPS-SMO算法与单纯地使用SMO算法训练原始数据作对比,实验验证了DPS-SMO方法有着缩短训练时间,提高训练速度的很好效果;如果时间允许,可以通过调整抽取比例的取值来提高DPS-SMO算法的性能,新方法预选取支持向量的过程简单,效果明显,有很强的使用广泛性,为支持向量机的应用提供了一种新的有效方法。

文章引用

韩成志,郑恩涛,马国春. 基于距离配对排序的支持向量预选取算法
Pre-Selection of Support Vectors Base on Distance Pairing Sorting[J]. 应用数学进展, 2020, 09(02): 195-203. https://doi.org/10.12677/AAM.2020.92023

参考文献

  1. 1. Vapnik, V.N. (2000) The Nature of Statistical Learning Theory. Spring-Verlag, New York.

  2. 2. Vapnik, V.N. (1999) An Overview of Statistical Learning Theory. IEEE Transactions on Neural Network, 10, 988-999. https://doi.org/10.1109/72.788640

  3. 3. Yang, J., Yu, X. and Xie, Z.Q. (2011) A Novel Virtual Sample Generation Method Based on Gaussion Distribution. Knowledge-Based Systems, 24, 740-748. https://doi.org/10.1016/j.knosys.2010.12.010

  4. 4. 李青, 焦李成, 周伟达. 基于向量投影的支持向量预选取[J]. 计算机学报, 2005, 28(2): 145-151.

  5. 5. 琚旭, 王浩, 姚宏亮. 基于同心超球面分割的支持向量预抽取方法[J]. 计算机工程与应用, 2006(31): 55-56 + 83.

  6. 6. 胡志军, 王鸿斌, 张惠斌. 基于距离排序的快速支持向量机分类算法[J]. 计算机应用与软件, 2013, 30(4): 85-87 + 100.

  7. 7. 李庆, 胡捍英. 支持向量预选取的K边界近邻法[J]. 电路与系统学报, 2013, 18(2): 91-96.

  8. 8. 邱静, 徐晓钟, 邓松, 王婷. 基于优化模糊C均值聚类选取相似日的燃气负荷预测[J]. 上海师范大学学报(自然科学版), 2017, 46(4): 560-566.

  9. 9. 王石, 蒋宁宁, 杨舒卉. 基于压缩K近邻边界向量的支持向量预抽取算法[J]. 海军工程大学学报, 2018, 30(6): 74-79.

期刊菜单