Statistics and Application
Vol.06 No.04(2017), Article ID:22505,13
pages
10.12677/SA.2017.64050
Error Analysis of Coefficient Regularized Regression and Non-Iid Sampling
Xinxin Chang1, Shuang Chen2
1Hebei University of Technology, Tianjin
2Beijing Institute of Petrochemical Technology, Beijing

Received: Oct. 4th, 2017; accepted: Oct. 20th, 2017; published: Oct. 30th, 2017

ABSTRACT
In this paper, we study the error analysis of indefinite kernel network with coefficient regularization for non-iid sampling. The framework under investigation is different from classical kernel learning. The kernel function satisfies only the continuity and uniform boundedness; the standard bound assumption for output data is abandoned and we carry out the error analysis with output sample values satisfying a generalized moment hypothesis. Satisfactory error bounds and learning rates independent of capacity are derived by the techniques of integral operator for this learning algorithm.
Keywords:Coefficient Regularization Regression, Indefinite Kernel, Strong Mixing Condition, Integral Operator
基于非独立同分布样本的系数正则化回归算法的误差分析
常欣欣1,陈爽2
1河北工业大学,天津
2北京石油化工学院,北京
收稿日期:2017年10月4日;录用日期:2017年10月20日;发布日期:2017年10月30日

摘 要
本文分析了基于非独立同分布样本的最小二乘系数正则化算法的误差。全文的框架不同于以往的经典核学习方法。核函数仅仅满足连续性和一致有界性;我们进行基于输出样本满足广义矩理论的误差分析,而不再考虑标准的输出有界假设。最后通过利用积分算子技术得到了满意的与容量无关的误差界和学习率。
关键词 :系数正则化回归,不定核,强混合条件,积分算子

Copyright © 2017 by authors and Hans Publishers Inc.
This work is licensed under the Creative Commons Attribution International License (CC BY).
http://creativecommons.org/licenses/by/4.0/

1. 引言
在机器学习理论中,最小二乘回归问题可以陈述如下:
设
为一个紧子集,
。
为
上未知的概率测度,
为服从
的一组独立同分布的取样。在回归学习中定义关于函数
的推广误差,
回归函数定义为
记
为
在
时的条件分布。实际上,由于
是未知的,
是不能直接求出来的,于是我们的目标是利用样本
产生关于
的一个最佳逼近。
传统的学习算法所选取的假设空间通常为与Mercer核相关的再生核Hilbert空间。基于核的学习算法具有良好的运算性质,这得益于再生核Hilbert空间所特有的再生性。核函数最初用于模式识别,现在已经广泛成功应用于机器学习的很多领域。在基于核函数的学习中,核函数
扮演着基函数的角色。
下面给出Mercer核和再生核Hilbert空间的定义:
定义1.1 (Mercer核)设函数
为连续的,对称的,半正定的,则称
为Mercer核。
定义1.2 (再生核Hilbert空间)由
的有限线性组合成的线性函数空间,
在该函数空间中定义内积
则该函数空间成为内积空间。其完备化的Hilbert空间称由核函数
所生成的再生核Hilbert空间(RKHS),记为
。
的再生性指
对任意
大量的文献都有对Mercer核的研究学习,可以见参考文献 [1] [2] [3] [4] 。
为了防止过拟合,一般采用正则化方法 [5] 。常用的回归学习算法有正则化最小二乘算法与系数正则化算法。
正则化最小二乘算法形式:
(1.1)
关于这个算法的学习可以看文献 [6] [7] [8] 。
接下来给出系数正则化算法(CRKN) [9] [10] [11] :
其中
这里
是与Mercer核有关的。在系数正则化算法中的假设空间取为:
注:假设空间依赖输入数据
。系数正则化被Vapnik在文献 [5] 中为了设计线性规划支持向量机而首次引用。系数正则化是有一些优点的,我们可以见参考文献 [10] 。
本文中,我们考虑不定核而不再考虑Mercer核,所谓一般核
是指
只满足有界性和连续性,不再满足对称性或者半正定性。对于非正定核通常通过以下定义来处理。
定义1.3
, (1.2)
即
是一个Mercer核。
更多的关于不定核的学习,有:文献 [12] Qu和Sun学习了对于不定核核
范数正则化学习算法的渐进性能,并且得到了满意的学习率;通过奇异值分解的方法,文献 [13] Q考虑不定核的情况下,得出了与容量无关的误差界。
在这篇文章里,记
,我们学习
系数正则化算法:
其中
(1.3)
这里
。由(1.2),有
。
本文我们研究non-iid抽样下的系数正则化学习算法的性能。考虑基于
上的概率分布序列
,因此对于任意的
,
在
处的条件分布为
。第
个样本
的选取依赖于
。我们假设样本序列
来自于强平稳过程并且样本的相关性满足强混合条件。
关于强混合条件的定义:
定义1.4对于两个
域
和
,定义a-数为
。给定一系列样
本
,定义
为由随机变量
生成的
域。当
时,
,称随机过程
满足强混合条件(或
混合条件)。
对于正则化学习算法的误差分析,已经有很多研究工作,其中绝大多数假设输出数据是一致有界的,即存在某一常数
,使得几乎处处有
,也即条件分布
的支撑集几乎处处包含在
中,见文献 [3] [4] [6] [10] 。文献 [14] [15] 在输出数据满足以下矩假设条件下得出算法(1.3)的误差界:
定义1.5 (矩有界假设)存在常数
及
使得
(1.4)
文献 [1] 和 [2] ,在以下弱化的矩有界假设下分别研究了回归学习算法(1.1)和(1.3)。
本文给出的有关输出数据的假设:
定义1.6 (弱化的矩有界假设)存在两个常数
及
使得
(1.5)
注:矩假设(1.4)要求输出数据
的所有矩皆有界,而本文对矩假设进一步弱化,只要求
的某个
阶矩有界。
本文研究对输出变量满足弱化的矩有界条件(1.5)下基于非正定核的惩罚项为l2-范数的系数正则化算法的误差分析。下一节,我们将给出一些假设条件和本文主要结论。
2. 假设与结论
设
是紧的距离空间,
是Mercer核,
为定义在
上非退化的Borel测度,对任意的
,定义积分算子为:
(2.1)
假设1 (Non-iid Sampling Condition):存在一些正整数
,在
上有两个正的有界的Borel测度,使得
. (2.2)
其中
。
假设2 (Approximation Condition):存在
,使得
(2.3)
通过求导运算,有
(2.4)
即,
[16] 。
定理2.1假设Non-iid Sampling Condition (2.2)和Approximation Condition (2.3)成立,样本序列
满足强混合条件,并且
。则对任何
,
的概率下有
成立。
其中
是与
有关的常数。
基于定理2.1,通过选择合适的
(与
相关)可以得到算法(1.3)的收敛速率。即:
定理2.2在定理2.1的假设下,且对于一些
和
,满足
则有
这里
定义为:
定理2.1,定理2.2的证明会在第4部分-误差分析给出。
下一节我们会给出一些基本引理。□
3. 基本引理
证明定理2.1还需要一些结论。首先我们用以下引理 [3] 来处理a-混合条件。定义向量值随机变量
的
阶矩为:
,
.
引理3.1假设随机样本
满足a-混合条件。设
为取值在可分Hilbert空间H中,分别关于
代数
与
可测的随机变量。对任意的
,满足
或者
,则有
(3.1)
讨论假设空间的逼近能力,需要以下函数
(3.2)
通过对(3.2)的求导运算,可以得到
(3.3)
同样,也需要以下引理。
引理3.2对
,
为从
到
的等距同构映射,则有
(3.4)
引理3.3在假设1 (Non-iid Sampling Condition) (2.2)和假设2 (Approximation Condition) (2.3)成立的条件下,则有
(3.5)
证:
在给出下一个引理之前,这里先给出一些概念:定义样本算子
为
,对任意的
,
其中
。
那么,
的共轭算子
为
这里,
。
在文献 [10] [13] 里已经证明有
(3.6)
接下来给出Hilbert Schmidt [7] 的定义和性质:
令
是
上所有的Hilbert Schmidt类,它构成了一个Hilbert空间,其内积为
其中
是
的一组正交基并且这个定义不依赖于基的选择。
我们需要Hilbert Schmidt算子的下列性质。
1) 对
,定义一秩算子
,并且它是一个Hilbert Schmidt算子满足
。记
(3.7)
2) 对任意Hilbert Schmidt算子
,有
。
接下来的引理给出了经验积分算子的收敛性:
引理3.4假设随机变量序列
满足强混合条件,则下列不等式成立
(3.8)
证:由(3.7)式和
是一Hilbert Schmidt算子,有
记
[11] ,由引理3.1,当
且
时有,当
,
然后有
4. 误差分析
为了分析算法误差,像文献 [2] 中一样,这里需要引进一个正则化函数
:
(4.1)
所以我们可以把误差
分解成两部分:
(4.2)
这里右边第一部分叫做样本误差,第二部分叫做正则误差。
4.1. 正则误差分析
在这一小分节中,我们分析正则化误差
的界。
命题4.1在假设1 (Non-iid Sampling Condition) (2.2)和假设2 (Approximation Condition) (2.3)成立的条件下,当
时,下列正则化误差的界成立:
(4.3)
证:由引理3.2,引理3.3和下列积分算子不等式
则有
相似地,有
(4.4)
4.2. 样本误差分析
在这一个小分节中,我们分析样本误差
的界。
与文献 [10] 同样的方法,记
,有
(4.5)
其中
(4.6)
记
和
都在
中。由引理3.2,有
(4.7)
接下来分别分析
和
。
由算子单调不等式( [17] ,定理2.1),有
(4.8)
于是,可以得到
(4.9)
类似地得到
的界
(4.10)
下面我们会依次给出
的估计。引理3.4已经给出了
的估计。接下来考虑
类似命题4.1,得到以下引理:
引理4.1在假设1 (Non-iid Sampling Condition)和假设2 (Approximation Condition)成立的条件下,当
时,有以下不等式成立
(4.11)
最后分析
,需要有下列引理:
引理4.2在假设1 (Non-iid Sampling Condition) (2.2)和假设2 (Approximation Condition) (2.3)成立的条件下,有
(4.12)
证:定义在
上的向量值随机变量
。因此,
所以,
(4.13)
由引理3.1,当
时,令
,
,当
,有
(4.14)
所以有
(4.15)
故有
(4.16)
接下来分别估计
和
。对于
,有
(4.17)
由Hölder不等式,得到
(4.18)
则
(4.19)
因此
(4.20)
将(4.3)和(4.20)代入(4.17),得到
(4.21)
接下来评估
,
(4.22)
现在,我们需要给出
的上界。
由(4.4),有
(4.23)
由
的定义,有
(4.24)
所以
(4.25)
将(4.18)和(4.25)代入(4.22),有
(4.26)
将
和
的上界与(4.16)联系,有
(4.27)
故有
(4.28)
其中
是与
相关的常数。随即我们可以有以下命题:
命题4.2在假设1 (Non-iid Sampling Condition) (2.2)和假设2 (Approximation Condition) (2.3)成立的条件下,当
时,有以下不等式成立:
其中
是与
相关的常数。
证:
(4.29)
由马尔科夫不等式和三角不等式,有
(4.30)
将(4.3)和(4.29)代入(4.30)中,可以得到想要的界,即完成定理2.1的证明。
最后证明定理2.2。为了得到学习率,这里需要对的
收敛速度做一些规定。
定义4.1随机样本序列
,满
足多项式强混合条件,如果对一
,
。a-混合系数
满足,
(4.31)
通过以下式子可以很容易地得到学习率
定理2.2的证明。当
,由(4.31),有
当
,由定理2.1,有
为了平衡正则误差和样本误差,选取
。然后有
类似地,当
时,取
。另一种情况也可用相同的方法考虑。
致谢
本论文是在陈爽导师的悉心指导下和同学的无私帮助下完成的。论文写作期间遇到了很多困难和障碍,但都在同学,导师和自己的努力下一一克服了。尤其要强烈感谢我的导师-陈爽老师,没有她对我进行的不厌其烦的帮助和指导,无私的为我进行论文的修改和改进,就不会有我这篇论文的最终完成。在此,我向我也向指导和帮助我的所有老师和同学表示最衷心的感谢。同时,我也要感谢本论文所引用的各学者的专著,如果没有这些学者的研究成果的启发和帮助,我将无法本篇论文的最终写作。
文章引用
常欣欣,陈爽. 基于非独立同分布样本的系数正则化回归算法的误差分析
Error Analysis of Coefficient Regularized Regression and Non-Iid Sampling[J]. 统计学与应用, 2017, 06(04): 442-454. http://dx.doi.org/10.12677/SA.2017.64050
参考文献 (References)
- 1. Chun, X.R. and Sun, H.W. (2013) Regularized Least Square Regression with Unbounded and Dependent Sampling. Abstract and Applied Analysis, 2013, 900-914.
- 2. Gao, Q. and Ye, P.X. (2016) Coefficient-Based Regularized Regression with Dependent and Unbounded Sampling. International Journal of Wavelets Multiresolution and Information Processing, 14, Article ID: 1650039.
- 3. Sun, H. and Guo, Q. (2011) Coefficient Regularized Regression with Non-Iid Sampling. International Journal of Computer Mathematics, 88, 3113-3124. https://doi.org/10.1080/00207160.2011.587511
- 4. Zhang, M.J. and Sun, H.W. (2017) Regression Learning with Non-Identically and Non-Independently Sampling. International Journal of Wavelets Multiresolution and Information Processing, 15, Article ID: 1750007.
https://doi.org/10.1142/S0219691317500072
- 5. Vapink, V. (1998) Statistical Learning Theory. Wiley, New York, 3185.
- 6. Pan, Z.W. and Xiao, Q.W. (2009) Least-Square Regularized Regression with Non-Iid Sampling. Journal of Statistical Planning and Inference, 139, 3579-3587. https://doi.org/10.1016/j.jspi.2009.04.007
- 7. Sun, H.W. and Wu, Q. (2012) Regu-larized Least Square Regression with Dependent Sampling. Advances in Computational Mathematics, 32, 175-189.
- 8. Qiang, W., Ying, Y. and Ding, X.Z. (2006) Learning Rates of Least-Square Regularized Regression. Foundations of Computational Mathematics, 6, 171-192. https://doi.org/10.1007/s10208-004-0155-9
- 9. Sheng, B.H., Ye, P.X. and Wang, J.L. (2012) Learning Rates for Least Square Regression with Coefficient Regularization. Acta Mathmation Sinica, English Series, 8, 2205-2212. https://doi.org/10.1007/s10114-012-0607-0
- 10. Sun, H. and Wu, Q. (2011) Least Square Regression with Indefinite Kernels and Coefficient Regularization. Applied and Computation Harmonic Analysis, 30, 96-109. https://doi.org/10.1016/j.acha.2010.04.001
- 11. Zuo, L., Li, L.Q. and Chen, C. (2015) The Graph Based Semi-Supervised Al-gorithm with l1-Regularizer. Neurocomputing, 149, 966-974.
- 12. Qu, Z.F. and Sun, H.W. (2016) Indefinite Kernel Network with lq-Norm Regularization. Discrete Dynamics in Nature and Society Volume, Article ID: 6516258.
- 13. Wu, Q. (2013) Regularization Networks with Indefinite Kernels. Journal of Approximation Theory, 166, 1-18.
- 14. Cai, J. (2013) Coefficient-Based Regression with Non-Identical Unbounded Sampling. Hindawi Publishing Corporation Abstract and Applied Analysis, 415-425. https://doi.org/10.1155/2013/134727
- 15. Cai, J. and Wang, C (2013) Coefficient-Based Regularized Regression with Indefinite Kernels by Unbounded Sampling. Scientia Sinica Mathematica, 43, 613-624.
- 16. Cucker, F. and Zhou, D.X. (2007) Learning Theory: An Approximation Theory Viewpoint. Cambridge University Press. https://doi.org/10.1017/CBO9780511618796
- 17. Sun, H. and Guo, Q. (2009) A Note On Application of Integral Operator in Learning Theory. Applied and Computational Harmonic Analysis, 26, 416-421.