Advances in Social Sciences
Vol. 09  No. 08 ( 2020 ), Article ID: 37043 , 9 pages
10.12677/ASS.2020.98156

Application of Nonparametric Regression in House Price Forecast

Yunying Lin

Jiangxi University of Finance and Economics, Nanchang Jiangxi

Received: Jul. 26th, 2020; accepted: Aug. 7th, 2020; published: Aug. 14th, 2020

ABSTRACT

Housing is closely related to human life, which is an important part of the total wealth of residents and also affects people’s happiness index to a certain extent. Therefore, great importance is attached to the qualitative and quantitative research on housing prices both at home and abroad. Based on the Boston house price data of Harrison and Rubinfeld, this paper discusses the comparative analysis of OLS regression and nonparametric regression in house price prediction by using R software. The results show that the OLS regression model is against the OLS regression statistical hypothesis, and OLS regression is not in line with the theoretical basis. Based on the characteristics of nonparametric regression, it is more suitable to use nonparametric regression (Lasso regression and Ridge regression) to predict house prices, and Bootstrap method and circulation method are used to select the model. When using multiple linear regression to analyze the data, we can’t ignore the premise hypothesis when the multiple linear regression is established. However, the data in reality are often not ideal, so the applicability of nonparametric regression is wider.

Keywords:Nonparametric Regression, Bootstrap, Housing Price

非参数回归在房价预测上的应用

林贇英

江西财经大学,江西 南昌

收稿日期:2020年7月26日;录用日期:2020年8月7日;发布日期:2020年8月14日

摘 要

住房与人类生活息息相关,是居民总财富的重要组成部分,在一定程度上也影响着人们的幸福指数,因此国内外都很重视对房价定性和定量的研究。本文利用哈里森和鲁宾菲尔德的波士顿房价数据,使用R软件,探讨OLS回归和非参数回归在房价预测上的比较分析。实验结果表明:使用OLS回归模型预测房价违反了OLS回归统计假设,使用OLS回归是不符合理论依据的。基于非参数回归的特性,更适合采用非参数回归(Lasso回归和Ridge回归)对房价进行预测,并使用Bootstrap法和循环法对模型进行选择。在使用多元线性回归对数据进行分析时,不能忽略其多元线性回归成立时的前提假设,而现实中的数据往往是非理想化的,因此非参数回归的适用性更广。

关键词 :非参数回归,Bootstrap,房价

Copyright © 2020 by author(s) and Hans Publishers Inc.

This work is licensed under the Creative Commons Attribution International License (CC BY 4.0).

http://creativecommons.org/licenses/by/4.0/

1. 引言

对于大多数国家来说,住房与人类生活息息相关,住房是居民总财富的重要的组成部分。易成栋、任建宇和高璇对房价和幸福感进行实证分析发现,住房会影响居民的幸福感 [1]。不仅如此,房价是支撑国民经济的重要产业,房价的波动对我国的经济的影响巨大。对房价进行合理地预测分析,有利于国家政策的调控,对相关主体产业的发展也有借鉴意义。

2. 文献综述

国内外都很重视对房价定性和定量的研究。国内外学者对于房价定性预测的研究成果比较多,如国内学者周佳琪和金百锁基于空间网络自回归变点模型对房价的影响因素进行分析,认为商业区、地铁等会影响房价 [2]。薛建谱和王卫华基于均衡分析认为引起房价上涨的主要因素是收入 [3]。范允奇和王艺明基于二阶段局部动态调整模型认为土地成本是引起房价上涨的重要因素等 [4]。但是对于房价定量预测的文献较少。在房价定量研究的文献中,Malpezzi对美国重复交易住宅价格指数用时间序列截面回归分析 [5]。国内学者邬嘉怡、王思玉、史宏炜、李虎森、楼凯达和崔丽鸿对北京房屋价格采用多小波变换进行分析 [6]。唐晓彬、张瑞和刘立新对北京二手房价格指数采用蝙蝠算法的SVR模型进行分析 [7]。

通过文献回顾可以看出国内外理论界进行房价预测的方法主要有时间序列截面回归分析等。本文将通过对13个变量进行OLS回归,通过指出OLS回归的不足之处,采用非参数回归模型预测房价。本文的创新之处在于使用Bootstrap法和循环法选择较佳的非参数回归方法来预测房价。

3. 研究方法

总体多元线性回归模型的公式如下:

y t = β 0 + β 1 x t 1 + + β a x t a + ε t

其中, t = 1 , 2 , , n ,n为样本容量, y t 是响应变量, x t 1 , , x t a 是预测变量, β 0 是截距项, β 1 , , β a 是总体多元线性回归模型中 x t 1 , , x t a 的回归系数, ε t 是除了 x t 1 , , x t a 以外可以影响 y t 的其它不可观测因素,称为扰动项。

样本多元线性回归模型的公式如下:

y t = β ^ 0 + β ^ 1 x t 1 + + β ^ a x t a + ε ^ t

样本多元线性回归函数的公式如下:

y ^ t = β ^ 0 + β ^ 1 x t 1 + + β ^ a x t a

其中, t = 1 , 2 , , n β ^ 0 β ^ 1 , , β ^ a 是样本多元线性回归模型中 x t 1 , , x t a 的回归系数, y ^ 是预测变量的估计值, ε ^ t 是残差项,可以通过 ε ^ t = y y ^ 测量出。

3.1. OLS回归

采用普通最小二乘法(OLS)来估计多元线性回归模型中的 β ^ 0 β ^ 1 , , β ^ a 。OLS回归对样本数据的要求比较高,需要拟合的线性回归满足四条统计假设:1) 预测变量呈正态分布,则残差值服从均值为0的正态分布;2) 预测变量间相互独立;3) 响应变量和预测变量线性相关,即预测变量和残差值相互独立;4.预测变量的方差不随响应变量的变化而变化 [8]。

3.2. 非参数回归

相比于OLS回归,非参数回归的优点是对参数估计的方法不同,不需要知道总体分布情况下进行统计推断回归,灵活性较高,所分析的基础完全依赖于数据。

Lasso回归的参数估计方法: min t = 1 n { y t β 0 + β 1 x t 1 + + β a x t a } 2 + α j = 1 d | β j | 。Lasso回归会将不显著的变量的系数压缩至0,惩罚力度 α 越大,减少的变量越多,Lasso回归可以起到降维的目的。

Ridge回归的参数估计方法: min t = 1 n { y t β 0 + β 1 x t 1 + + β a x t a } 2 + α j = 1 d β j 2 。随着惩罚力度 α 的增大,Ridge回归使得预测变量的系数收缩至0但不会变成0 [9]。

3.3. 随机性处理

非参数回归模型具有两处随机性:一是对训练集和测试集的抽取具有随机性;二是交叉验证对lambda的选择具有随机性,导致每次的结果都会存在些许偏差。

为了克服样本抽取的随机性,采用Bootstrap法,对总样本重复随机替换抽样,生成一系列Lasso回归模型和Ridge回归模型,比较所拟合的Ridge和Lasso回归模型预测能力的差值,记为“VS”。若VS置信区间是异于0的,则表明这两种模型的预测效果存在显著差异。若预测区间小于0的,则表明Ridge回归模型的预测效果比Lasso回归模型的预测效果要好,若预测区间大于0,则反之。

为了克服交叉验证的随机性导致每次的最优lambda的值不同,采用循环语句,运行1000次交叉验证的结果,产生1000个不同的Lasso回归和Ridge回归,比较Lasso回归和Ridge回归的预测能力,并将结果储存在“value”中。若value置信区间是异于0的,则表明这两种模型的预测效果存在显著差异。若预测区间小于0的,则表明Ridge回归模型的预测效果比Lasso回归模型的预测效果要好,若预测区间大于0,则反之。

4. 数据来源及预处理

4.1. 数据来源

本文的数据来源于哈里森和鲁宾菲尔德的波士顿房价数据,共有506个观测值,其中有14个变量,分别为城镇人均犯罪率(CRIM)、住宅用地超过25000平方英尺的比例(ZN)、城镇非零售商业用地比例(INDUS)、查尔斯河哑变量(CHAS)、一氧化氮浓度(NOX)、每个住宅的平均房间数(RM)、1940年以前建造的自住房屋的比例(AGE)、到波士顿五个中心区域的加权距离(DIS)、径向公路通达性指数(RAD)、每10,000美元的全值财产税率(TAX)、城镇师生比例(PTRATIO)、1000(Bk − 0.63)2、Bk是按城镇划分的黑人比例(B)、人口中地位低下者的比例(LSTAT)、自有住房的中位数价值(以1000美元计)(MEDV),其中MEDV为响应变量,其余为预测变量。

4.2. 数据预处理

由于ZN、AGE、TAX、B四个变量的方差较大,数据的波动性较大,为了不改变变量的变化趋势,分别对这四个变量取对数,其中,由于ZN的范围是从0~100,对0取对数是无意义的,因此对ZN处理方式为“ZN = log(ZN + 1)”,同样不改变ZN的变化趋势。取对数之后的四个变量,变化趋势相对之前较为平稳。

为了建模的需要,将数据划分为训练集和测试集。为了验证方便,保证所取的训练集和测试集都是一样的,设立种子。随机抽取总观测值的三分之二的数据作为训练集,三分之一的数据作为测试集。

5. 多元线性回归模型

5.1. OLS回归

5.1.1. 拟合OLS回归模型

使用逐步回归,对回归子集进行选择。本文使用leaps()函数实现逐步回归,对模型的选择依据的是调整后的R2,调整后的R2值越大即预测变量解释响应变量的程度越大。根据调整后的R2大小,选择调整后的R2最大的值为0.7233854。其对应的OLS回归(1)模型为如表1所示,由于ZN和AGE的系数不显著,剔除这两个变量,重新拟合OLS回归(2)模型,如表1所示。虽然调整后的R2值减小了,但是只减少了0.0011,减少幅度不大。则拟合的OLS回归模型为:

Table 1. The coefficients and significance of OLS regression (1) and (2) models

表1. OLS回归(1)、(2)模型系数及其显著性

M E D V ^ = 50.04133 0.10626 C R I M + 2.77260 C H A S 20.87625 N O X + 4.34167 R M 1.26070 * D I S + 0.27666 R A D 3.73767 T A X 1.10388 P T R A T I O + 1.36656 B 0.48774 L S T A T

Adjusted R -squared = 0.7223

5.1.2. OLS回归统计假设检验

(1) 从图1 Normal Q-Q上可以看出,标准化残差散点大部分都没有落在45˚角的直线上,且散点双侧严重偏离直线,违反了OLS回归残差服从正态性的假设。

(2) 从图1 Residuals vs Fitted上可以看出,残差值和拟合值有明显的曲线关系,这说明残差项里面还存在着未被提取出来的与拟合值线性相关的变量,即违反了多元线性回归自变量和因变量线性相关的假设。

(3) 从图1 Scale-Location上可以看出,残差方差随着拟合值水平的变化而变化,标准化残差散点并不是随机分布的,即该多元线性回归违反了同方差性。

(4) 使用Durbin-Watson检验函数检验残差的序列相关性,检验结果显示D-W统计量的值为1.742645,p值为0.024。在5%的显著性水平下,拒绝残差值之间相互独立的原假设,残差值之间是相关的,违反了多元线性回归残差独立性的统计假设。

使用OLS回归来预测房价固然其预测误差较小,但是其实都是经不起推敲的。从上述OLS回归统计假设的检验可以看出,其实现实中的数据并不符合OLS回归的统计假设,因此相比OLS回归更适合使用非参数回归拟合模型来预测房价。

Figure 1. OLS regression diagnosis chart

图1. OLS回归诊断图

5.2. 非参数回归

5.2.1. Lasso回归

为了比较模型之间预测能力的优劣,将数据集划分为训练集和测试集,在测试集上拟合模型,并利用测试集预测变量来检验模型的预测能力。cv.glmnet()函数自带交叉检验的功能,用cv.glmnet()函数选择拟合Lasso回归来确定最优的lambda (惩罚力度)值,交叉验证结果如图2所示,最优的log(lambda)值在(−1, 0.5)区间内,即最优lambda值在(0.368,1.649)区间内。由“lambda_Lasso = Lasso.regression$lambda.1se”选择误差在最小值的1个标准误差内的lambda值,则最优的lambda的值为0.451622。使用最优的lambda,用glmnet()函数确定最终的Lasso回归,结果如图3所示。Lasso回归将ZN、INDUS、AGE、RAD的系数压缩至0。对所建立的Lasso回归的预测能力进行模型评估,得到的MSE为23.42612。该Lasso回归所得房价的预测值和实际值误差较小。

Figure 2. Model error of different lambda values based on Lasso regression

图2. 基于Lasso回归不同lambda值所对应的模型误差

Figure 3. Coefficients of predictive variables in Lasso regression

图3. Lasso回归预测变量系数值

5.2.2. Ridge回归

与Lasso回归一样,使用十折交叉验证法确定最优的lambda值,十折交叉验证结果显示(如图4),最优的lambda值在(2.718,7.389)区间。最终提取最优的lambda值为5.19255。根据最优的lambda值确定最终的Ridge回归模型,大部分响应变量的系数都被压缩至接近于0,结果如图5所示。Ridge回归将变量CRIM、ZN、INDUS、RAD等系数压缩至接近于0,但是并不等于0,因此Ridge回归适用于研究不希望去掉当中的任何一个变量。对所建立的Ridge回归进行模型评估,得到的MSE为24.30997。

Figure 4. Model error of different lambda values based on Ridge regression

图4. 基于Ridge回归不同lambda值所对应的模型误差

Figure 5. Coefficients of predictive variables in Ridge regression

图5. Ridge回归预测变量系数值

5.3. 模型选择

在上述分析中,Lasso回归的预测能力为23.4255比Ridge回归的小,但是仔细观察发现,其实两个值之间相差不大。为了选择预测能力最强的模型,以下将对模型进行选择。

图6上看,VS不呈正态分布。它的置信区间通过代码“boot.ci(results, type=c(perc, bca))”,结果显示,使用Percentile方法生成的置信区间为(0.859,2.732),用BCa方法生成的置信区间为(0.570, 2.119)。两种方法的置信区间都表明,Ridge回归模型的预测效果比Lasso回归模型的预测效果存在差异,且Lasso回归模型的预测效果相较之下更好一点。

比较多次交叉验证所得出的不同lambda值,实验结果显示,“value”值显著异于0,即表示Lasso回归和Ridge回归在预测能力上存在显著性差异,95%的置信区间为(0.1341764, 0.3513815),表明Ridge回归的预测误差大于Lasso回归的预测误差,即Lasso回归的拟合效果更好。

综上所述,为了避免样本随机性和交叉验证带来的随机性,对Lasso回归和Ridge回归的预测能力进行比较分析。实验结果均表明,Lasso回归的拟合效果更好且不受随机性的影响。

Figure 6. The mean value of MSE difference (VS) between Ridge and Lasso regression obtained by self-help method

图6. 自助法所得的Ridge与Lasso回归MSE差(VS)的均值

5.4. 模型的拟合效果

通过上述分析,Lasso回归的拟合效果更好,因此本文将采取Lasso回归对模型进行拟合。为了更好的拟合模型,采取全部的数据重新拟合Lasso回归,交叉验证选择的最优惩罚力度为0.4564,则拟合的Lasso回归模型为:

M E D V ^ = 16.92617 0.00816 C R I M + 1.66474 C H A S + 4.26095 R M 0.15784 D I S 0.79626 T A X 0.71296 P T R A T I O + 0.66186 B 0.52029 L S T A T

其拟合效果如图7。图中的散点为响应变量真实值和拟合值的差,除了个别异常值,图中散点基本在0处上下波动,拟合效果是很不错的。

Figure 7. The fitting effect of Lasso regression

图7. Lasso回归的拟合效果

6. 结论

本文通过探讨OLS回归在房价中的应用,发现其受到诸多的限制,由于现实中的数据并非是理想化的,因此使用OLS回归对房价进行预测极易违反满足OLS回归成立的统计假设。而非参数回归不会受到总体分布情况的影响,其拟合的模型完全取决于数据。考虑其拟合的结果可能会受到训练集和交叉验证结果随机性的影响,采取Bootstrap法和循环法对其进行验证,并选定最终的模型,其预测效果和真实效果相差不大。因此,选择非参数回归对预测房价是可取的。

致谢

感谢本文撰写期间给出指导的师哥,感谢授课经济计量、非参数统计和R软件的老师们,感谢参考文献中的作者们给予的允许转载和引用权的资料,感谢提出本文研究思想的学者们。

文章引用

林贇英. 非参数回归在房价预测上的应用
Application of Nonparametric Regression in House Price Forecast[J]. 社会科学前沿, 2020, 09(08): 1123-1131. https://doi.org/10.12677/ASS.2020.98156

参考文献

  1. 1. 易成栋, 任建宇, 高璇. 房价、住房不平等与居民幸福感——基于中国综合社会调查2005、2015年数据的实证研究[J]. 中央财经大学学报, 2020(6): 105-117.

  2. 2. 周佳琪, 金百锁. 基于空间网络自回归变点模型的合肥市房地产价格影响因素分析[J]. 中国科学院大学学报, 2020, 37(3): 398-404.

  3. 3. 薛建谱, 王卫华. 基于均衡模型的我国商品房价格影响因素分析[J]. 统计与决策, 2013(22): 118-121.

  4. 4. 范允奇, 王艺明. 中国房价影响因素的区域差异与时序变化研究[J]. 贵州财经大学学报, 2014(1): 62-67.

  5. 5. Malpezzi, S. (1999) A Simple Error Correction Model of House Prices. Journal of Housing Economics, 8, 27-62. https://doi.org/10.1006/jhec.1999.0240

  6. 6. 邬嘉怡, 王思玉, 史宏炜, 李虎森, 楼凯达, 崔丽鸿. 基于多小波的北京市房屋市场价格的分析预测[J]. 北京化工大学学报(自然科学版), 2019, 46(5): 101-106.

  7. 7. 唐晓彬, 张瑞, 刘立新. 基于蝙蝠算法SVR模型的北京市二手房价预测研究[J]. 统计研究, 2018, 35(11): 71-81.

  8. 8. 黄文, 王正林. 数据挖掘-R语言实战[M]. 北京: 电子工业出版社, 2014: 160-169.

  9. 9. 张守一, 葛新权, 王斌. 非参数回归及其应用[J]. 数量经济技术经济研究, 1997(10): 60-65+87.

期刊菜单