内容简介:(本文所使用的Python库和版本号: Python 3.5, Numpy 1.14, scikit-learn 0.19, matplotlib 2.2 )在我的上一篇文章(比如,如果数据集中存在一些远离大部分数据点的异常点,如下图所示,那么简单线性回归器就会得到比较差的回归直线,这是因为线性回归器要拟合数据集中所有的数据点,也包括这些异常点,所以异常点往往会把模型“带到沟里去”。
(本文所使用的 Python 库和版本号: Python 3.5, Numpy 1.14, scikit-learn 0.19, matplotlib 2.2 )
在我的上一篇文章( 【火炉炼AI】机器学习003-简单线性回归器的创建,测试,模型保存和加载 )中,已经详细的讲解了简单线性回归器的构建和测试,简单线性回归器的优势在“简单”,运行速度快,但缺点也在于“简单”,过于简单以至于难以拟合很多复杂的数据集。
比如,如果数据集中存在一些远离大部分数据点的异常点,如下图所示,那么简单线性回归器就会得到比较差的回归直线,这是因为线性回归器要拟合数据集中所有的数据点,也包括这些异常点,所以异常点往往会把模型“带到沟里去”。
面对这样的数据集,该怎么样得到正确的拟合直线了?可以使用正则化项的系数作为阈值来消除异常值的影响,这个方法被称为岭回归。
岭回归是专门用于数据集中存在偏差数据(异常点)的回归分析方法,本质上是对普通最小二乘法进行改良,放弃最小二乘法的无偏性,以损失部分信息,降低精度为代价获得回归系数更符合数据集实际情况的回归方法,所以岭回归对于有偏差数据的数据集的拟合要明显强于使用最小二乘法的线性回归模型。
线性回归模型可以用下列公式表示:
线性回归模型所使用的损失函数为:
通过最小二乘法求解得到的最优解为:
前面提到,岭回归的本质是对最小二乘法进行改良,简单来说,岭回归就是在矩阵XTX上加一个I,加入的这一部分相当于引进了偏差性。所以岭回归的损失函数和最优解分别为:
1. 岭回归器的构建
在代码层面上,岭回归器的构建方式和线性回归器的构建方法一样,只是创建一个linear_model. Ridge ()对象,而不是linear_model.LinearRegression()回归器对象,如下部分代码所示。
# 岭回归器的构建 from sklearn import linear_model ridge_regressor=linear_model.Ridge(alpha=0.02,fit_intercept=True,max_iter=10000) # 构建岭回归器对象,使用的偏差系数为alpha=0.02 ridge_regressor.fit(whole_x,whole_y) # 使用岭回归器进行训练 # 使用训练完成的岭回归器预测数值 y_train_predict=ridge_regressor.predict(whole_x) plt.scatter(whole_x,whole_y) plt.plot(whole_x,y_predict,'-b') plt.plot(whole_x,y_train_predict,'-r') 复制代码
########################小**********结###############################
1,图中蓝色线条为使用线性回归器得到的结果,红色为使用alpha为0.02时得到的拟合直线,两个重合了,貌似是alpha取值太小所致。
2,alpha参数控制岭回归器的复杂程度,但alpha趋近于0时,岭回归器就相当于普通的最小二乘法(从图中可以看出,alpha=0.02时,两条直线几乎重合),所以,如果希望该岭回归器模型对异常值不那么敏感,就需要设置一个比较大的alpha值(《Python机器学习经典实例》是这么说的,但我表示严重怀疑,原因后面会讲)。所以alpha值的选取是个技术活。
#################################################################
2. 岭回归器模型的评估
同样的,和线性回归器模型一样,我们也需要对岭回归器模型进行评估,以考察该模型的好坏。同样的,可以使用均方误差MSE来评估该模型的好坏。
为了对本模型进行评估,需要有评估所需的测试集,此处我自己用随机数生成了一些测试集,如下为测试集生成代码。
# 岭回归器模型的评估 # 第一步:构建评估数据,即test set test_x=np.arange(10,20) # 自变量,随便定义的 shift=np.random.normal(size=test_x.shape) test_x=test_x+shift # 对test_x进行偏置得到测试集的X error=np.random.normal(size=x.shape) test_y=1.8*test_x+5.9+error # 添加随机数作为噪音 plt.scatter(whole_x,whole_y,color='blue',label='train_set') plt.scatter(test_x,test_y,color='red',label='test_set') plt.legend() # 把train set和test set都绘制到一个图中,可以看出偏差不大 复制代码
从上面数据点的分布来看,除了train set中异常点的位置没有test set之外,其余点都和test set的分布是一致的,表明这个test set可以用于进行测试。
# 第二步:使用test set计算MSE y_test_predict=ridge_regressor.predict(test_x.reshape(-1,1)) # 第三步:使用评价指标来评估模型的好坏 import sklearn.metrics as metrics test_y=test_y.reshape(-1,1) print('平均绝对误差:{}'.format( round(metrics.mean_absolute_error(y_test_predict,test_y),2))) print('均方误差MSE:{}'.format( round(metrics.mean_squared_error(y_test_predict,test_y),2))) print('中位数绝对误差:{}'.format( round(metrics.median_absolute_error(y_test_predict,test_y),2))) print('解释方差分:{}'.format( round(metrics.explained_variance_score(y_test_predict,test_y),2))) print('R方得分:{}'.format( round(metrics.r2_score(y_test_predict,test_y),2))) 复制代码
-------------------------------------输---------出--------------------------------
平均绝对误差:2.29 均方误差MSE:8.32 中位数绝对误差:2.0 解释方差分:0.53 R方得分:0.33
--------------------------------------------完-------------------------------------
########################小**********结###############################
1,在考察train set和test set时需要考虑两个数据集中数据点的分布,尽量使得两者在空间上的分布一致,这样才能准确地测试模型。
2,本次模型在test set上的效果并不太理想,虽然得到的MSE比较小,但是R方得分,解释方差分都偏低,看来还有改进的余地。
#################################################################
3. 岭回归器模型的改进
从上面得到的岭回归器模型在测试集上的表现可以看出,本模型效果并不太好,可以改进的地方至少有两个,一个是对train set中数据点进行删减,比如发现了很明显偏离的异常点,可以直接将这些异常点删除,但是这就涉及到异常点的鉴定方法,把哪些点标注为可以删除的异常点,偏离中心位置多少距离就被认定为异常点,等等。另外一个方法是优化岭回归器的alpha值,下面是我尝试优化alpha的结果图。
# 对岭回归器模型进行优化,主要优化alpha的取值 alpha_candidates=[-20,-10,-5.0,-2.0,2.0,5.0,10,20,50] from sklearn import linear_model for alpha in alpha_candidates: ridge_regressor=linear_model.Ridge(alpha=alpha,fit_intercept=True,max_iter=10000) # 构建岭回归器对象,使用不同的alpha值 ridge_regressor.fit(whole_x,whole_y) # 使用岭回归器进行训练 # 使用训练完成的岭回归器预测数值 y_train_predict=ridge_regressor.predict(whole_x) plt.plot(whole_x,y_train_predict,label='alpha='+str(alpha)) plt.legend() plt.scatter(whole_x,whole_y) 复制代码
从上图中可以看出,随着alpha的取值由0到50慢慢变化,拟合直线会进行顺时针旋转,或者是朝向异常点的方向旋转,貌似是因为alpha越大,异常点对直线越“吸引”,故而拟合直线收到异常点的影响也越来越大。而alpha由0变到负值,且越来越小时,异常点对拟合直线的影响也越来越小。(不知道这么总结对不对)。虽然linear_model. Ridge的函数说明文档要求alpha取值是positive float,但是此处负值貌似也没有问题,而且貌似alpha为负值时拟合的更好一些。
下面打印出各种不同alpha值时的各种误差:
# 对岭回归器模型进行优化,使用不同alpha值优化后得到的模型计算测试集 alpha_candidates=[-20,-10,-5.0,-2.0,2.0,5.0,10,20,50] from sklearn import linear_model for alpha in alpha_candidates: ridge_regressor=linear_model.Ridge(alpha=alpha,fit_intercept=True,max_iter=10000) # 构建岭回归器对象,使用不同的alpha值 ridge_regressor.fit(whole_x,whole_y) # 使用岭回归器进行训练 y_test_predict=ridge_regressor.predict(test_x.reshape(-1,1)) print('------------alpha='+str(alpha)+'---------------------->>>') print('均方误差MSE:{}'.format( round(metrics.mean_squared_error(y_test_predict,test_y),2))) print('中位数绝对误差:{}'.format( round(metrics.median_absolute_error(y_test_predict,test_y),2))) print('解释方差分:{}'.format( round(metrics.explained_variance_score(y_test_predict,test_y),2))) print('R方得分:{}'.format( round(metrics.r2_score(y_test_predict,test_y),2))) 复制代码
-------------------------------------输---------出--------------------------------
------------alpha=-20----------------------
均方误差MSE:4.93
中位数绝对误差:1.1
解释方差分:0.87
R方得分:0.75
------------alpha=-10----------------------
均方误差MSE:6.61
中位数绝对误差:1.62
解释方差分:0.73
R方得分:0.57
------------alpha=-5.0----------------------
均方误差MSE:7.47
中位数绝对误差:1.84
解释方差分:0.64
R方得分:0.46
------------alpha=-2.0----------------------
均方误差MSE:7.98
中位数绝对误差:1.96
解释方差分:0.57
R方得分:0.38
------------alpha=2.0----------------------
均方误差MSE:8.66
中位数绝对误差:2.03
解释方差分:0.48
R方得分:0.27
------------alpha=5.0----------------------
均方误差MSE:9.15
中位数绝对误差:2.06
解释方差分:0.41
R方得分:0.18
------------alpha=10----------------------
均方误差MSE:9.95
中位数绝对误差:2.12
解释方差分:0.27
R方得分:0.02
------------alpha=20----------------------
均方误差MSE:11.47
中位数绝对误差:2.33
解释方差分:-0.05
R方得分:-0.36
------------alpha=50----------------------
均方误差MSE:15.31
中位数绝对误差:2.78
解释方差分:-1.36
R方得分:-1.87
########################小**********结###############################
1,通过修改alpha值,可以修改模型在test set上的表现,由于test set不包含异常点,所以要求alpha取的越小越好,拟合的直线越偏离异常点。
2,alpha取值越大,岭回归得到的拟合直线越“偏向”异常点,此时异常点对直线的影响越大;alpha越小,拟合直线越“偏离”异常点,此时异常点对直线的影响越小,我们所期望的是异常点对直线影响越小越好,所以貌似alpha应该往越小的方向取值。
#################################################################
注:本部分代码已经全部上传到( 我的github )上,欢迎下载。
参考资料:
1, Python机器学习经典实例,Prateek Joshi著,陶俊杰,陈小莉译
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持 码农网
猜你喜欢:- 【火炉炼AI】机器学习033-构建电影推荐系统
- 【火炉炼AI】机器学习030-KNN分类器模型的构建
- 【火炉炼AI】深度学习002-构建并训练单层神经网络模型
- 【火炉炼AI】机器学习022-使用均值漂移聚类算法构建模型
- 【火炉炼AI】机器学习052-OpenCV构建人脸鼻子眼睛检测器
- 【火炉炼AI】机器学习036-NLP词形还原
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。
Java语言程序设计(基础篇 原书第10版)
[美]粱勇(Y.Daniel Liang) / 戴开宇 / 机械工业出版社 / 2015-7 / 85.00元
《Java语言程序设计(基础篇 原书第10版)》是Java语言的经典教材,中文版分为基础篇和进阶篇,主要介绍程序设计基础、面向对象编程、GUI程序设计、数据结构和算法、高级Java程序设计等内容。本书以示例讲解解决问题的技巧,提供大量的程序清单,每章配有大量复习题和编程练习题,帮助读者掌握编程技术,并应用所学技术解决实际应用开发中遇到的问题。您手中的这本是其中的基础篇,主要介绍了基本程序设计、语法......一起来看看 《Java语言程序设计(基础篇 原书第10版)》 这本书的介绍吧!
html转js在线工具
html转js在线工具
HEX HSV 转换工具
HEX HSV 互换工具