内容简介:回归中的相关度和决定系数
起步
训练集中可能是有若干维度的特征。但有时并不是所有特征都是有用的,有的特征其实和结果并没有关系。因此需要一个能衡量自变量和因变量之间的相关度。
皮尔逊相关系数
皮尔逊相关系数( Pearson correlation coefficient
),是用于度量两个变量 X 和 Y 之间的相关(线性相关),其值介于 -1 与 1 之间。
在说皮尔逊相关系数之前,要先理解协方差( Covariance
) ,协方差是一个反映两个随机变量相关程度的指标,如果一个变量跟随着另一个变量同时变大或者变小,那么这两个变量的协方差就是正值,反之相反,公式如下:
Cov(X, Y) = \frac{\sum_{i=1}^n(X_i - \bar{X})(Y_i - \bar{Y})}{n - 1}
皮尔逊相关系数的公式如下:
r_{xy} = \frac{Cov(X, Y)}{\sqrt{Var(X)Var(Y)}}
Var表示方差,相关度越高,皮尔逊相关系数其值趋于 1 或 -1 (趋于1表示它们呈正相关, 趋于 -1 表示它们呈负相关);如果相关系数等于0,表明它们之间不存在线性相关关系。
对应的 python 代码:
import math import numpy as np def computeCorrelation(x: list, y: list) -> float: x_mean = np.mean(x) y_mean = np.mean(y) SSR = 0 var_x = 0 # x的方差 var_y = 0 # y的方差 for xi, yi in zip(x, y): diff_x = xi - x_mean diff_y = yi - y_mean SSR += diff_x * diff_y var_x += diff_x ** 2 var_y += diff_y ** 2 SST = math.sqrt(var_x * var_y) return SSR / SST
决定系数
决定系数即 R 平方值,反应因变量的全部变异能通过回归关系被自变量解释的比例。如R平方为0.8,则表示回归关系可以解释因变量80%的变异。换句话说,如果我们能控制自变量不变,则因变量的变异程度会减少 80%。 在简单线性回归中,绝对系数可以是 R^2 = r * r
。而更通用的是:
R^2 = \frac{SSR}{SST} = \frac{\sum(\hat{y_i} - \bar{y})^2}{\sum(y_i - \bar{y})^2}
SST 其实是两部分组成的,一部分是模型可预测的,一部分是变异的SSError无法用模型解释的。它们之间的计算公式是:
\begin{align*} SS_T &= \sum_i(y_i - \bar{y})^2 \\ SS_R &= \sum_i(\hat{y_i} - \bar{y})^2 \\ SS_E &= \sum_i(y_i - \hat{y_i})^2 \\ \end{align*}
对应的 python 代码,因为需要创建模型来进行预测,这边使用 sklearn
中的线性回归模型:
from sklearn import linear_model def polyfit(x, y): linear = linear_model.LinearRegression() linear.fit(x, y) y_hat = linear.predict(x) y_mean = np.mean(y) SSR = 0 SST = 0 for i in range(len(y)): SSR += (y_hat[i] - y_mean) ** 2 SST += (y[i] - y_mean) ** 2 return SSR / SST
测试:
train_x = [1, 3, 8, 7, 9] train_y = [10, 12, 24, 21, 34] print(computeCorrelation(train_x, train_y)) # output: 0.940310076545 train_x_2d = [[x] for x in train_x] # 通用的方式,训练集至少是二维的 print(polyfit(train_x_2d, train_y)) # output: 0.884183040052
修正决定系数
R 平方也有其局限性,随着自变量数目的增加,R 方是会增加的,这部分的定理是:
证明过程:
调整后的R 方表示为:
\bar{R^2} = 1 - (1 - R^2)\frac{n-1}{n-p-1}
其中,n 表示样本大小,p 表示模型中解释变量的总数(不包括常数)。
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持 码农网
猜你喜欢:- ElasticSearch 揭秘lucene的相关度分数算法
- Lucene教程--维护索引、查询对象和相关度排序
- elasticsearch学习笔记(三十)——Elasticsearch 相关度评分 TF&IDF算法
- elasticsearch学习笔记高级篇(九)——多shard场景下相关度分数不准确问题
- 重修决策树:信息增益与Gini系数
- Java笔记——看完这个,打通Spring难度系数
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。