内容简介:添加正则化项, 是指在损失函数上添加正则化项, 而正则化项可分为两种: 一种是L1正则化项, 另一种是L2正则化. 我们把带有L2正则化项的回归模型称为岭回归, 带有L1正则化项的回归称为Lasso回归.1. 岭回归引用百度百科定义.
添加正则化项, 是指在损失函数上添加正则化项, 而正则化项可分为两种: 一种是L1正则化项, 另一种是L2正则化. 我们把带有L2正则化项的回归模型称为岭回归, 带有L1正则化项的回归称为Lasso回归.
1. 岭回归
引用百度百科定义.
岭回归(英文名:ridge regression, Tikhonov regularization)是一种专用于共线性数据分析的有偏估计回归方法,实质上是一种改良的最小二乘估计法,通过放弃最小二乘法的无偏性,以损失部分信息、降低精度为代价获得回归系数更为符合实际、更可靠的回归方法,对病态数据的拟合要强于最小二乘法。
通过定义可以看出, 岭回归是改良后的最小二乘法, 是有偏估计的回归方法, 即给损失函数加上一个正则化项, 也叫惩罚项(L2范数), 那幺岭回归的损失函数表示为
其中, m是样本量, n是特征数, 是惩罚项参数(其取值大于0), 加惩罚项主要为了让模型参数的取值不能过大. 当趋于无穷大时, 对应趋向于0, 而表示的是因变量随着某一自变量改变一个单位而变化的数值(假设其他自变量均保持不变), 这时, 自变量之间的共线性对因变量的影响几乎不存在, 故其能有效解决自变量之间的多重共线性问题, 同时也能防止过拟合.
2. Lasso回归
岭回归的正则化项是对求平方和, 既然能求平方也就能取绝对值, 而Lasso回归的L1范数正是对取绝对值, 故其损失函数可以表示为
当只有两个自变量时, L1范数在二维上对应的图形是矩形(顶点均在坐标轴上, 即其中一个回归系数为0), 对于这样的矩形来说其顶点更容易与同心椭圆(等值线)相交, 而相交的点则为最小损失函数的最优解. 也就是说Lasso会出现回归系数为0的情况. 对于L2范数来说则是圆形,其不会相交于坐标轴上的点, 自然也就不会出现回归系数为0的情况. 当然多个自变量也是同样的道理
3. 岭回归和Lasso回归对比
相同点:
1. 岭回归和Lasso回归均是加了正则化项的线性回归模型, 本质上它们都是线性回归模型.
2. 两者均能在一定程度上解决多重共线性问题, 并且可以有效避免过拟合.
3. 回归系数均受正则化参数的影响, 均可以用图形表示回归系数和正则化参数的关系, 并可以通过该图形进行变量以及正则化参数的筛选.
不同点:
1. 岭回归的回归系数均不为0, Lasso回归部分回归系数为0.
4. 实际案例应用
1. 数据来源及数据背景
数据来源: https://www.kaggle.com/c/bike-sharing-demand/data, 数据有训练集和测试集, 在训练集中包含10886个样本以及12个字段, 通过训练集上自行车租赁数据对美国华盛顿自行车租赁需求进行预测.
2. 数据概览
1. 读取数据
import pandas as pd df = pd.read_csv(r'D:\Data\bike.csv') pd.set_option('display.max_rows',4 ) df
通过以上可以得知数据维度10886行X12列, 除了第一列其它均显示为数值, 具体的格式还要进一步查看, 对于各列的解释也放入下一环节.
2. 查看数据整体信息
df.info()
<class 'pandas.core.frame.DataFrame'> RangeIndex: 10886 entries, 0 to 10885 Data columns (total 12 columns): datetime 10886 non-null object #时间和日期 season 10886 non-null int64 #季节, 1 =春季,2 =夏季,3 =秋季,4 =冬季 holiday 10886 non-null int64 #是否是假期, 1=是, 0=否 workingday 10886 non-null int64 #是否是工作日, 1=是, 0=否 weather 10886 non-null int64 #天气,1:晴朗,很少有云,部分多云,部分多云; 2:雾+多云,雾+碎云,雾+少云,雾; 3:小雪,小雨+雷雨+散云,小雨+散云; 4:大雨+冰块+雷暴+雾,雪+雾temp 10886 non-null float64 #温度atemp 10886 non-null float64 #体感温度humidity 10886 non-null int64 #相对湿度windspeed 10886 non-null float64 #风速casual 10886 non-null int64 #未注册用户租赁数量registered 10886 non-null int64 #注册用户租赁数量count 10886 non-null int64 #所有用户租赁总数dtypes: float64(3), int64(8), object(1) memory usage: 1020.6+ KB
除了datetime为字符串型, 其他均为数值型, 且无缺失值.
3. 描述性统计
df.describe()
温度, 体表温度, 相对湿度, 风速均近似对称分布, 而非注册用户, 注册用户,以及总数均右边分布.
4. 偏态, 峰态
for i in range(5, 12):
name = df.columns[i]
print(‘{0}偏态系数为 {1}, 峰态系数为 {2}’.format(name, df[name].skew(), df[name].kurt()))
temp偏态系数为 0.003690844422472008, 峰态系数为 -0.9145302637630794 atemp偏态系数为 -0.10255951346908665, 峰态系数为 -0.8500756471754651 humidity偏态系数为 -0.08633518364548581, 峰态系数为 -0.7598175375208864 windspeed偏态系数为 0.5887665265853944, 峰态系数为 0.6301328693364932 casual偏态系数为 2.4957483979812567, 峰态系数为 7.551629305632764 registered偏态系数为 1.5248045868182296, 峰态系数为 2.6260809999210672 count偏态系数为 1.2420662117180776, 峰态系数为 1.3000929518398334
temp, atemp, humidity低度偏态, windspeed中度偏态, casual, registered, count高度偏态
temp, atemp, humidity为平峰分布, windspeed,casual, registered, count为尖峰分布.
3. 数据预处理
由于没有缺失值, 不用处理缺失值, 看看有没有重复值.
1. 检查重复值
print(‘未去重: ‘, df.shape)
print(‘去重: ‘, df.drop_duplicates().shape)
未去重: (10886, 12)
去重: (10886, 12)
没有重复项, 看看异常值.
2. 异常值
通过箱线图查看异常值
import seaborn as sns import matplotlib.pyplot as plt fig, axes = plt.subplots(nrows=2, ncols=2, figsize=(12, 6)) #绘制箱线图 sns.boxplot(x="windspeed", data=df,ax=axes[0][0]) sns.boxplot(x='casual', data=df, ax=axes[0][1]) sns.boxplot(x='registered', data=df, ax=axes[1][0]) sns.boxplot(x='count', data=df, ax=axes[1][1]) plt.show()
租赁数量会受小时的影响, 比如说上班高峰期等, 故在这里先不处理异常值.
3. 数据加工
#转换格式, 并提取出小时, 星期几, 月份 df['datetime'] = pd.to_datetime(df['datetime']) df['hour'] = df.datetime.dt.hour df['week'] = df.datetime.dt.dayofweek df['month'] = df.datetime.dt.month df['year_month'] = df.datetime.dt.strftime('%Y-%m') df['date'] = df.datetime.dt.date #删除datetime df.drop('datetime', axis = 1, inplace = True) df
4. 特征分析
1) 日期和总租赁数量
import matplotlib #设置中文字体 font = {'family': 'SimHei'} matplotlib.rc('font', **font) #分别计算日期和月份中位数 group_date = df.groupby('date')['count'].median() group_month = df.groupby('year_month')['count'].median() group_month.index = pd.to_datetime(group_month.index) plt.figure(figsize=(16,5)) plt.plot(group_date.index, group_date.values, '-', color = 'b', label = '每天租赁数量中位数', alpha=0.8) plt.plot(group_month.index, group_month.values, '-o', color='orange', label = '每月租赁数量中位数') plt.legend() plt.show()
2012年相比2011年租赁数量有所增长, 且波动幅度相类似.
2) 月份和总租赁数量
import seaborn as sns plt.figure(figsize=(10, 4)) sns.boxplot(x='month', y='count', data=df) plt.show()
与上图的波动幅度基本一致, 另外每个月均有不同程度的离群值.
3) 季节和总租赁数量
plt.figure(figsize=(8, 4))
sns.boxplot(x=’season’, y=’count’, data=df)
plt.show()
就中位数来说, 秋季是最多的, 春季最少且离群值较多.
4) 星期几和租赁数量
fig, axes = plt.subplots(nrows=3, ncols=1, figsize=(12, 8)) sns.boxplot(x="week",y='casual' ,data=df,ax=axes[0]) sns.boxplot(x='week',y='registered', data=df, ax=axes[1]) sns.boxplot(x='week',y='count', data=df, ax=axes[2]) plt.show()
就中位数来说, 未注册用户周六和周日较多, 而注册用户则周内较多, 对应的总数也是周内较多, 且周内在总数的离群值较多(0代表周一, 6代表周日)
5) 节假日, 工作日和总租赁数量
fig, axes = plt.subplots(nrows=3, ncols=2, figsize=(9, 7)) sns.boxplot(x='holiday', y='casual', data=df, ax=axes[0][0]) sns.boxplot(x='holiday', y='registered', data=df, ax=axes[1][0]) sns.boxplot(x='holiday', y='count', data=df, ax=axes[2][0]) sns.boxplot(x='workingday', y='casual', data=df, ax=axes[0][1]) sns.boxplot(x='workingday', y='registered', data=df, ax=axes[1][1]) sns.boxplot(x='workingday', y='count', data=df, ax=axes[2][1]) plt.show()
未注册用户: 在节假日较多, 在工作日较少
注册用户: 在节假日较少, 在工作日较多
总的来说, 节假日租赁较少, 工作日租赁较多, 初步猜测多数未注册用户租赁自行车是用来非工作日出游, 而多数注册用户则是工作日用来上班或者上学.
6) 小时和总租赁数量的关系
#绘制第一个子图 plt.figure(1, figsize=(14, 8)) plt.subplot(221) hour_casual = df[df.holiday==1].groupby('hour')['casual'].median() hour_registered = df[df.holiday==1].groupby('hour')['registered'].median() hour_count = df[df.holiday==1].groupby('hour')['count'].median() plt.plot(hour_casual.index, hour_casual.values, '-', color='r', label='未注册用户') plt.plot(hour_registered.index, hour_registered.values, '-', color='g', label='注册用户') plt.plot(hour_count.index, hour_count.values, '-o', color='c', label='所有用户') plt.legend() plt.xticks(hour_casual.index) plt.title('未注册用户和注册用户在节假日自行车租赁情况') #绘制第二个子图 plt.subplot(222) hour_casual = df[df.workingday==1].groupby('hour')['casual'].median() hour_registered = df[df.workingday==1].groupby('hour')['registered'].median() hour_count = df[df.workingday==1].groupby('hour')['count'].median() plt.plot(hour_casual.index, hour_casual.values, '-', color='r', label='未注册用户') plt.plot(hour_registered.index, hour_registered.values, '-', color='g', label='注册用户') plt.plot(hour_count.index, hour_count.values, '-o', color='c', label='所有用户') plt.legend() plt.title('未注册用户和注册用户在工作日自行车租赁情况') plt.xticks(hour_casual.index) #绘制第三个子图 plt.subplot(212) hour_casual = df.groupby('hour')['casual'].median() hour_registered = df.groupby('hour')['registered'].median() hour_count = df.groupby('hour')['count'].median() plt.plot(hour_casual.index, hour_casual.values, '-', color='r', label='未注册用户') plt.plot(hour_registered.index, hour_registered.values, '-', color='g', label='注册用户') plt.plot(hour_count.index, hour_count.values, '-o', color='c', label='所有用户') plt.legend() plt.title('未注册用户和注册用户自行车租赁情况') plt.xticks(hour_casual.index) plt.show()
在节假日, 未注册用户和注册用户走势相接近, 不过未注册用户最高峰在14点, 而注册用户则是17点
在工作日, 注册用户呈现出双峰走势, 在8点和17点均为用车高峰期, 而这正是上下班或者上下学高峰期.
对于注册用户来说, 17点在节假日和工作日均为高峰期, 说明部分用户在节假日可能未必休假.
7) 天气和总租赁数量
fig, ax = plt.subplots(3, 1, figsize=(12, 6)) sns.boxplot(x='weather', y='casual', hue='workingday',data=df, ax=ax[0]) sns.boxplot(x='weather', y='registered',hue='workingday', data=df, ax=ax[1]) sns.boxplot(x='weather', y='count',hue='workingday', data=df, ax=ax[2])
就中位数而言未注册用户和注册用户均表现为: 在工作日和非工作日租赁数量均随着天气的恶劣而减少, 特别地, 当天气为大雨大雪天(4)且非工作日均没有自行车租赁.
从图上可以看出, 大雨大雪天只有一个数据, 我们看看原数据.
df[df.weather==4]
只有在2012年1月9日18时为大雨大雪天, 说明天气是突然变化的, 部分用户可能因为没有看天气预报而租赁自行车, 当然也有其他原因.
另外, 发现1月份是春季, 看看它的季节划分规则.
sns.boxplot(x=’season’, y=’month’,data=df)
123为春季, 456为夏季, 789为秋季…
季节的划分通常和纬度相关, 而这份数据是用来预测美国华盛顿的租赁数量, 且美国和我国的纬度基本一样, 故按照345春节, 678夏季..这个规则来重新划分.
import numpy as np df['group_season'] = np.where((df.month <=5) & (df.month >=3), 1, np.where((df.month <=8) & (df.month >=6), 2, np.where((df.month <=11) & (df.month >=9), 3, 4))) fig, ax = plt.subplots(2, 1, figsize=(12, 6)) #绘制气温和季节箱线图 sns.boxplot(x='season', y='temp',data=df, ax=ax[0]) sns.boxplot(x='group_season', y='temp',data=df, ax=ax[1])
第一个图是调整之前的, 就中位数来说, 春季气温最低, 秋季气温最高
第二个图是调整之后的, 就中位数来说, 冬季气温最低, 夏季气温最高
显然第二张的图的结果较符合常理, 故删除另外那一列.
df.drop(‘season’, axis=1, inplace=True)
df.shape
(10886, 16)
8) 其他变量和总租赁数量的关系
这里我直接使用利用seaborn的pairplot绘制剩余的温度, 体感温度, 相对湿度, 风速这四个连续变量与未注册用户和注册用户的关系在一张图上.
sns.pairplot(df[[‘temp’, ‘atemp’, ‘humidity’, ‘windspeed’, ‘casual’, ‘registered’, ‘count’]])
为了方便纵览全局, 我将图片尺寸缩小, 如下图所示. 纵轴从上往下依次是温度, 体感温度, 相对湿度, 风速, 未注册用户, 注册用户, 所有用户, 横轴从左往右是同样的顺序.
从图上可以看出, 温度和体感温度分别与未注册用户, 注册用户, 所有用户均有一定程度的正相关, 而相对湿度和风速与之呈现一定程度的负相关. 另外, 其他变量之间也有不同程度的相关关系.
另外, 第四列(风速)在散点图中间有明显的间隙. 需要揪出这一块来看看.
df[‘windspeed’]
0 0.0000 1 0.0000 2 0.0000 ... 10883 15.0013 10884 6.0032 10885 8.9981 Name: windspeed, Length: 10886, dtype: float64
风速为0, 这明显不合理, 把其当成缺失值来处理. 我这里选择的是向后填充.
df.loc[df.windspeed == 0, ‘windspeed’] = np.nan
df.fillna(method=’bfill’, inplace=True)
df.windspeed.isnull().sum()
0
9) 相关矩阵
由于多个变量不满足正态分布, 对其进行对数变换.
#对数转换 df['windspeed'] = np.log(df['windspeed'].apply(lambda x: x+1)) df['casual'] = np.log(df['casual'].apply(lambda x: x+1)) df['registered'] = np.log(df['registered'].apply(lambda x: x+1)) df['count'] = np.log(df['count'].apply(lambda x: x+1)) sns.pairplot(df[['windspeed', 'casual', 'registered', 'count']])
经过对数变换之后, 注册用户和所有用户的租赁数量和正态还是相差较大, 故在计算相关系数时选择spearman相关系数.
correlation = df.corr(method='spearman') plt.figure(figsize=(12, 8)) #绘制热力图 sns.heatmap(correlation, linewidths=0.2, vmax=1, vmin=-1, linecolor='w', annot=True,annot_kws={'size':8},square=True)
均有不同程度的相关程度, 其中, temp和atemp高度相关, count和registered高度相关, 数值均达到0.99.
5. 回归模型
岭回归和Lasso回归是加了正则化项的线性回归, 下面将分别构造两个模型.
5.1 岭回归
1. 划分数据集
from sklearn.model_selection import train_test_split #由于所有用户的租赁数量是由未注册用户和注册用户相加而成, 故删除. df.drop(['casual','registered'], axis=1, inplace=True) X = df.drop(['count'], axis=1) y = df['count'] #划分训练集和测试集 X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=1)
2. 模型训练
from sklearn.linear_model import Ridge #这里的alpha指的是正则化项参数, 初始先设置为1. rd = Ridge(alpha=1) rd.fit(X_train, y_train) print(rd.coef_) print(rd.intercept_)
[ 0.00770067 -0.00034301 0.0039196 0.00818243 0.03635549 -0.01558927
0.09080788 0.0971406 0.02791812 0.06114358 -0.00099811]
2.6840271343740754
通过前面我们知道, 正则化项参数对结果的影响较大, 下一步我们就通过岭迹图来选择正则化参数.
#设置参数以及训练模型 alphas = 10**np.linspace(-5, 10, 500) betas = [] for alpha in alphas: rd = Ridge(alpha = alpha) rd.fit(X_train, y_train) betas.append(rd.coef_) #绘制岭迹图 plt.figure(figsize=(8,6)) plt.plot(alphas, betas) #对数据进行对数转换, 便于观察. plt.xscale('log') #添加网格线 plt.grid(True) #坐标轴适应数据量 plt.axis('tight') plt.title(r'正则化项参数$\alpha$和回归系数$\beta$岭迹图') plt.xlabel(r'$\alpha$') plt.ylabel(r'$\beta$') plt.show()
通过图像可以看出, 当alpha为107时所有变量岭迹趋于稳定.按照岭迹法应当取alpha=107.
由于是通过肉眼观察的, 其不一定是最佳, 采用另外一种方式: 交叉验证的岭回归.
from sklearn.linear_model import RidgeCV from sklearn import metrics rd_cv = RidgeCV(alphas=alphas, cv=10, scoring='r2') rd_cv.fit(X_train, y_train) rd_cv.alpha_
805.0291812295973
最后选出的最佳正则化项参数为805.03, 然后用这个参数进行模型训练
rd = Ridge(alpha=805.0291812295973) #, fit_intercept=False rd.fit(X_train, y_train) print(rd.coef_) print(rd.intercept_)
[ 0.00074612 -0.00382265 0.00532093 0.01100823 0.03375475 -0.01582157
0.0584206 0.09708992 0.02639369 0.0604242 -0.00116086]
2.7977274604845856
4. 模型预测
from sklearn import metrics from math import sqrt #分别预测训练数据和测试数据 y_train_pred = rd.predict(X_train) y_test_pred = rd.predict(X_test) #分别计算其均方根误差和拟合优度 y_train_rmse = sqrt(metrics.mean_squared_error(y_train, y_train_pred)) y_train_score = rd.score(X_train, y_train) y_test_rmse = sqrt(metrics.mean_squared_error(y_test, y_test_pred)) y_test_score = rd.score(X_test, y_test) print('训练集RMSE: {0}, 评分: {1}'.format(y_train_rmse, y_train_score)) print('测试集RMSE: {0}, 评分: {1}'.format(y_test_rmse, y_test_score))
训练集RMSE: 1.0348076524200298, 评分: 0.46691272323469246
测试集RMSE: 1.0508046977499312, 评分: 0.45801571689420706
5.2 Lasso回归
1. 模型训练
from sklearn.linear_model import Lasso alphas = 10**np.linspace(-5, 10, 500) betas = [] for alpha in alphas: Las = Lasso(alpha = alpha) Las.fit(X_train, y_train) betas.append(Las.coef_) plt.figure(figsize=(8,6)) plt.plot(alphas, betas) plt.xscale('log') plt.grid(True) plt.axis('tight') plt.title(r'正则化项参数$\alpha$和回归系数$\beta$的Lasso图') plt.xlabel(r'$\alpha$') plt.ylabel(r'$\beta$') plt.show()
通过Lasso回归曲线, 可以看出大致在10附近所有变量趋于稳定
同样采用交叉验证选择Lasso回归最优正则化项参数
from sklearn.linear_model import LassoCV from sklearn import metrics Las_cv = LassoCV(alphas=alphas, cv=10) Las_cv.fit(X_train, y_train) Las_cv.alpha_
0.005074705239490466
用这个参数重新训练模型
Las = Lasso(alpha=0.005074705239490466) #, fit_intercept=False Las.fit(X_train, y_train) print(Las.coef_) print(Las.intercept_)
[ 0. -0. 0. 0.01001827 0.03467474 -0.01570339
0.06202352 0.09721864 0.02632133 0.06032038 -0. ]
2.7808303982442952
对比岭回归可以发现, 这里的回归系数中有0存在, 也就是舍弃了holiday, workingday, weather和group_season这四个自变量.
#用Lasso分别预测训练集和测试集, 并计算均方根误差和拟合优度 y_train_pred = Las.predict(X_train) y_test_pred = Las.predict(X_test) y_train_rmse = sqrt(metrics.mean_squared_error(y_train, y_train_pred)) y_train_score = Las.score(X_train, y_train) y_test_rmse = sqrt(metrics.mean_squared_error(y_test, y_test_pred)) y_test_score = Las.score(X_test, y_test) print('训练集RMSE: {0}, 评分: {1}'.format(y_train_rmse, y_train_score)) print('测试集RMSE: {0}, 评分: {1}'.format(y_test_rmse, y_test_score))
训练集RMSE: 1.0347988070045209, 评分: 0.4669218367318746
测试集RMSE: 1.050818996520012, 评分: 0.45800096674816204
最后, 再用传统的线性回归进行预测, 从而对比三者之间的差异.
from sklearn.linear_model import LinearRegression #训练线性回归模型 LR = LinearRegression() LR.fit(X_train, y_train) print(LR.coef_) print(LR.intercept_) #分别预测训练集和测试集, 并计算均方根误差和拟合优度 y_train_pred = LR.predict(X_train) y_test_pred = LR.predict(X_test) y_train_rmse = sqrt(metrics.mean_squared_error(y_train, y_train_pred)) y_train_score = LR.score(X_train, y_train) y_test_rmse = sqrt(metrics.mean_squared_error(y_test, y_test_pred)) y_test_score = LR.score(X_test, y_test) print('训练集RMSE: {0}, 评分: {1}'.format(y_train_rmse, y_train_score)) print('测试集RMSE: {0}, 评分: {1}'.format(y_test_rmse, y_test_score))
[ 0.00775915 -0.00032048 0.00391537 0.00817703 0.03636054 -0.01558878 0.09087069 0.09714058 0.02792397 0.06114454 -0.00099731] 2.6837869701964014 训练集RMSE: 1.0347173340121176, 评分: 0.46700577529675036 测试集RMSE: 1.0510323073614725, 评分: 0.45778089839236114
总结
就测试集和训练集均方根误差之差来说, 线性回归最大, 岭回归最小, 另外回归在测试集的拟合优度最大, 总体来说, 岭回归在此数据集上表现略优.
就这个评分来说, 以上模型还不是很好, 还需要学习其他模型, 比如决策树, 随机森林, 神经网络等.
以上所述就是小编给大家介绍的《Python数据分析–Kaggle》,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对 码农网 的支持!
猜你喜欢:- 数据分析是什么,如何完善数据分析知识体系
- 大数据分析工程师入门(二十):数据分析方法
- 数据分析的准备工作:从问题分析到数据清洗
- 蚂蚁数据分析平台的演进及数据分析方法的应用
- 如何分析“数据分析师”的岗位?
- python数据分析于实现,单样本体检验、独立样本体检验、相关分析、列联表分析!
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。
推荐系统与深度学习
黄昕、赵伟、王本友、吕慧伟、杨敏 / 清华大学出版社 / 2019-1-1 / 65.00元
本书的内容设置由浅入深,从传统的推荐算法过渡到近年兴起的深度学习技术。不管是初学者,还是有一定经验的从业人员,相信都能从本书的不同章节中有所收获。 区别于其他推荐算法书籍,本书引入了已被实践证明效果较好的深度学习推荐技术,包括Word2Vec、Wide & Deep、DeepFM、GAN 等技术应用,并给出了相关的实践代码;除了在算法层面讲解推荐系统的实现,还从工程层面详细阐述推荐系统如何搭建.一起来看看 《推荐系统与深度学习》 这本书的介绍吧!