内容简介:(Artificial Neural Network,ANN)人工神经网络模型,以数学和物理的方法对人脑神经网络进行简化、抽象和模拟。本次只是一个简单的神经网络入门,涉及神经元模型和BP神经网络。这里简单了解一下机器学习的三要素,分别是模型、策略与算法。
(Artificial Neural Network,ANN)人工神经网络模型,以数学和物理的方法对人脑神经网络进行简化、抽象和模拟。
本次只是一个简单的神经网络入门,涉及神经元模型和BP神经网络。
这里简单了解一下机器学习的三要素,分别是模型、策略与算法。
模型包括非随机效应部分(被解释变量和解释变量之间的关系,多为函数关系)和随机效应部分(扰动项)。
策略是指如何设定最优化的目标函数,常见的目标函数有线性回归的残差平方和、逻辑回归的似然函数、SVM中的合页函数等。
算法是对目标函数求参的方法,比如通过求导的方法计算,或者使用数值计算领域的算法求解。
其中神经网络就是采用数值算法求解参数,这就意味着每次计算得到的模型参数都会是不同的。
一、神经网络
01 神经元模型
神经网络中最基本的成分是神经元模型。
每个神经元都是一个多输入单输出的信息处理单元,输入信号通过带权重的连接传递,和阈值对比后得到总输入值,再通过激活函数的处理产生单个输出。
神经元的输出,是对激活函数套用输入加权和的结果。
神经元的激活函数使得神经元具有不同的信息处理特性,反映了神经元输出与其激活状态之间的关系。
本次涉及到的激活函数有阈值函数(阶跃函数)、sigmoid函数(S型函数)。
02 单层感知器
感知器是一种具有单层计算单元的神经网络,只能用来解决线性可分的二分类问题。
无法运用到多层感知器中,无法确定隐藏层的期望输出。
它的结构类似之前的神经元模型。
激活函数采用单极性(或双极性)阈值函数。
03 BP神经网络
采用误差反向传播算法(有监督学习算法)训练的多层神经网络称为BP神经网络。
属于多层前馈型神经网络,模型的学习过程由信号的正向传播和误差反向传播两个过程组成。
进行正向传播时信号从输入层计算各层加权和,经由各隐层最终传递到输出层,得到输出结果,比较输出结果与期望结果(监督信号),得到输出误差。
误差反向传播是依照梯度下降算法将误差沿着隐藏层到输入层逐层反向传播,将误差分摊给各层的所有单元,从而得到各个单元的误差信号(学习信号),据此修改各单元权值。
这两个信号传播过程不断循环以更新权值,最终根据判定条件判断是否结束循环。
其网络结构普遍为单隐层网络,包括输入层、隐层、输出层。
激活函数多采用sigmoid函数或线性函数,这里隐层和输出层均采用sigmoid函数。
二、 Python 实现
神经网络在有明确的训练样本后,网络的输入层结点数(解释变量个数)和输出层结点数(被解释变量的个数)便已确定。
需要考虑的则是隐含层的个数和每个隐含层的结点个数。
下面利用书中的数据进行实战一波,一份移动离网数据。
移动通讯用户消费特征数据,目标字段为是否流失,具有两个分类水平(是与否)。
自变量包含了用户的基本信息、消费的产品信息以及用户的消费特征。
读取数据。
import pandas as pd from sklearn import metrics import matplotlib.pyplot as plt from sklearn.preprocessing import MinMaxScaler from sklearn.neural_network import MLPClassifier from sklearn.model_selection import GridSearchCV from sklearn.model_selection import train_test_split # 设置最大显示行数 pd.set_option('display.max_rows', 10) # 设置最大显示列数 pd.set_option('display.max_columns', 10) # 设置显示宽度为1000,这样就不会在IDE中换行了 pd.set_option('display.width', 1000) # 读取数据,skipinitialspace:忽略分隔符后的空白 churn = pd.read_csv('telecom_churn.csv', skipinitialspace=True) print(churn)
输出数据概况,包含3000多个用户数据。
使用scikit-learn中的函数将数据集划分为训练集和测试集。
# 选取自变量数据 data = churn.iloc[:, 2:] # 选取因变量数据 target = churn['churn'] # 使用scikit-learn将数据集划分为训练集和测试集 train_data, test_data, train_target, test_target = train_test_split(data, target, test_size=0.4, train_size=0.6, random_state=1234)
神经网络需要对数据进行极值标准化。
需要对连续变量进行极值标准化,分类变量需要转变为虚拟变量。
其中多分类名义变量必须转变为虚拟变量,而等级变量和二分类变量则可以选择不转变,当做连续变量处理即可。
本次数据中,教育等级和套餐类型是等级变量,性别等变量为二分类变量,这些都可以作为连续变量进行处理。
这也就意味着本次的数据集中不存在多分类名义变量,都可作为连续变量进行处理。
# 极值标准化处理 scaler = MinMaxScaler() scaler.fit(train_data) scaled_train_data = scaler.transform(train_data) scaler_test_data = scaler.transform(test_data)
建立多层感知器模型。
# 设置多层感知器对应的模型 mlp = MLPClassifier(hidden_layer_sizes=(10,), activation='logistic', alpha=0.1, max_iter=1000) # 对训练集进行模型训练 mlp.fit(scaled_train_data, train_target) # 输出神经网络模型信息 print(mlp)
输出模型信息如下。
接下来使用经过训练集训练的模型,对训练集及测试集进行预测。
# 使用模型进行预测 train_predict = mlp.predict(scaled_train_data) test_predict = mlp.predict(scaler_test_data)
输出预测概率,用户流失的概率。
# 输出模型预测概率(为1的情况) train_proba = mlp.predict_proba(scaled_train_data)[:, 1] test_proba = mlp.predict_proba(scaler_test_data)[:, 1]
对模型进行评估,输出评估数据。
# 根据预测信息输出模型评估结果 print(metrics.confusion_matrix(test_target, test_predict, labels=[0, 1])) print(metrics.classification_report(test_target, test_predict))
输出如下。
模型对流失用户的f1-score(精确率和召回率的调和平均数)值为0.81,效果不错。
此外对流失用户的灵敏度recall为0.83,模型能识别出83%的流失用户,说明模型识别流失用户的能力还可以。
输出模型预测的平均准确度。
# 使用指定数据集输出模型预测的平均准确度 print(mlp.score(scaler_test_data, test_target)) # 输出值为0.8282828282828283
平均准确度值为0.8282。
计算模型的ROC下面积。
# 绘制ROC曲线 fpr_test, tpr_test, th_test = metrics.roc_curve(test_target, test_proba) fpr_train, tpr_train, th_train = metrics.roc_curve(train_target, train_proba) plt.figure(figsize=[3, 3]) plt.plot(fpr_test, tpr_test, 'b--') plt.plot(fpr_train, tpr_train, 'r-') plt.title('ROC curve') plt.show() # 计算AUC值 print(metrics.roc_auc_score(test_target, test_proba)) # 输出值为0.9149632415075206
ROC曲线图如下。
训练集和测试集的曲线很接近,没有过拟合现象。
AUC值为0.9149,说明模型效果非常好。
对模型进行最优参数搜索,并且对最优参数下的模型进行训练。
# 使用GridSearchCV进行最优参数搜索 param_grid = { # 模型隐层数量 'hidden_layer_sizes': [(10, ), (15, ), (20, ), (5, 5)], # 激活函数 'activation': ['logistic', 'tanh', 'relu'], # 正则化系数 'alpha': [0.001, 0.01, 0.1, 0.2, 0.4, 1, 10] } mlp = MLPClassifier(max_iter=1000) # 选择roc_auc作为评判标准,4折交叉验证,n_jobs=-1使用多核CPU的全部线程 gcv = GridSearchCV(estimator=mlp, param_grid=param_grid, scoring='roc_auc', cv=4, n_jobs=-1) gcv.fit(scaled_train_data, train_target)
输出最优参数的模型的情况。
# 输出最优参数下模型的得分 print(gcv.best_score_) # 输出值为0.9258018987136855 # 输出最优参数下模型的参数 print(gcv.best_params_) # 输出参数值为{'alpha': 0.01, 'activation': 'tanh', 'hidden_layer_sizes': (5, 5)} # 使用指定数据集输出最优模型预测的平均准确度 print(gcv.score(scaler_test_data, test_target)) # 输出值为0.9169384823390232
模型的roc_auc最高得分为0.92,即该模型下的ROC曲线下面积为0.92。
较之前的0.9149,提高了一点点。
模型的最优参数,激活函数为relu类型,alpha为0.01,隐藏层节点数为15个。
模型的预测平均准确率为0.9169,较之前的0.8282,提高了不少。
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持 码农网
猜你喜欢:- 神经网络 – 序列预测LSTM神经网络落后
- 聊聊从脑神经到神经网络
- 神经网络历史以及浅析神经网络与感知机
- 【神经网络】11行Python代码实现的神经网络
- 常见的五种神经网络(三):循环神经网络(上篇)
- 常见的五种神经网络(三):循环神经网络(中篇)
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。
程序员面试金典(第5版)
[美] Gayle Laakmann McDowell / 李琳骁、漆 犇 / 人民邮电出版社 / 2013-11 / 59.00
本书是原谷歌资深面试官的经验之作,层层紧扣程序员面试的每一个环节,全面而详尽地介绍了程序员应当如何应对面试,才能在面试中脱颖而出。第1~7 章主要涉及面试流程解析、面试官的幕后决策及可能提出的问题、面试前的准备工作、对面试结果的处理等内容;第8~9 章从数据结构、概念与算法、知识类问题和附加面试题4 个方面,为读者呈现了出自微软、苹果、谷歌等多家知名公司的150 道编程面试题,并针对每一道面试题目......一起来看看 《程序员面试金典(第5版)》 这本书的介绍吧!