ID3、C4.5、CART 决策树介绍

栏目: 编程工具 · 发布时间: 6年前

内容简介:决策树是一类常见的机器学习方法,它可以实现分类和回归任务。决策树同时也是随机森林的基本组成部分,后者是现今最强大的机器学习算法之一。1. 简单了解决策树

决策树是一类常见的机器学习方法,它可以实现分类和回归任务。决策树同时也是随机森林的基本组成部分,后者是现今最强大的机器学习算法之一。

1. 简单了解决策树

举个例子,我们要对 这是好 瓜吗?这样的问题进行决策时,通常会进行一系列的判断:我们先看 " 它是什么颜色的 " ,如果是 " 青绿 " 我们再看 " 它的根蒂是什么形态 " ,如果是 " 蜷缩 " ,我们再判断 " 它敲起来是什么声音 " ,最后我们判断它是一个好瓜。决策过程如下图所示。

ID3、C4.5、CART 决策树介绍

决策过程的最终结论对应了我们所希望的判定结果, " " " 不是 " 好瓜。上图就是一个简单的决策树。

那么我们就会有疑问了,为什么这棵树是这样划分的呢?一定要以 " 色泽 " 作为根节点吗?对此,就需要划分选择最优的属性。

2. 划分选择

一般而言,我们希望决策树的分支节点所包含的样本尽可能属于同一类别,即结点的 " 纯度 " 越高越好。常用的纯度有 " 信息增益 " " 信息增益率 " " 基尼指数 " " 均方差 " ,分别对应 ID3 C4.5 CART

3. ID3 决策树

3.1 信息熵

信息熵是度量样本集合纯度最常用的一种指标。假定当前样本集合 D 中第i 类样本所占的比例为pi ,则D的信息熵定义为:

ID3、C4.5、CART 决策树介绍

    其中 pi 是数据集 中任意样本属于类 Ci 的概率,用 估计。Info(D)的值越小,D 的纯度越高。

3.2 条件熵

当前样本集D 中,考虑到不同的分支结点所包含的样本数不同,可以赋予不同的权重,样本数越多的分支结点对应的影响越大,即为条件熵,定义如下:

ID3、C4.5、CART 决策树介绍

其中, 充当第 j 个划分的权重。

3.3 信息增益

信息增益 = 信息熵 条件熵,即

ID3、C4.5、CART 决策树介绍

当信息熵一定时,条件熵越小(即纯度越大),信息增益越大,选择信息增益最大的属性作为最优划分属性。

3.4  算法过程

    输入:训练集 ID3、C4.5、CART 决策树介绍

             属性集 ID3、C4.5、CART 决策树介绍

(1) 生成结点 node

(2)   如果数据集D 都属于同一个类C ,那么将 node 标记为C 类叶子结点,结束;

(3)   如果数据集 中D没有其他属性可以考虑,那么按照少数服从多数的原则,在 node 上标出数据集D 中样本数最多的类,结束;

(4)   否则,根据信息增益,选择一个信息增益最大的属性作为结点 node 的一个分支。

(5)   结点属性选定后,对于该属性中的每个值:

  1. 每个值生成一个分支,并将数据集中与该分支有关的数据收集形成分支结点的样本子集Dv ,删除结点属性那一栏;

  2. 如果Dv 非空,则转 (1) ,运用以上算法从该结点建立子树。

4. C4.5 决策树

信息增益准则偏向于可取值数目较多的属性(例如:将 " 编号 " 作为一个划分属性,那么每个 " 编号 " 仅包含一个样本,分支结点的纯度最大,条件熵为 0 ,信息增益 = 信息熵,信息增益达到最大值),为减少这种偏好带来的不利影响,使用了 " 信息增益率 " 来选择最优划分属性。

4.1 信息增益率

信息增益率是在信息增益的基础上,增加了属性A 的信息熵。

信息增益率的定义如下:

ID3、C4.5、CART 决策树介绍

其中

ID3、C4.5、CART 决策树介绍

该值表示数据集D 按属性A 分裂的v 个划分产生的信息。

    注意 :信息增益率偏向于可取值数目较少的属性,所以 C4.5 算法不是直接选择增益率最大的划分属性,而是先从划分属性中找出信息增益高于平均水平的属性,再从中选择信息增益率最高的属性。

4.2 算法过程

输入:训练集   ID3、C4.5、CART 决策树介绍

属性集   ID3、C4.5、CART 决策树介绍

(1) 生成结点 node

(2) 如果数据集D 都属于同一个类C ,那么将 node 标记为C 类叶子结点,结束;

(3)   如果数据集D 中没有其他属性可以考虑,那么按照少数服从多数的原则,在 node 上标出数据集D 中样本数最多的类,结束;

(4)   否则,根据信息增益率,先从划分属性中找出信息增益高于平均水平的属性,再从中选择信息增益率最高的属性。作为结点 node 的一个分支。

(5) 结点属性选定后,对于该属性中的每个值:

  1. 每个值生成一个分支,并将数据集中与该分支有关的数据收集形成分支结点的样本子集Dv ,删除结点属性那一栏;

  2. 如果Dv 非空,则转 (1) ,运用以上算法从该结点建立子树。

5. CART 决策树

CART 树又名分类回归树,可用于分类和回归。

5.1 基尼指数

    分类时 数据集 的纯度可以用基尼值来度量:

ID3、C4.5、CART 决策树介绍

纯度越大,基尼值越小。

属性 的基尼指数定义如下:

ID3、C4.5、CART 决策树介绍

选择基尼指数最小的属性作为最优划分属性。

5.2 均方差

    回归时 数据集 的纯度可以用均方差来度量:

ID3、C4.5、CART 决策树介绍      

其中

ID3、C4.5、CART 决策树介绍   

选择均方差最小的属性作为最优划分属性。

5.3 算法过程

同上,第 (4) 步中计算 信息增益率 改为 基尼指数 均方差 即可。

6. 算法比较

ID3、C4.5、CART 决策树介绍

7. 决策树优缺点

优点:

  • 推理过程容易理解,计算简单,可解释性强。

  • 比较适合处理有缺失属性的样本。

  • 可自动忽略目标变量没有贡献的属性变量,也为判断属性变量的重要性,减少变量的数目提供参考。

缺点:

  • 容易造成过拟合,需要采用剪枝操作。

  • 忽略了数据之间的相关性。

  • 对于各类别样本数量不一致的数据,信息增益偏向于那些更多数值的特征。

8. 决策树适用情景

  • 决策树能够生成清晰的基于特征选择不同预测结果的树状结构,数据分析师希望更好的理解手上的数据的时候可以使用。

  • 决策树更大的作用是作为一些更有用的算法的基石。例如:随机森林、 AdaBoost GBDT

以上为决策树的介绍说明,后续讲解 C4.5 CART 树的连续值处理、缺失值处理、剪枝,敬请期待!


以上所述就是小编给大家介绍的《ID3、C4.5、CART 决策树介绍》,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对 码农网 的支持!

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

A Guide to Monte Carlo Simulations in Statistical Physics

A Guide to Monte Carlo Simulations in Statistical Physics

Landau, David P./ Binder, Kurt / Cambridge Univ Pr / 2005-9 / 786.00元

This new and updated edition deals with all aspects of Monte Carlo simulation of complex physical systems encountered in condensed-matter physics, statistical mechanics, and related fields. After brie......一起来看看 《A Guide to Monte Carlo Simulations in Statistical Physics》 这本书的介绍吧!

HTML 压缩/解压工具
HTML 压缩/解压工具

在线压缩/解压 HTML 代码

Base64 编码/解码
Base64 编码/解码

Base64 编码/解码

Markdown 在线编辑器
Markdown 在线编辑器

Markdown 在线编辑器