内容简介:分类问题之决策树
分类问题之决策树
优点
- 复杂度较低
- 效率高
- 非常适用于简单数据集的分类
- 抗噪,对噪声鲁棒
- 选取最优决策树是NP完全问题
划分选择
- 使结点纯度越来越高
-
信息熵
Ent(D) = -Σ (Pk)·log(Pk)
-
信息增益, Gain
Gain(D, a) = Ent(D) - Σ (Di/D)·Ent(Di)
Ent(Di) = -Σ (Pk)·log(Pk)
ID3 算法使用 Gain 进行划分, 选择信息增益最大的作为划分特征
缺点:倾向于选择取值更多的特征
例题
-
信息增益率, GainRatio
GainRatio(D, a) = Gain(D, a) / IV(a),
IV(a) = -Σ (Di/D)log(Di/D), 属性的熵, 属性的固有值, 如果某一特征取值过多,那么它的 IV 就会很大,会被惩罚
C4.5 算法使用 GainRatio 进行划分, 在信息增益 Gain 高于 Avg 的属性中,选择 GainRatio 最大的属性作为划分属性
例题(对应上一小节的数据集)
IV(编号) = -Σ (1/17)·log(1/17) = -log(1/17) = 4.088 IV(触感) = - [ (5/17)log(5/17) + (12/17)log(12/17) ] = 0.874
-
基尼指数, Gini
Gini(D) = 1 - Σp^2
二路划分时(二叉树), Gini(D) = 2p(1 - p)
多路划分时, Gini(D) = Σ (Di/D)·Gini(Di)
CART 算法使用 Gini 指数进行划分, 选择 Gini 指数最小的属性作为划分属性
注: 多路划分肯定比二路划分更纯,Gini也更小
例题
0.393 = (5/10)·(2·0.2·0.8) + (3/10)·(2·0.67·0.33) + (2/10)·(2·0.5·0.5)
-
分类误差率
Error(t) = 1 - max P(i|t)
何时停止
- 同一结点中所有的记录都属于同一类
- 同一结点所有属性值相近
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持 码农网
猜你喜欢:- 数据挖掘竞赛指南:曾经的数据挖掘少年,如今的阿里算法大佬
- 数据挖掘实操:用文本挖掘剖析近 5 万首《全唐诗》
- 数据挖掘复习笔记---02.数据
- Python之数据挖掘
- 趋势分析之数据挖掘
- python 数据挖掘算法简要
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。
计算机科学概论(第11版)
J. Glenn Brookshear / 刘艺、肖成海、马小会、毛倩倩 / 人民邮电出版社 / 2011-10-1 / 69.00元
本书多年来一直深受世界各国高校师生的欢迎,是美国哈佛大学、麻省理工学院、普林斯顿大学、加州大学伯克利分校等许多著名大学的首选教材,对我国的高校教学也产生了广泛影响。 本 书以历史眼光,从发展的角度、当前的水平以及现阶段的研究方向等几个方面,全景式描绘了计算机科学各个子学科的主要领域。在内容编排上,本书很好地兼顾了 学科广度和主题深度,把握了最新的技术趋势。本书用算法、数据抽象等核心思想贯穿各......一起来看看 《计算机科学概论(第11版)》 这本书的介绍吧!
RGB转16进制工具
RGB HEX 互转工具
HEX HSV 转换工具
HEX HSV 互换工具