mirror of
https://github.com/apachecn/ailearning.git
synced 2026-05-08 23:12:06 +08:00
@@ -8,30 +8,38 @@
|
||||
|
||||

|
||||
|
||||
* 引入
|
||||
|
||||
你是否玩过一个叫做 "二十个问题" 的游戏,游戏的规则很简单:参与游戏的一方在脑海中想某个事物,其他参与者向他提问,只允许提 20 个问题,问题的答案也只能用对或错回答。问问题的人通过推断分解,逐步缩小待猜测事物的范围。决策树的工作原理与 20 个问题类似,用户输入一系列数据,然后给出游戏的答案。
|
||||
|
||||
* 简要介绍
|
||||
根据一些 feature 进行分类,每个节点提一个问题,通过判断,将数据分为两类,再继续提问。这些数据是根据已有数据学习出来的,
|
||||
再投入新数据的时候,就可以根据这棵树上的问题,将数据划分到合适的叶子上。
|
||||
|
||||
> 决策树的任务
|
||||
根据一些 feature 进行分类,每个节点提一个问题,通过判断,将数据分为两类,再继续提问。这些数据是根据已有数据学习出来的,再投入新数据的时候,就可以根据这棵树上的问题,将数据划分到合适的叶子上。
|
||||
|
||||
```
|
||||
第二章的k-近邻算法可以完成很多分类任务,但是它最大的缺点就是无法给出数据的内在含义。
|
||||
决策树的主要优势就在于数据形式非常容易理解。
|
||||
接下来构造的决策树算法能够读取数据集合,构建类似于上图的决策树。决策树的一个重要任务是为了理解数据中所蕴含的知识信息,
|
||||
因此决策树可以使用不熟悉的数据集合,并从中提取出一系列规则,这些机器根据数据集创建规则的过程,就是机器学习的过程。
|
||||
* 决策树的任务
|
||||
|
||||
第二章的 k-近邻算法可以完成很多分类任务,但是它最大的缺点就是无法给出数据的内在含义。决策树的主要优势就在于数据形式非常容易理解。
|
||||
|
||||
接下来构造的决策树算法能够读取数据集合,构建类似于上图的决策树。决策树的一个重要任务是为了理解数据中所蕴含的知识信息,因此决策树可以使用不熟悉的数据集合,并从中提取出一系列规则,这些机器根据数据集创建规则的过程,就是机器学习的过程。
|
||||
|
||||
专家系统中经常使用决策树,而且决策树给出结果往往可以匹敌在当前领域具有几十年工作经验的人类专家。
|
||||
```
|
||||
|
||||
> 决策树的特点
|
||||
* 决策树的特点
|
||||
|
||||
```
|
||||
优点:计算复杂度不高,输出结果易于理解,对中间值的缺失不敏感,可以处理不相关特征数据。
|
||||
|
||||
缺点:可能会产生过度匹配问题。
|
||||
|
||||
适用数据类型:数值型和标称型。
|
||||
```
|
||||
|
||||
## 在数据集中度量一致性
|
||||
|
||||
划分数据集的最大原则是: 将无序的数据变得更加有序。我们可以使用多种方法划分数据集,但是每种方法都有各自的优缺点。组织杂乱无章数据的一种方法就是使用信息论度量信息,信息论是量化处理信息的分支科学。我们可以在划分数据之前或之后使用信息论量化度量信息的内容。
|
||||
|
||||
在划分数据集之前之后信息发生的变化称为信息增益,知道如何计算信息增益,我们就可以计算每个特征值划分数据集获得的信息增益,获得信息增益最高的特征就是最好的选择。
|
||||
|
||||
学习了如何度量数据集的无序程度之后,分类算法除了需要测量信息熵,还需要划分数据集,度量划分数据集的熵,以便判断当前是否正确地划分了数据集。我们将对每个特征划分数据集的结果计算一次信息熵,然后判断按照哪个特征划分数据集是最好的划分方式。
|
||||
|
||||
## 使用递归构造决策树
|
||||
|
||||
> 构造决策树时需要解决的第一个问题
|
||||
@@ -40,7 +48,7 @@
|
||||
在构造决策树时,我们需要解决的第一个问题就是,当前的数据集上哪个特征在划分数据分类时起决定性作用。
|
||||
为了找到决定性的特征,划分出最好的结果,我们必须评估每个特征。完成测试之后,原始数据集就被划分为几个数据子集。
|
||||
这些数据子集会分布在第一个决策点的所有分支上。如果某个分支下的数据属于同一类型,则当前无需阅读的垃圾邮件已经正确地划分数据分类,
|
||||
无需进一步对数据集进行分割。如果数据子集内的数据不属于同一类型,则需要重复划分数据子集的过程。划分数据子集的算法和划分原始数据及的方法相同,
|
||||
无需进一步对数据集进行分割。如果数据子集内的数据不属于同一类型,则需要重复划分数据子集的过程。划分数据子集的算法和划分原始数据集的方法相同,
|
||||
直到所有具有相同类型的数据均在一个数据子集内。
|
||||
```
|
||||
|
||||
@@ -54,7 +62,7 @@
|
||||
划分数据集
|
||||
创建分支节点
|
||||
for 每个划分的子集
|
||||
调用函数createBranch并增加返回结果到分支节点中
|
||||
调用函数 createBranch 并增加返回结果到分支节点中
|
||||
return 分支节点
|
||||
```
|
||||
|
||||
@@ -86,31 +94,32 @@
|
||||
|
||||

|
||||
|
||||
## 决策树小结
|
||||
|
||||
* 决策树是什么?
|
||||
* 顾名思义,是一种树,一种依托于策略抉择而建立起来的树。
|
||||
* 从数据产生决策树的机器学习技术叫做决策树学习, 通俗点说就是决策树。
|
||||
* 决策数目前的情况:
|
||||
* 决策树目前的情况:
|
||||
* 1.最经常使用的数据挖掘算法。(流行的原因:不需要了解机器学习的知识,就能搞明白决策树是如何工作的)
|
||||
* 2.数据形式[决策过程只有:是/否]和数据内在含义非常容易理解。
|
||||
* 2.数据形式【决策过程只有:是/否】和数据内在含义非常容易理解。
|
||||
* 3.决策树给出的结果往往可以匹敌在当前领域具有几十年工作经验的人类专家。
|
||||
* 决策树的构造:
|
||||
* 优点:计算复杂度不高,输出结果易于理解,对中间值的缺失不敏感,可以处理不相关特征数据。
|
||||
* 缺点:可能会产生过度匹配问题。
|
||||
* 适用数据类型:数值型和标称型[标称型:其实就是离散型数据,变量的结果只在`有限`目标集中取值(例如:分类特征 A/B/C类其中一种)]。
|
||||
* 适用数据类型:数值型和标称型【标称型:其实就是离散型数据,变量的结果只在`有限`目标集中取值(例如:分类特征 A/B/C 类其中一种)】。
|
||||
* 如何找出第一个分支点呢?
|
||||
* 信息增益:
|
||||
* 划分数据集的最大原则是:将无序的数据变得更加有序。
|
||||
* 集合信息的度量称为`香农熵`或者简称`熵`(名字来源于信息论之父`克劳德·香农`)
|
||||
* 公式:
|
||||
* \\(p(x_i)\\) 表示该label分类的概率
|
||||
* \\(p(x_i)\\) 表示该 label 分类的概率
|
||||
* \\(l(x_i) = - \log_2p(x_i)\\) 表示符号\\(x_i\\)的信息定义
|
||||
* \\(H = -\sum_{i=0}^np(x_i)\log_2p(x_i)\\) 表示香农熵,用于计算信息熵
|
||||
* 基尼不纯度(Gini impurity) [本书不做过多的介绍]
|
||||
* 简单来说:就是从一个数据集中随机选取子项,度量其被错误分类到其他分组里的概率。
|
||||
* 流程介绍图
|
||||
* 
|
||||
|
||||
## 决策树小结
|
||||

|
||||
|
||||
```
|
||||
决策树分类器就像带有终止块的流程图,终止块表示分类结果。
|
||||
|
||||
Reference in New Issue
Block a user