mirror of
https://github.com/apachecn/ailearning.git
synced 2026-05-07 06:03:16 +08:00
更新 7 AdaBoost的 bagging和boosting 通俗案例
This commit is contained in:
@@ -11,6 +11,7 @@
|
||||
* 2. 每个数据集都是通过在原始数据集中随机选择一个样本来进行替换(替换:意味着可以多次选择同一个样本,也就有重复值)而得到的。
|
||||
* 3. 该算法作用的数据集就会得到S个分类器,与此同时,选择分类器投票结果中最多的类别作为最后的分类结果。
|
||||
* 4. 例如:随机森林(random forest)
|
||||
* 追美女:美女选择择偶对象的时候,会问几个闺蜜的建议,最后选择一个综合得分最高的一个作为男朋友
|
||||
* boosting
|
||||
* boosting是一种与bagging很类似的技术。不论是boosting还是bagging当中,所使用的多个分类器的类型都是一致的。
|
||||
* 区别是什么?
|
||||
@@ -19,6 +20,7 @@
|
||||
* 3. 由于boosting分类的结果是基于所有分类器的加权求和结果的,因此boosting与bagging不太一样。
|
||||
* 4. bagging中的分类器权重是相等的,而boosting中的分类器权重并不相等,每个权重代表的是其对应分类器在上一轮迭代中的成功度。
|
||||
* 目前boosting方法最流行的版本是: AdaBoost。
|
||||
* 追美女:第1个帅哥失败->(传授经验:姓名、家庭情况) 第2个帅哥失败->(传授经验:兴趣爱好、性格特点) 第3个帅哥成功
|
||||
* AdaBoost(adaptive boosting: 自适应boosting)
|
||||
* 能否使用弱分类器和多个实例来构建一个强分类器? 这是一个非常有趣的理论问题。
|
||||
* 优点:泛化错误率低,易编码,可以应用在大部分分类器上,无参数调节。
|
||||
|
||||
@@ -3,7 +3,7 @@
|
||||
|
||||
* 树回归是什么?
|
||||
* 分类回归树(Classification and Regression Tree,CART)是一种典型的决策树算法,CART算法不仅可以应用于分类问题,而且可以用于回归问题。
|
||||
* CART算法构建的回归树并介绍其中的树剪枝技术(该技术主要的目的是防止数的过拟合)
|
||||
* CART算法构建的回归树并介绍其中的树剪枝技术(该技术主要的目的是防止树的过拟合)
|
||||
* 树回归的构建
|
||||
* 优点:可以对复杂和非线性的数据建模。
|
||||
* 缺点:结果不易理解。
|
||||
|
||||
Reference in New Issue
Block a user