diff --git a/docs/7.集成方法-随机森林和AdaBoost.md b/docs/7.集成方法-随机森林和AdaBoost.md index 17d75418..7ca121a2 100644 --- a/docs/7.集成方法-随机森林和AdaBoost.md +++ b/docs/7.集成方法-随机森林和AdaBoost.md @@ -108,6 +108,9 @@ ![AdaBoost代码流程图](/images/7.AdaBoost/adaboost_code-flow-chart.jpg "AdaBoost代码流程图") +基于单层决策树构建弱分类器 +* 单层决策树(decision stump, 也称决策树桩)是一种简单的决策树。 + ``` 发现: alpha 目的主要是计算每一个分类器实例的权重(组合就是分类结果) @@ -118,10 +121,6 @@ D 的目的是为了计算错误概率: weightedError = D.T*errArr,求最佳 ![AdaBoost算法权重计算公式](/images/7.AdaBoost/adaboost_alpha.png "AdaBoost算法权重计算公式") -基于单层决策树构建弱分类器 -* 单层决策树(decision stump, 也称决策树桩)是一种简单的决策树。 - - ### 知识点补充 > 过拟合(overfitting, 也称为过学习)