diff --git a/README.md b/README.md index 4aec5c83..cdf756b2 100644 --- a/README.md +++ b/README.md @@ -14,6 +14,7 @@ * 5) Logistic回归 * [Logistic回归](./docs/5.Logistic回归.md) * 6) 支持向量机 + * [支持向量机](./docs/6.支持向量机.md) * 7) 利用AdaBoost元算法提高分类 ## 第二部分 利用回归预测数值型数据 diff --git a/docs/6.支持向量机.md b/docs/6.支持向量机.md new file mode 100644 index 00000000..021fa531 --- /dev/null +++ b/docs/6.支持向量机.md @@ -0,0 +1,25 @@ + +# 6) 支持向量机 + +* 基本概念 + + * 假设有两组数据,我们可以用一条线将这两个数据集分隔开,这条直线称为分隔超平面 + (当维数很高时称为分隔超平面)。 + * 我们希望找到离分隔超平面最近的点,确保它们离分隔面的距离尽可能远。 + * 支持向量就是离分隔超平面最近的那些点。 + +* 支持向量机特点 + + * 优点:泛化错误率低,计算开销不大,结果易解释。 + * 缺点:对参数调节和核函数的选择敏感,原始分类器不加修改仅适用于处理二类问题。 + * 适用数据类型:数值型和标称型数据。 + +* SVM应用的一般流程 + 1. 准备收集数据:可以使用任何方法。 + 2. 准备数据:需要数值型数据。 + 3. 分析数据:有助于可视化分隔超平面。 + 4. 训练算法:SVM的大部分时间都花在训练上,该过程主要实现两个参数的调优。 + 5. 测试算法:测试分类结果是否达到预期的目的。 + 6. 使用算法:几乎所有分类问题都可以使用SVM,值得一提的是,SVM本身是一个二类分类器, + 对多类问题应用SVM需要对代码做一些修改。 +