mirror of
https://github.com/apachecn/ailearning.git
synced 2026-05-09 15:52:33 +08:00
@@ -15,6 +15,7 @@
|
||||
* 5) Logistic回归
|
||||
* [Logistic回归](./docs/5.Logistic回归.md)
|
||||
* 6) 支持向量机
|
||||
* [支持向量机](./docs/6.支持向量机.md)
|
||||
* 7) 利用AdaBoost元算法提高分类
|
||||
|
||||
## 第二部分 利用回归预测数值型数据
|
||||
|
||||
25
docs/6.支持向量机.md
Normal file
25
docs/6.支持向量机.md
Normal file
@@ -0,0 +1,25 @@
|
||||
|
||||
# 6) 支持向量机
|
||||
|
||||
* 基本概念
|
||||
|
||||
* 假设有两组数据,我们可以用一条线将这两个数据集分隔开,这条直线称为分隔超平面
|
||||
(当维数很高时称为分隔超平面)。
|
||||
* 我们希望找到离分隔超平面最近的点,确保它们离分隔面的距离尽可能远。
|
||||
* 支持向量就是离分隔超平面最近的那些点。
|
||||
|
||||
* 支持向量机特点
|
||||
|
||||
* 优点:泛化错误率低,计算开销不大,结果易解释。
|
||||
* 缺点:对参数调节和核函数的选择敏感,原始分类器不加修改仅适用于处理二类问题。
|
||||
* 适用数据类型:数值型和标称型数据。
|
||||
|
||||
* SVM应用的一般流程
|
||||
1. 准备收集数据:可以使用任何方法。
|
||||
2. 准备数据:需要数值型数据。
|
||||
3. 分析数据:有助于可视化分隔超平面。
|
||||
4. 训练算法:SVM的大部分时间都花在训练上,该过程主要实现两个参数的调优。
|
||||
5. 测试算法:测试分类结果是否达到预期的目的。
|
||||
6. 使用算法:几乎所有分类问题都可以使用SVM,值得一提的是,SVM本身是一个二类分类器,
|
||||
对多类问题应用SVM需要对代码做一些修改。
|
||||
|
||||
Reference in New Issue
Block a user