mirror of
https://github.com/apachecn/ailearning.git
synced 2026-05-09 15:52:33 +08:00
更行支持向量机的md
This commit is contained in:
@@ -99,7 +99,7 @@ This is the simplest kind of SVM (Called an LSVM) Support Vectors are those data
|
||||
|
||||
> 松弛变量(slack variable)
|
||||
|
||||
* 我们知道几乎所有的数据都不那么干净, 通过引入松弛变量来允许数据点可以处于分隔面错误的一侧。
|
||||
* 我们知道几乎所有的数据都不那么干净, 通过引入松弛变量来`允许数据点可以处于分隔面错误的一侧`。
|
||||
* 约束条件: \\(C>=a>=0,\ and\ \sum_{i=1}^{m} a_i·label_i=0\\)
|
||||
* 这里常量C用于控制“最大化间隔”和“保证大部分点的函数间隔小于1.0” 这两个目标的权重。
|
||||
* 常量C是一个常数,我们通过调节该参数得到不同的结果。一旦求出了所有的alpha,那么分隔超平面就可以通过这些alpha来表示。
|
||||
@@ -126,7 +126,7 @@ SVM的一般流程
|
||||
* 创建时间:1996年
|
||||
* SMO用途:用于训练SVM
|
||||
* SMO目标:求出一系列alpha和b,一旦求出alpha,就很容易计算出权重向量w并得到分隔超平面。
|
||||
* SMO思想:是讲大优化问题分解为多个小优化问题来求解的。
|
||||
* SMO思想:是将大优化问题分解为多个小优化问题来求解的。
|
||||
* SMO原理:每次循环选择两个alpha进行优化处理,一旦找出一对合适的alpha,那么就增大一个同时减少一个。
|
||||
* 这里指的合适必须要符合一定的条件
|
||||
* 1.这两个alpha必须要在间隔边界之外
|
||||
|
||||
Reference in New Issue
Block a user