Files
openmlsys-zh/appendix_machine_learning_introduction/classic_machine_learning.md
2022-05-09 16:56:21 +08:00

5.5 KiB
Raw Permalink Blame History

经典机器学习方法

大量经典机器学习算法,如 支持向量机(Support Vector MachineSVM), K最近邻(K-Nearest Neighbor, KNN)分类算法 和K均值聚类算法(K-Means Clustering Algorithm)等, 虽然它们有的有网络参数,有的没有网络参数,有的是监督学习算法,有的是无监督学习算法, 训练过程也不一样,但是从系统的角度,它们都是以矩阵运算为基础的。下面,我们来简要介绍一下这些算法。

支持向量机

支持向量机(Support Vector MachineSVM),是一种经典的机器学习分类算法,其核心思想在于最大化决策边界到数据点的距离。在这里,我们以线性可分数据为例;对于非线性可分的数据,运用核方法(Kernel Method)即可类似处理。

如果训练数据是线性可分的SVM的目标则是最大化间隔(Margin)。首先,我们先来定义最大化间隔的分类器,如下:

\min_{{w},b} ~~~\frac{1}{2} ||{w}||^2 s.t. ~~~y_i ({w}^T {x_i} + b) \geq 1, ~~~\forall 1 \leq i \leq n

其拉格朗日乘子为

L({w},b,{\lambda}) = \frac{1}{2} ||{w}||^2 + \sum_{i=1}^n \lambda_i (1-y_i({w}^T {x_i} + b))

由于$\frac{1}{2} ||{w}||^2$是凸的,并且$\lambda_i (1-y_i({w}^T {x_i} + b))$是线性的(也是凸的),所以优化问题的解为

\max_{\lambda>0} \min_{{w},b} L({w},b, {\lambda})

求$L$关于${w},b$的导数有

\nabla_{{w}} L= {w} - \sum_{i=1}^n \lambda_i y_i {x_i} \nabla_b L = - \sum_{i=1}^n \lambda_i y_i

令$L$关于${w},b$的导数均为0得到${w}^* = \sum_{i=1}^n \lambda_i y_i {x_i}$以及$\sum_{i=1}^n \lambda_i y_i = 0$。 由于当$\lambda$固定的时候,$b$的值对目标函数无贡献,所以可以令$b^* = 0$。 这时由对偶性理论和KTT条件我们得到

y_i ({w}^{*T} {x_i} + b^*) > 1 \Rightarrow \lambda_i^* = 0 \lambda_i^* > 0 \Rightarrow y_i ({w}^{*T} {x_i} + b^*) = 1 {w}^* = \sum_{i=1}^n \lambda_i^* y_i {x_i}

如果$y_i ({w}^{T} {x_i} + b^) = 1$,那么${x_i}$就是离超平面$({w}^,b^)$最近的点之一,否则就不是。因此,${w}^$就是离超平面$({w}^,b^*)$最近的点${x_i}$的线性组合。

如此通过SVM算法我们实现了数据的分类并且能够最大化了决策边界到最近点的距离。 我们定义满足$y_i ({w}^{T} {x_i} + b^) = 1$的${x_i}$为支持向量(Support Vectors),同时把分类器$\hat{y}=sgn({w}^{T} {x_i} + b^)$称为支持向量机。

K最近邻算法

K最近邻算法(K-Nearest NeighborKNN)也是一种传统的机器学习算法可用于分类、回归等基本的机器学习任务。和上面介绍的SVM算法不同K最近邻算法的核心思想并不是用一个决策边界把属于不同类的数据分开而是依靠每个数据点周围几个距离最近的数据的性质来预测数据点本身的性质。

KNN用于分类时为了预测某个样本点的类别会进行一次投票。投票的对象为离这个观测样本点最近的K个样本点每个要投票的样本点可能会被赋予不同的权重而投票的"内容"则是样本点的类别。处理投票结果的时候,采用的是少数服从多数的决策方法(Majority Vote)。也就是说若一个样本点最近的K个样本点中大多数属于某个类别那么该样本点也属于这个类别。

KNN算法的具体描述如下1计算待分类点到各已知类别点的距离2将这些点按照距离排序并按照距离挑选出最近的K个点3按照每个点的权重进行"统票"票面内容为点所处的类别4返回得票最高的类别并作为待分类点的预测类别。

KNN算法有几个需要注意的关键问题包括超参数K的选择距离的度量方式还有分类决策规则。对于超参数K不宜过大否则会导致很大的近似误差反之亦不宜过小否则会导致很大的估计误差。距离的度量则可以选择曼哈顿距离、欧式距离和闵可夫斯基距离等等。为了降低K值对于预测结果产生的误差和影响我们通常可以对分类决策规则做一定的规定比如在投票决策时让距离小的点有更大的权重距离较大的点权重较小。在编程实现KNN算法的时候权重等参数都会以矩阵的形式进行运算以提高运算效率。

K均值聚类算法

K均值聚类算法(K-Means Clustering Algorithm)是机器学习中一种常见的无监督聚类算法。在这里,我们首先定义聚类问题:给定数据点${x_1},\cdots, {x_n} \in \mathbb{R}^d$和$K\in \mathbb{N}$,需要划分为$K$个簇${C_1}, \cdots, {C_K} \in \mathbb{R}^d$以及每个数据点所对应的分类中心点${ C_{(1)}}, \cdots, {C_{(n)}}$,以最小化距离和$\sum_i ||{x_i} - {C_{(i)}}||^2$。

K均值聚类算法是一种解决聚类问题的算法算法过程如下

  • 随机选择{C_1}, \cdots, {C_K}

  • 把${x_i}$所对应的分类置为距离其最近的聚类中心点的分类

  • 计算并赋值{C_K} = \frac{\sum_{{C_{(i)}}={C_K}} {x_i}}{\sum_{{C_{(i)}}={C_K}} 1}

  • 重复以上步骤直到算法收敛

可以证明K均值聚类算法会使得距离和$\sum_i ||{x_i} - {C_{(i)}}||^2$不断地单调减小,并且最终能够收敛。不过,算法可能收敛到局部最小值。

本章结束语:

在系统角度,机器学习的算法无论是什么算法,涉及到高维数据任务的现都是矩阵运算实现的。

参考文献

:bibliography:../references/appendix.bib