modify some mistakes.

This commit is contained in:
Shine wOng
2020-01-08 21:45:23 +08:00
parent 5fc4c31acb
commit 5d9145208d

View File

@@ -145,7 +145,7 @@ $$
从上面的讨论中可以看出,梯度下降法最终将收敛到某个局部最优点,而无法保证收敛到全局最优点。实际上,当选择不同的初始值时,使用梯度下降法往往会收敛到不同的极值点,如下图所示:
![gd_diff_path](gd_diff_path.jpg)
![gd_diff_path](images/gd_diff_path.jpg)
因此,使用梯度下降法无法保证得到的结果一定是全局最优解。然而,需要指出,对于线性回归与平方损失函数,则不存在这个问题,因为平方损失函数是**凸函数**。证明如下: