diff --git a/ml/linear regression/linear regression.md b/ml/linear regression/linear regression.md index 78b34be..99d8862 100644 --- a/ml/linear regression/linear regression.md +++ b/ml/linear regression/linear regression.md @@ -145,7 +145,7 @@ $$ 从上面的讨论中可以看出,梯度下降法最终将收敛到某个局部最优点,而无法保证收敛到全局最优点。实际上,当选择不同的初始值时,使用梯度下降法往往会收敛到不同的极值点,如下图所示: -![gd_diff_path](gd_diff_path.jpg) +![gd_diff_path](images/gd_diff_path.jpg) 因此,使用梯度下降法无法保证得到的结果一定是全局最优解。然而,需要指出,对于线性回归与平方损失函数,则不存在这个问题,因为平方损失函数是**凸函数**。证明如下: