From 5d9145208d42b9554d6e6872d3ee510aa3e60210 Mon Sep 17 00:00:00 2001 From: Shine wOng <1551885@tongji.edu.cn> Date: Wed, 8 Jan 2020 21:45:23 +0800 Subject: [PATCH] modify some mistakes. --- ml/linear regression/linear regression.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/ml/linear regression/linear regression.md b/ml/linear regression/linear regression.md index 78b34be..99d8862 100644 --- a/ml/linear regression/linear regression.md +++ b/ml/linear regression/linear regression.md @@ -145,7 +145,7 @@ $$ 从上面的讨论中可以看出,梯度下降法最终将收敛到某个局部最优点,而无法保证收敛到全局最优点。实际上,当选择不同的初始值时,使用梯度下降法往往会收敛到不同的极值点,如下图所示: -![gd_diff_path](gd_diff_path.jpg) +![gd_diff_path](images/gd_diff_path.jpg) 因此,使用梯度下降法无法保证得到的结果一定是全局最优解。然而,需要指出,对于线性回归与平方损失函数,则不存在这个问题,因为平方损失函数是**凸函数**。证明如下: