From 76e86579fb5e286a67a9b9e91f5a4319ae7384aa Mon Sep 17 00:00:00 2001 From: Shine wOng <1551885@tongji.edu.cn> Date: Thu, 9 Jan 2020 09:34:12 +0800 Subject: [PATCH] modify images. --- ml/linear regression/linear regression.md | 4 ++-- 1 file changed, 2 insertions(+), 2 deletions(-) diff --git a/ml/linear regression/linear regression.md b/ml/linear regression/linear regression.md index c32d1c5..73a6e9a 100644 --- a/ml/linear regression/linear regression.md +++ b/ml/linear regression/linear regression.md @@ -135,7 +135,7 @@ $$ 学习率的选择在梯度下降法中至关重要。如果学习率太小,则需要更多次迭代才能找到最优解,需要较长的学习时间;而如果学习率太大,也有可能导致收敛速度慢,甚至可能会发散。这是因为学习率太大时,不再满足全微分方程中微小变化量的条件,因此每次迭代后被优化函数都未必可以取到比上一次迭代更小的值。学习率的选择对$J(\theta)$收敛速度的影响如下图所示: -