From 861670aa903e02226f0cc9d5bd760d71355cdcdd Mon Sep 17 00:00:00 2001 From: Shine wOng <1551885@tongji.edu.cn> Date: Thu, 9 Jan 2020 09:29:57 +0800 Subject: [PATCH] modify hyperlinks of images --- ml/linear regression/linear regression.md | 4 ++-- 1 file changed, 2 insertions(+), 2 deletions(-) diff --git a/ml/linear regression/linear regression.md b/ml/linear regression/linear regression.md index 2a8a7c2..c472354 100644 --- a/ml/linear regression/linear regression.md +++ b/ml/linear regression/linear regression.md @@ -135,7 +135,7 @@ $$ 学习率的选择在梯度下降法中至关重要。如果学习率太小,则需要更多次迭代才能找到最优解,需要较长的学习时间;而如果学习率太大,也有可能导致收敛速度慢,甚至可能会发散。这是因为学习率太大时,不再满足全微分方程中微小变化量的条件,因此每次迭代后被优化函数都未必可以取到比上一次迭代更小的值。学习率的选择对$J(\theta)$收敛速度的影响如下图所示: - +