视频中先固定learning rate,迭代10w次:
- 首先,设置了一个比较小的learning rate,
lr=1e-6
,没有得到最优解,就停止了;
- 然后,放大lrarning rate,
lr=1e-5
,结果出现震荡的情况,无法得到最优解。
- 最后,采用AdaGrad方法调整learning rate,得到了最优解。
固定learning rate
1 2 3 4 5 6 7 8 9
|
lr = 0.000001 for i in range(iteration): b_grad = ... w_grad = ...
b = b - lr * b_grad w = w - lr * w_ grad
|
动态调整learning rate
视频中使用的方法是:AdaGrad
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
|
lr = 1 lr_b = 0 lr_w = 0 for i in range(iteration): b_grad = ... w_grad = ...
lr_b = lr_b + b_grad ** 2 lr_w = lr_w + w_grad ** 2
b = b - lr/np.sqrt(lr_b) * b_grad w = w - lr/np.sqrt(lr_w) * w_ grad
|
近期评论