深度学习中常用的优化方法

一、basic algorithm

1. SGD

此处的SGD指mini-batch gradient descent,关于batch gradient descent, stochastic gradient descent, 以及 mini-batch gradient descent的具体区别就不细说了。现在的SGD一般都指mini-batch gradient descent。

2. Momentum(SGD + momentum)

3. Nesterov Momentum

 

二、adaptive learning rate

1. AdaGrad

2. RMSprop 

3. Adam

 

三、Approximate Second-Order Methods

1. Newton's Method

2. Conjugate Gradients

3. BFGS

 

详细介绍待补充

转载于:https://www.cnblogs.com/zihaowang/p/7856976.html


本文来自互联网用户投稿,文章观点仅代表作者本人,不代表本站立场,不承担相关法律责任。如若转载,请注明出处。 如若内容造成侵权/违法违规/事实不符,请点击【内容举报】进行投诉反馈!

相关文章

立即
投稿

微信公众账号

微信扫一扫加关注

返回
顶部