
Adam算法采用随机梯度下降优化方法,其Matlab实现。
5星
- 浏览量: 0
- 大小:None
- 文件类型:None
简介:
fmin_adam 是一种基于 Kingma 和 Ba [1] 提出的 Adam 优化算法的实现,该算法包含自适应学习率的梯度下降方法,每个参数独立地采用 Momentum 进行调整。Adam 的设计目标是解决随机梯度下降问题,尤其是在仅利用小批量数据来估算每次迭代的梯度,或者应用随机 dropout 正则化时 [2]。为了更好地理解其应用,您可以查阅 GIT 存储库: https://github.com/DylanMuir/fmin_adam。该函数提供了 [x, fval, exitflag, output] 这四个输出变量,具体用法如下:`[x, fval, exitflag, output] = fmin_adam(fun, x0 <, stepSize, beta1, beta2, epsilon, nEpochSize, options>)。如果您需要更全面的信息和详细的使用指南,请参阅功能帮助文档。值得注意的是,github 存储库中包含了多个示例代码供您参考。
参考:[1] Diederik P. Kingma,Jimmy Ba。 “亚当:随机优化方法”
全部评论 (0)
还没有任何评论哟~


