
SWATS: 在PyTorch中的非官方实现,从Adam转为使用SGD优化
5星
- 浏览量: 0
- 大小:None
- 文件类型:None
简介:
SWATS是一种在PyTorch中未官方实现的优化算法,它指导模型从Adam优化器转换到SGD优化器,以提高训练效率和性能。
从Adam切换到SGD表明:“即使在自适应解决方案具有更好的训练性能的情况下,通过自适应方法发现的解决方案的泛化能力也较差(通常显著更差)。这些结果提示从业者应重新考虑使用自适应方法来训练神经网络。”SWATS是ICLR 2018年的一篇高分论文提出的方法,它建议自动从Adam切换到SGD以获得更好的泛化性能。该算法的核心思想非常简单:在学习的初始阶段采用Adam进行优化,在达到一定阶段后由SGD接管继续训练。
安装方法可以直接通过pip命令来完成软件包的安装:
```
pip install git+https://github.com/Mrpatekful/swats
pip install pytorch-swats
```
一旦安装完毕,SWATS可以像使用其他`torch.optim.Optimizer`一样进行操作。以下是简短地展示如何应用该算法的代码示例。
全部评论 (0)
还没有任何评论哟~


