
DeepCompression:利用神经网络迭代修剪的技术[Han2015]。
5星
- 浏览量: 0
- 大小:None
- 文件类型:None
简介:
该方法的实施仅限于MNIST数据集。 感谢您对迭代修剪CD的运用。 具体而言,`mnist_iterative_pruning.py`脚本将在MNIST上训练卷积模型,随后在全连接层进行修剪和重新训练20次。 最终,全连接层将被转换为稀疏格式并进行保存。 我们的实验结果表明,我们获得了相当优秀的修剪性能,成功地将精度维持在0.987水平,同时在全连接层中修剪了高达99.77%的权重。 进一步的评估显示,在不同迭代次数下,重量保持与准确率之间存在着相对稳定的关系:0.7、0.991、0.49、0.993、0.24、0.994、0.117、0.993、0.057、0.994、0.013、0.993、0.009、0.992、0.0047, 以及一系列数值逐渐下降至 0.886, 进一步下降至 0.677 和 0.409。
全部评论 (0)
还没有任何评论哟~


