
DQN-Atari: Atari Pong的深度Q学习(DQN)实现
5星
- 浏览量: 0
- 大小:None
- 文件类型:None
简介:
本项目是基于深度Q网络(DQN)对经典游戏Atari Pong进行智能决策和策略优化的一种实现方式,适用于研究和教学用途。
DQN-雅达利深度Q网络实现:根据论文《利用深度强化学习玩Atari游戏》中的方法进行实施,并展示了每集奖励的结果与游戏视频。
**DQN Nature Paper 架构实现**
输入:84×84×4图像(由最近的四帧组成的历史记录)
转换层1:32个大小为8x8的滤镜,步幅为4
转换层2:64个大小为4x4的滤镜,步幅为4
转换层3:64个大小为3x3的滤镜,步幅为1
完全连接层1:包含256个整流器单元的全连接网络
输出:每个有效动作对应一个单输出线性层
**DQN Neurips 架构实现**
输入:84×84×4图像(由最近的四帧组成的历史记录)
转换层1:16个大小为8x8的滤镜,步幅为4
转换层2:32个大小为4x4的滤镜,步幅为4
完全连接层1:包含256个整流器单元的全连接网络
输出:每个有效动作对应一个单输出线性层
**其他参数**
优化器:RMSProp
批量大小:32
ε贪婪策略(电子贪婪):0.1
创建新环境示例:
使用conda命令创建一个新的Python环境。
全部评论 (0)
还没有任何评论哟~


