
noreward-rl:[ICML 2017] 提供TensorFlow代码,用于基于好奇心的深度强化学习探索——源码。
5星
- 浏览量: 0
- 大小:None
- 文件类型:None
简介:
自我监督预测的驱动力在于对好奇心的探索,这在2017年ICML会议上首次呈现,由加州大学伯克利分校的研究团队提出。 我们在此基于ICLS,利用张量流构建了该模型的实现。 在环境中外部奖励非常稀疏的情况下,一种有效的方法是采用内在的、基于好奇心的动机(Intrinsic Curiosity Module, ICM)来训练智能体。 值得注意的是,即使环境本身没有提供任何可用的奖励信号,通过ICM依然可以实现代理的学习和探索行为,这种模式被称为“无奖励强化学习”。 如果您认为这项研究对您的学术研究有所启发,请参考以下引用: @inproceedings{pathakICMl17curiosity, Author = {Pathak, Deepak and Agrawal, Pulkit and Ef
全部评论 (0)
还没有任何评论哟~


