首页 > 其他 > 详细

针对PPO的一些Code-level性能优化技巧

时间:2020-11-24 19:03:07      阅读:56      评论:0      收藏:0      [点我收藏+]

Intro

这篇blog是我在看过Logan等人的“implementation matters in deep policy gradients: a case study on ppo and trpo“之后的总结。

value function clipping

reward scaling

orthogonal initialization and layer scaling

adam learning rate annealing

reward clipping

observation clipping

hyperbolic tan activations

global gradient clipping

针对PPO的一些Code-level性能优化技巧

原文:https://www.cnblogs.com/dynmi/p/14031724.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!