1. 程式人生 > >Deep RL Bootcamp Lecture 8 Derivative Free Methods

Deep RL Bootcamp Lecture 8 Derivative Free Methods

pac 分享圖片 previous ctu alt ram stuck parameter work

技術分享圖片

技術分享圖片

技術分享圖片

技術分享圖片

you wouldn‘t try to explore any problem structure in DFO

技術分享圖片

技術分享圖片

技術分享圖片

low dimension policy

技術分享圖片

30 degrees of freedom

120 paramaters to tune

技術分享圖片

技術分享圖片

技術分享圖片

keep the positive results in a smooth way.

技術分享圖片

技術分享圖片

How does evolutionary method work well in high dimensional setting?

If you normalize the data well, evolutionary method could work well in MOJOCO, with random search.

Could always only get stuck at local minima.

技術分享圖片

humanoid 200k parameters need to be tuned, and it‘s learnt by evolutionary method.

The four videos are actually four different local minima, and once you get stuck on it, it can never get out of it.

技術分享圖片

evolutionary method is roughly 10 times worse than action space policy gradient.

evolutionary method is hard to tune because previously people didn‘t get it to work with deep net

技術分享圖片

技術分享圖片

技術分享圖片

技術分享圖片

技術分享圖片

技術分享圖片

技術分享圖片

技術分享圖片

技術分享圖片

技術分享圖片

技術分享圖片

技術分享圖片

Deep RL Bootcamp Lecture 8 Derivative Free Methods