1. 程式人生 > >Deep RL Bootcamp Lecture 3: Deep Q-Networks

Deep RL Bootcamp Lecture 3: Deep Q-Networks

add 分享 val acc ati ons width work rnn

https://www.youtube.com/watch?v=fevMOp5TDQs

技術分享圖片

技術分享圖片

技術分享圖片

技術分享圖片

技術分享圖片

技術分享圖片

技術分享圖片

技術分享圖片

http://www.denizyuret.com/2015/03/alec-radfords-animations-for.html

技術分享圖片 技術分享圖片技術分享圖片技術分享圖片

技術分享圖片

artari is not a MDP, but MDP method works well. or use RNN

in many domains, people end up using RNN to represent q-function.

技術分享圖片

技術分享圖片

replay really makes a difference!!!

技術分享圖片

技術分享圖片

技術分享圖片

技術分享圖片

技術分享圖片

should the two network have different set of hyperparameter? just like a group of workers with different kinds of personality? will the collaboration help?

技術分享圖片

技術分享圖片

技術分享圖片

Deep RL Bootcamp Lecture 3: Deep Q-Networks