Unsupervised Person Image Synthesis in Arbitrary Poses
#Image Synthesis
CVPR 2018 Spotlight 論文,ReID + GAN 換 pose。
本文用了較多的篇幅講 loss function,pose 的提取用的是 OpenPose 這個庫。
其 loss 分為三部分:
1. Image Adversarial Loss:即傳統 GAN 的 loss;
2. Pose Loss:pose 差異,生成後的圖片再用 OpenPose 提取 pose 資訊做差值;
3. Identity Loss:此為關鍵,又分為兩部分,分別是 content 和 style loss,其中 content 用於保證生成圖和原圖在某 pretrain model 生成的 feature map 一致, style 則是利用 Gram matrix 生成某種 feature map,然後作比對。
論文連結
https://www.paperweekly.site/papers/1864
筆記連結
https://zhuanlan.zhihu.com/p/35626886
Person Transfer GAN to Bridge Domain Gap for Person Re-Identification
#Person ReID
CVPR 2018 RE-ID Spotlight 一篇,這篇文章主要 contribution 有以下兩點:
1. 提出了一個新的更大的資料集,更為細緻:考慮到了視角,光照等更為細緻的因素,具體引數可以直接看文章;
2. 多個數據集間的差異,即 domain-gap,通過 GAN 來生成和模仿,類似文章:Camera Style Adaptation for Person Re-identification,個人認為創意是有的,可以作為 data augmentation 的一個方法,但實現難度上並沒有很大。
論文連結
https://www.paperweekly.site/papers/1557
程式碼連結
https://github.com/JoinWei-PKU/PTGAN
資料集連結
http://www.pkuvmc.com/publications/msmt17.html
筆記連結
https://zhuanlan.zhihu.com/p/35626478