最新論文閱讀(21)--Real-Time Single Image and Video Super-Resolution Using an Efficient Sub-Pixel Convoluti
Real-Time Single Image and Video Super-Resolution Using an Efficient Sub-Pixel Convolutional Neural Network
- 2016年9月
- 超解析度
- Twitter
sub-pixel convolution layer,它可以學習一組而不是一個上取樣濾波器,從低解析度的特徵圖得到高解析度影象。
框架
提出了一種新型的CNN框架,用於實現在低解析度的影象上提取特徵並進行超分辨處理。而之前的超分辨方法需將低解析度影象上取樣至高解析度影象的尺寸,再使用濾波器進行雙線性插值,這種方式容易陷入區域性最優且計算量較大。
本篇文章提出了一種叫做 sub-pixel convolution layer,它可以學習一組而不是一個上取樣濾波器,從低解析度的特徵圖得到高解析度影象。
實驗
這種方法既取得比之前方法更好的效果,處理速度也比之前基於CNN的超解析度方法更快。
相關推薦
最新論文閱讀(21)--Real-Time Single Image and Video Super-Resolution Using an Efficient Sub-Pixel Convoluti
Real-Time Single Image and Video Super-Resolution Using an Efficient Sub-Pixel Convolutional Neural Network - 2016年9月 - 超解析度 -
【論文閱讀】Real-Time Single Image and Video Super-Resolution Using an Efficient Sub-Pixel......
開發十年,就只剩下這套架構體系了! >>>
最新論文閱讀(29)
RAN: Radical analysis networks for zero-shot learning of Chinese characters - 2017年11月 - - 中科大 用於漢字識別(其特點就是漢字太多但基礎結構大約只有500
最新論文閱讀(35)--Single Image Super-Resolution via Cascaded Multi-Scale Cross Network
Single Image Super-Resolution via Cascaded Multi-Scale Cross Network - 2018年2月 - 單幅影象的超解析度;級聯+殘差網路 - IEEE成員(中國人) 提出了一個級聯多尺度交叉網
最新論文閱讀(12)--Feedforward semantic segmentation with zoom-out features
Feedforward semantic segmentation with zoom-out features - CVPR2015 - TTI-zoomout-16;語義分割 - 這篇文章的方法是superpixel-level的,主
論文閱讀-《BlitzNet: A Real-Time Deep Network for Scene Understanding》
ICCV 2017 1.Motivation: 為了做到實時的目標檢測和語義分割 2.Framework 採用的是Resnet50+SSD, ssd這種one-stage的檢測器天生適合和分割一塊做。上取樣過程用到的block如下圖所示,除了
知識蒸餾(Distillation)相關論文閱讀(1)——Distilling the Knowledge in a Neural Network(以及程式碼復現)
———————————————————————————————《Distilling the Knowledge in a Neural Network》Geoffrey Hintion以往為了提高模型表現所採取的方法是對同一個資料集訓練出多個模型,再對預測結果進行平均;但通
行人檢測論文閱讀(2)
一、基於深度學習的行人檢測-王斌-北京交通大學-2015 行人檢測的應用背景:視訊監控、車輛輔助駕駛、智慧機器人等領域。 1、論文特點 (1)通常深度學習網路的層次較深,需要學習引數非常多,只有在訓練樣本充足時才能有效地避免網路訓練過擬合。對此本文采用基於內容的影象檢索方法
【leetcode】123.(Hard)Best Time to Buy and Sell Stock III
解題思路: DP,只是儲存的空間是O(1) 這個討論區的答案 首先buy1點是第一次買入點,對於當前點數,只有一個點數的時候只能買入,有兩個及以上的點數時可以選擇買入當前點數或者不買入當前點數即還是使用之前的點數。 sell1是第一次售出點,對於 當前點數可以選擇售出,或者不售出 buy
推薦系統論文筆記(1):Hybrid Recommender Systems:Survey and Experiments
一、基本資訊 論文題目: 《Hybrid Recommender Systems:Survey and Experiments》 論文發表時間: 2002, 論文作者及單位:Robin Burke(California State University) 我的評分:5顆星
【leetcode】122.(Easy)Best Time to Buy and Sell Stock II
解題思路: 迭代更新 時間複雜度:O(n) 提交程式碼:滑動視窗 class Solution { public int maxProfit(int[] prices) { if(prices.length==0) return 0;
【leetcode】121.(Easy)Best Time to Buy and Sell Stock
解題思路: 方法一:滑動視窗 時間複雜度:O(n) 方法二:迭代更新 每當有更低價時更新買價, 每當有更高價時更新賣價, 期間更新每一次的買價和賣價的差價 另一方面,為了避免用“今天的低價”購買“昨天的高價”,在有更低價時同時更新買價和賣價(繼而當
專案實訓(二十四)Perceptual Losses for Real-Time Style Transfer and Super-Resolution閱讀
三、損失函式 雖然文章說的是perceptual losss,但是感覺上跟上一篇文章的約束並沒有什麼區別,我們可以來看看。 Feature Reconstruction Loss j表示網路的第j層。 CjHjWj表示第j層的feature_map的size St
【轉】論文閱讀(Chenyi Chen——【ACCV2016】R-CNN for Small Object Detection)
數據 大小 table 使用 con 改進 包括 end 修改 Chenyi Chen——【ACCV2016】R-CNN for Small Object Detection 目錄 作者和相關鏈接 方法概括 創新點和貢獻 方法細節 實驗結果 總結與收獲點 參考文獻
論文閱讀筆記《The Contextual Loss for Image Transformationwith Non-Aligned Data》(ECCV2018 oral)
github 區域 偏移 org nbsp 修改 transfer style 但是 目錄: 相關鏈接 方法亮點 相關工作 方法細節 實驗結果 總結與收獲 相關鏈接 論文:https://arxiv.org/abs/1803.02077 代碼:https://
基於pytorch的ESRGAN(論文閱讀筆記+復現)
程式碼的框架——《https://github.com/xinntao/BasicSR》 ESRGAN論文《ESRGAN: Enhanced Super-Resolution Generative Adversarial Networks》的連結——https://arxiv.org/pdf
CVPR2016之A Key Volume Mining Deep Framework for Action Recognition論文閱讀(視訊關鍵幀選取)
該論文的主要思想是從視訊中選取關鍵的幀卷(frame volume)用來行為識別。 該文章的意圖是通過對視訊中關鍵幀進行選取,減少與視訊表達內容不相關的視訊幀,實現視訊中行為識別準確率的提升。 該文章主要從兩個方面進行闡述:1、如何選取關鍵幀。2、如何檢
論文閱讀筆記:Perceptual Losses for Real-Time Style Transfer and Super-Resolution
這篇文章是ECCV2016的一篇文章,主要是提出了一種全新的Loss用於影象風格轉換和影象超分辨。整體框架如上圖所示,分為兩個網路,影象轉換網路和損失網路,其中影象轉換網路是深度殘差網路,將圖片轉換為^ y = fW (x) 。我們訓練影象轉換網路來最小化損失網路的輸出值加權
[譯] Perceptual Losses for Real-Time Style Transfer and Super-Resolution(Stanford University)
轉載地址:http://www.jianshu.com/p/b728752a70e9 Abstract 摘要:我們考慮的影象轉換的問題,即將一個輸入影象變換成一個輸出影象。最近熱門的影象轉換的方法通常是訓練前饋卷積神經網路,將輸出影象與原本影象的逐畫素差距作為損失
KBEngine warring項目源碼閱讀(一) 項目簡介和註冊登錄
urn 創建 ges input alt 接下來 F12 .com name 首先介紹下warring項目,是kbe自帶的一個演示示例,大部分人了解kbe引擎也是從warring項目開始的。 項目地址:https://github.com/kbengine/kbengine