1. 程式人生 > >最推薦的五篇深度學習論文

最推薦的五篇深度學習論文

640?wx_fmt=png&wxfrom=5&wx_lazy=1

作者開始有兩套不同領域的影象,如馬和斑馬,並學習兩種轉換網:一種將馬轉換為斑馬,另一種則相反。每一種轉換都進行一種樣式轉換,但不是針對單個影象的風格,而是在網路中發現的一組影象的聚合風格。

轉換網被訓練成一對生成對抗網路(Generative Adversarial Network,簡稱 GAN,是非監督式學習的一種方法,通過讓兩個神經網路相互博弈的方式進行學習),每個網路都試圖欺騙鑑別者,使其相信「轉換後」的影象是真實的。引入了額外的「迴圈一致性損失」鼓勵影象在經過兩個轉換網路(即向前和向後)之後保持不變。

論文的視覺效果是驚人的,強烈建議去 GitHub看看一些其他的例子。我特別感興趣這篇是因為,與許多以前的方法

不同的是,它學會在不成對影象集之間進行轉換,開啟可能不存在匹配影象對的應用程式的大門。此外,程式碼非常易於使用和實驗,證明了方法的穩健性和實現的質量。

2. 最優雅:WASSERSTEIN DISTANCE,更好的神經網路訓練


目標:使用更好的目標函式來更穩定地訓練 GAN

這篇論文提出了使用稍微不同的目標函式訓練生成抗性網路,新提出的目標函式比標準 GAN訓練要穩定得多,因為它避免了在訓練過程中消失梯度:

0?wx_fmt=jpeg

使用次修改的目的,作者還避免了一個稱為模式崩潰的問題,其中標準 GAN 僅從可能輸出的一個子集中產生樣本。例如,如果一個 GAN 正在訓練產生手寫的數字46,則 GAN 可能只生產4,並不能在訓練中規避這個區域性最小值。而通過消除在訓練目標梯度,即所謂的 Wasserstein GAN 來避免此問題。

這篇論文非常獨立:作者

(1)激發一個簡單的想法

(2)在數學上顯示為什麼應該改進當前的技術水平

(3)有一個令人印象深刻的結果展示其有效性。

此外,作者提出的修改在幾乎所有流行的深度學習框架中都很容易實現,使得采用所提出的改變是切實可行的。

3.最有用:使用 GANS 進行無監督的模擬訓練細化資料

目標:使用真實世界的影象,使模擬訓練資料現實應用中更有用

採集真實世界的資料是比較困難和耗時的。因此,許多研究人員經常使用模擬工具,它們能夠產生標記的訓練資料的幾乎無限量的。然而,大多數模擬資料對於訓練在真實資料上操作的深度學習系統是不夠逼真的。

為了克服這種侷限性,論文使用生成對抗網路(GAN)來使用未標記的真實世界影象來改進標記的模擬影象。 他們訓練一個「細化網路」來欺騙辨別分類器,該分類器被訓練成可以區分精緻的模擬影象和真實影象。 由於細化網路和分類器是一體化訓練的,精緻的模擬影象開始顯得非常逼真:

0?wx_fmt=jpeg

當這篇論文釋出出來時,我立即產生了興趣,因為它提出了第一個實用的方法來彌合模擬資料與真實資料之間的差距。這裡關鍵的是該演算法是無監督的,這意味著使用者不需要手寫工標註真實資料。對於深度學習應用來說,資料為王,然而像我這樣的大多數學術實驗室都沒有資源來生成快速處理新的研究領域所需的大量資料:如果公共資料集不存在你們試圖解決的這個問題的資料,那麼你就停滯在收集和標註相關資料上了。

本文的外延資訊是,只要你有一個你正在試圖解決的問題的模擬器,你就應該能夠生成你所需要的訓練資料。

4.最令人印象深刻:從零開始的谷歌的圍棋 AI

目標:在沒有任何人類參與的情況下學習圍棋

如果沒有谷歌的 DeepMind 在過去這些年的另人印象深刻的成就,特別是他的 AlphaGo,2017 年的最佳名單將是不完整的。

最近的 AlphaGo Zero 論文避免了整合人類的知識或遊戲玩法:它只通過「自我玩耍」進行訓練,這是通過改進的強化學習訓練程式來實現的,其中的策略會隨著遊戲的前向模擬而更新,用於指導搜尋的神經網路在遊戲過程中得到改善,使訓練速度更快。僅僅在大約 40 個小時的遊戲時間之後 AlphaGo Zero 甚至超過了 AlphaGo Lee ( 2016 年擊敗了李世乭)的表現。

0?wx_fmt=jpeg

儘管我對這篇論文的興趣主要集中在工程學層面,但 AlphaGo 採用的混合經典和深度學習方法也讓我倍受鼓舞,在這種方法中,蒙特卡洛樹搜尋的增加使得系統性能優於單片神經網路。 作為研究機器人的人,我被這種組合方法所鼓舞:使用經典演算法作為決策的主幹,並使用機器學習來提高效能或克服計算限制。這篇論文和 2016 AlphaGo 論文也都很棒, 都寫得很好,充滿了有趣的技術細節和見解。 如果沒有其他原因,這些檔案值得詳細閱讀。

5.最發人深省:深度影象

目標:瞭解之前我們的神經網路模型賦予我們的實驗。

本文的作者不是用一大堆資料訓練一個深度神經網路,而是如今相當標準的,本文的作者想探討如何使用神經網路本身幫助我們解決一些流行的影象處理任務。他們從一個未經訓練的神經網路開始,用作者的話來說「不是在影象空間中搜索答案,而是在神經網路的引數空間中搜索」,並且避免將大型資料集中的神經網路。

0?wx_fmt=jpeg

我立刻被這個結果迷住了:我們的神經網路的結構對我們的資料有什麼意義?我們怎樣才能更好地理解這一點?我們如何利用這種方法來建立更好的網路模型? 

--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------

相關推薦

推薦深度學習論文

作者開始有兩套不同領域的影象,如馬和斑馬,並學習兩種轉換網:一種將馬轉換為斑馬,另一種則相反。每一種轉換都進行一種樣式轉換,但不是針對單個影象的風格,而是在網路中發現的一組影象的聚合風格。轉換網被訓練成一對生成對抗網路(Generative Adversarial Netwo

你應該知道的9深度學習論文(CNNs 理解)

        說得好,小李子。說得好!         想象一個很深的CNN架構,把它的層數翻兩番,它的深度可能還比不上ResNet,它是微軟亞研MRA在2015年提出的架構。ResNet是一個擁有152層網路架構的新秀,它集分類、檢測與翻譯功能於一身。除開層數破了紀錄,ResNet自身的表現也破了IL

30計算機視覺和深度學習論文推薦,被國外專家引用多【可下載】

在2012年,我整理了一份有關計算機視覺的熱門論文清單。我把論文的研究重點放在視覺科學上,避免其與圖形處理、調研和純靜態處理等方向產生重疊。但在2012年後隨著深度學習技術的興起,計算機視覺科學發生了巨大的變化–從深度學習中產生了大量的視覺科學基線。雖然不知道該趨勢還會持續

[轉]深度學習論文推薦

filter nba vsc cart tutorials under nsh san inb Startups 機器學習、深度學習、計算機視覺、大數據創業公司 - Startups in AI Deep Reinforcement Learning David Si

理解卷積神經網路的利器:9重要的深度學習論文(上)

本文將介紹過去五年內發表的一些重要論文,並探討其重要性。論文1—5涉及通用網路架構的發展,論文6—9則是其他網路架構的論文。點選原文即可檢視更詳細的內容。1.AlexNet(2012)AlexNet是卷積神經網路架構的起源(儘管可能會有人認為,1998年Yann LeCun發表的論文才是真正的開創性出版物)。

2010-2016年被引用次數多的深度學習論文

我相信世上存在值得閱讀的經典的深度學習論文,不論它們的應用領域是什麼。比起推薦大家長長一大串論文,我更傾向於推薦大家一個某些深度學習領域的必讀論文精選合集。 精選合集標準 2016 : +30 引用 「+50」 2015 : +100

深度學習論文值得看的資源大全/貪心學院

quest 另一個 深度 sant 收集 unifi 了解 download net 從全局到枝幹、從經典到前沿、從理論到應用、還有最新的研究...,所有你不需要的需要的,現在不需要的未來需要的,你不需要的周邊小夥伴需要的...反正全都在這了。 對於大多數想上手深度

深度學習論文翻譯解析():Siamese Neural Networks for One-shot Image Recognition

論文標題:Siamese Neural Networks for One-shot Image Recognition 論文作者: Gregory Koch   Richard Zemel Ruslan Salakhutdinov 論文地址:https://www.cs.cmu.edu/~rsala

深度學習論文翻譯解析(十):Densely Connected Convolutional Networks

論文標題:Densely Connected Convolutional Networks 論文作者:Gao Huang Zhuang Liu Laurens van der Maaten  Kilian Q. Weinberger 論文地址:https://arxiv.org/pdf/1608.0

深度學習論文翻譯解析(一):YOLOv3: An Incremental Improvement

cluster tina ble mac 曾經 media bject batch 因此 原標題: YOLOv3: An Incremental Improvement 原作者: Joseph Redmon Ali Farhadi YOLO官網:YOLO: Real-Tim

目前人工智慧火的是-深度學習、機器學習、,採用深入淺出的方法,結合例項並配以大量程式碼練習,重點講解深度學習框架模型、科學演算法、訓練過 程技巧。

深度學習DeepLearning人工智慧核心技術開發與應用 2018年09月13日— 2018年09月16日 北京 物件:從事人工智慧、深度學習、計算機視覺、人臉識別、 影象處理、 行人檢測、自然語言處理 區塊鏈等醫學 遙感 電力 金融 經濟等高維度 資料領域相關的老師 研究生 工程師;

【更新於12.29】深度學習論文彙總

本部落格用於記錄自己平時收集的一些不錯的深度學習論文,近9成的文章都是引用量3位數以上的論文,剩下少部分來自個人喜好,本部落格將伴隨著我的研究生涯長期更新,如有錯誤或者推薦文章煩請私信。 深度學習書籍和入門資源 LeCun Y, Bengio Y, Hinton G. Deep lea

深度學習論文翻譯解析(二):An End-to-End Trainable Neural Network for Image-based Sequence Recognition and Its Application to Scene Text Recognition

論文標題:An End-to-End Trainable Neural Network for Image-based Sequence Recognition and Its Application to Scene Text Recognition 論文作者: Baoguang Shi, Xiang B

深度學習論文筆記:Deep Residual Networks with Dynamically Weighted Wavelet Coefficients for Fault Diagnosis of Planetary Gearboxes

這篇文章將深度學習演算法應用於機械故障診斷,採用了“小波包分解+深度殘差網路(ResNet)”的思路,將機械振動訊號按照故障型別進行分類。 文章的核心創新點:複雜旋轉機械系統的振動訊號包含著很多不同頻率的衝擊和振盪成分,而且不同頻帶內的振動成分在故障診斷中的重要程度經常是不同的,因此可以按照如下步驟設計深度

深度學習論文翻譯解析(三):Detecting Text in Natural Image with Connectionist Text Proposal Network

論文標題:Detecting Text in Natural Image with Connectionist Text Proposal Network 論文作者:Zhi Tian , Weilin Huang, Tong He , Pan He , and Yu Qiao 論文原始碼的下載地址:htt

深度學習論文翻譯解析(四):Faster R-CNN: Down the rabbit hole of modern object detection

論文標題:Faster R-CNN: Down the rabbit hole of modern object detection 論文作者:Zhi Tian , Weilin Huang, Tong He , Pan He , and Yu Qiao 論文地址:https://tryolab

[work] 爽的GPU深度學習環境搭建教程

背景介紹 GPU 在以下方面有別於 CPU: CPU和GPU之所以大不相同,是由於其設計目標的不同,它們分別針對了兩種不同的應用場景。CPU需要很強的通用性來處理各種不同的資料型別,同時邏輯判斷又會引入大量的分支、跳轉和中斷的處理。這些都使得CPU的內部結構異常複雜。而GPU面對的則是

六天搞懂“深度學習”之深度學習

簡單地說,深度學習就是一種採用深度神經網路的機器學習技術,深度神經網路就是一種包含2個或者2個以上隱藏層的多層神經網路。 這裡再次簡單回顧一下“深度學習”的發展歷史: l 第一代神經網路——單層神經網路,在解決機器學習面臨的實際問題時,很快就暴露出它的基本侷限性,單層神經網路只

深度學習論文筆記】Deep Neural Networks for Object Detection

       論文:<<Deep Neural Networks for Object Detection>>       作者:Christian Szegedy Al

深度學習論文隨記(二)---VGGNet模型解讀-2014年(Very Deep Convolutional Networks for Large-Scale Image Recognition)

深度學習論文隨記(二)---VGGNet模型解讀 Very Deep Convolutional Networks forLarge-Scale Image Recognition Author: K Simonyan , A Zisserman Year: 2014