從文本到視覺:各領域最前沿的論文集合
選自GitHub
作者:Simon Brugman
參與:吳攀
深度學習已經在語音識別、機器翻譯、圖像目標檢測和聊天機器人等許多領域百花齊放。近日,GitHub 用戶 Simon Brugman 發布了一個按任務分類的深度學習論文項目,其按照不同的任務類型列出了一些當前最佳的論文和對起步有用的論文。
目錄
1. 文本
1.1. 代碼生成(Code Generation)
1.2. 情感分析(Sentiment Analysis)
1.3. 翻譯(Translation)
1.4. 分類(Classification)
2. 視覺
2.1. 遊戲(Gaming)
2.2. 風格遷移(Style Transfer)
2.3. 跟蹤(Tracking)
2.4. 圖像分割(Image Segmentation)
2.5. 室外的文本識別(Text (in the Wild) Recognition)
2.6. 腦機接口(Brain Computer Interfacing)
2.7. 自動駕駛汽車(Self-Driving Cars)
2.8. 目標識別(Object Recognition)
2.9. 標識識別(Logo Recognition)
2.10. 超分辨率(Super Resolution)
2.11. 姿態估計(Pose Estimation)
2.12. 圖像描述(Image Captioning)
2.13. 圖像壓縮(Image Compression)
2.14. 圖像合成(Image Synthesis)
2.15. 面部識別(Face Recognition)
3. 音頻
3.1. 音頻合成(Audio Synthesis)
4. 其它
4.1. 未分類
4.2. 正則化(Regularization)
4.3. 神經網絡壓縮(Neural Network Compression)
4.4. 優化器(Optimizers)
文本
代碼生成(Code Generation)
1.A Syntactic Neural Model for General-Purpose Code Generation
時間:2017 年 4 月 6 日
地址:https://arxiv.org/pdf/1704.01696
2.RobustFill: Neural Program Learning under Noisy I/O
時間:2017 年 3 月 21 日
地址:https://arxiv.org/pdf/1703.07469
解讀:《微軟RobustFill:無需編程語言,讓神經網絡自動生成程序》
3.DeepCoder: Learning to Write Programs
時間:2016 年 11 月 7 日
地址:https://arxiv.org/pdf/1611.01989
解讀:《學界 | 劍橋與微軟提交ICLR 2017論文提出DeepCoder:組合其它程序代碼生成新程序》
4.Neuro-Symbolic Program Synthesis
時間:2016 年 11 月 6 日
地址:https://arxiv.org/pdf/1611.01855
情感分析(Sentiment Analysis)
1.Rationalizing Neural Predictions
時間:2016 年 6 月 13 日
地址:https://arxiv.org/pdf/1606.04155
2.Recursive Deep Models for Semantic Compositionality Over a Sentiment Treebank
時間:2013 年 10 月 18 日
地址:https://github.com/sbrugman/deep-learning-papers/blob/master/papers/recursive-deep-models-for-semantic-compositionality-over-a-sentiment-treebank.pdf
翻譯(Translation)
1.Google‘s Multilingual Neural Machine Translation System: Enabling Zero-Shot Translation
時間:2016 年 11 月 14 日
地址:https://arxiv.org/pdf/1611.04558
解讀:《重磅 | 谷歌神經機器翻譯再突破:實現高質量多語言翻譯和zero-shot翻譯(附論文)》
2.Google‘s Neural Machine Translation System: Bridging the Gap between Human and Machine Translation
時間:2016 年 9 月 26 日
地址:https://arxiv.org/pdf/1609.08144
解讀:《重磅 | 谷歌翻譯整合神經網絡:機器翻譯實現顛覆性突破(附論文)》
分類(Classification)
1.A Simple but Tough-to-Beat Baseline for Sentence Embeddings
時間:2016 年 11 月 4 日
地址:https://openreview.net/pdf?id=SyK00v5xx
2.From Word Embeddings To Document Distances
時間:2016 年 7 月 6 日
地址:http://proceedings.mlr.press/v37/kusnerb15.pdf
3.Character-level Convolutional Networks for Text Classification
時間:2015 年 9 月 4 日
地址:https://arxiv.org/pdf/1509.01626
4.GloVe: Global Vectors for Word Representation
時間:2015 年 5 月 25 日
地址:https://github.com/sbrugman/deep-learning-papers/blob/master/papers/glove-global-vectors-for-word-representation.pdf
5.Distributed Representations of Sentences and Documents
時間:2014 年 5 月 16 日
地址:https://arxiv.org/pdf/1405.4053
6.Efficient Estimation of Word Representations in Vector Space
時間:2013 年 1 月 16 日
地址:https://arxiv.org/pdf/1301.3781
視覺
遊戲(Gaming)
1.Phase-Functioned Neural Networks for Character Control
時間:2017 年 5 月 1 日
地址:https://github.com/sbrugman/deep-learning-papers/blob/master/papers/phase-functioned-neural-networks-for-character-control.pdf
2.Equivalence Between Policy Gradients and Soft Q-Learning
時間:2017 年 4 月 21 日
地址:https://arxiv.org/pdf/1704.06440
3.Beating Atari with Natural Language Guided Reinforcement Learning
時間:2017 年 4 月 18 日
地址:https://arxiv.org/pdf/1704.05539
4.Learning from Demonstrations for Real World Reinforcement Learning
時間:2017 年 4 月 12 日
地址:https://arxiv.org/pdf/1704.03732
5.FeUdal Networks for Hierarchical Reinforcement Learning
時間:2017 年 3 月 3 日
地址:https://arxiv.org/pdf/1703.01161
6.Overcoming catastrophic forgetting in neural networks
時間:2016 年 12 月 2 日
地址:https://arxiv.org/pdf/1612.00796
解讀:《為機器賦予記憶:DeepMind重磅研究提出彈性權重鞏固算法》
7.DeepChess: End-to-End Deep Neural Network for Automatic Learning in Chess
時間:2015 年 8 月 16 日
地址:https://github.com/sbrugman/deep-learning-papers/blob/master/papers/deepchess-end-to-end-deep-neural-network-for-automatic-learning-in-chess.pdf
8.Dueling Network Architectures for Deep Reinforcement Learning
時間:2015 年 11 月 20 日
地址:https://arxiv.org/pdf/1511.06581
9.Human-level control through deep reinforcement learning
時間:2015 年 2 月 26 日
地址:https://github.com/sbrugman/deep-learning-papers/blob/master/papers/human-level-control-through-deep-reinforcement-learning.pdf
10.Playing Atari with Deep Reinforcement Learning
時間:2013 年 12 月 19 日
地址:https://arxiv.org/pdf/1312.5602
風格遷移(Style Transfer)
1.Deep Photo Style Transfer
時間:2017 年 3 月 22 日
地址:https://arxiv.org/pdf/1703.07511
解讀:《資源 | 下一代PS工具:Adobe照片級圖像風格轉換的Torch實現》
2.Arbitrary Style Transfer in Real-time with Adaptive Instance Normalization
時間:2017 年 3 月 20 日
地址:https://arxiv.org/pdf/1703.06868
開源項目:https://github.com/xunhuang1995/AdaIN-style
3.A Learned Representation For Artistic Style
時間:2016 年 10 月 24 日
地址:https://arxiv.org/pdf/1610.07629
4.Instance Normalization: The Missing Ingredient for Fast Stylization
時間:2016 年 7 月 27 日
地址:https://arxiv.org/pdf/1607.08022
5.Perceptual Losses for Real-Time Style Transfer and Super-Resolution
時間:2016 年 3 月 27 日
地址:https://arxiv.org/pdf/1603.08155
開源項目:http://github.com/jcjohnson/fast-neural-style
6.A Neural Algorithm of Artistic Style
時間:2015 年 8 月 26 日
地址:https://arxiv.org/pdf/1508.06576
開源項目:https://github.com/lengstrom/fast-style-transfer/
跟蹤(Tracking)
1.End-to-end representation learning for Correlation Filter based tracking
時間:2017 年 4 月 20 日
地址:https://arxiv.org/pdf/1704.06036
開源項目:https://github.com/bertinetto/cfnet
圖像分割(Image Segmentation)
1.SfM-Net: Learning of Structure and Motion from Video
時間:2017 年 4 月 25 日
地址:https://arxiv.org/pdf/1704.07804
2.Mask R-CNN
時間:2017 年 3 月 20 日
地址:https://arxiv.org/pdf/1703.06870
解讀:《學界 | Facebook新論文提出通用目標分割框架Mask R-CNN:更簡單更靈活表現更好》和《深度 | 用於圖像分割的捲積神經網絡:從R-CNN到Mark R-CNN》
3.Learning Features by Watching Objects Move
時間:2016 年 12 月 19 日
地址:https://arxiv.org/pdf/1612.06370
4.Fully Convolutional Networks for Semantic Segmentation
時間:2016 年 5 月 20 日
地址:https://arxiv.org/pdf/1605.06211
5.Instance-aware Semantic Segmentation via Multi-task Network Cascades
時間:2015 年 12 月 14 日
地址:https://arxiv.org/pdf/1512.04412
6.Multi-Scale Context Aggregation by Dilated Convolutions
時間:2015 年 11 月 23 日
地址:https://arxiv.org/pdf/1511.07122
7.SegNet: A Deep Convolutional Encoder-Decoder Architecture for Image Segmentation
時間:2015 年 11 月 2 日
地址:https://arxiv.org/pdf/1511.00561
8.Learning Rich Features from RGB-D Images for Object Detection and Segmentation
時間:2014 年 7 月 22 日
地址:https://arxiv.org/pdf/1407.5736
室外的文本識別(Text (in the Wild) Recognition)
1.OCR Error Correction Using Character Correction and Feature-Based Word Classification
時間:2016 年 4 月 21 日
地址:https://arxiv.org/pdf/1604.06225
2.Recursive Recurrent Nets with Attention Modeling for OCR in the Wild
時間:2016 年 5 月 9 日
地址:https://arxiv.org/pdf/1603.03101
3.COCO-Text: Dataset and Benchmark for Text Detection and Recognition in Natural Images
時間:2016 年 1 月 26 日
地址:https://arxiv.org/pdf/1601.07140
4.Efficient Scene Text Localization and Recognition with Local Character Refinement
時間:2015 年 4 月 14 日
地址:https://arxiv.org/pdf/1504.03522
5.Reading Text in the Wild with Convolutional Neural Networks
時間:2014 年 12 月 4 日
地址:https://arxiv.org/pdf/1412.1842
6.Synthetic Data and Artificial Neural Networks for Natural Scene Text Recognition
時間:2014 年 6 月 9 日
地址:https://arxiv.org/pdf/1406.2227
腦機接口(Brain Computer Interfacing)
1.Encoding Voxels with Deep Learning
時間:2015 年 12 月 2 日
地址:http://www.jneurosci.org/content/jneuro/35/48/15769.full.pdf
2,Deep Neural Networks Reveal a Gradient in the Complexity of Neural Representations across the Ventral Stream
時間:2015 年 7 月 8 日
地址:http://www.jneurosci.org/content/jneuro/35/27/10005.full.pdf
自動駕駛汽車(Self-Driving Cars)
1.Computer Vision for Autonomous Vehicles: Problems, Datasets and State-of-the-Art
時間:2017 年 4 月 18 日
地址:https://arxiv.org/pdf/1704.05519
解讀:《重磅 | 自動駕駛計算機視覺研究綜述:難題、數據集與前沿成果(附67頁論文下載)》
2.End to End Learning for Self-Driving Cars
時間:2016 年 4 月 25 日
地址:https://arxiv.org/pdf/1604.07316
目標識別(Object Recognition)
1.Introspective Classifier Learning: Empower Generatively
時間:2017 年 4 月 25 日
地址:https://arxiv.org/pdf/1704.07816
2.Learning Chained Deep Features and Classifiers for Cascade in Object Detection
時間:2017 年 2 月 23 日
地址:https://arxiv.org/pdf/1702.07054
3.DSSD : Deconvolutional Single Shot Detector
時間:2017 年 1 月 23 日
地址:https://arxiv.org/pdf/1701.06659
4.YOLO9000: Better, Faster, Stronger
時間:2016 年 12 月 25 日
地址:https://arxiv.org/pdf/1612.08242
開源項目:https://github.com/pjreddie/darknet
5.Feature Pyramid Networks for Object Detection
時間:2016 年 12 月 9 日
地址:https://arxiv.org/pdf/1612.03144
6.Speed/accuracy trade-offs for modern convolutional object detectors
時間:2016 年 11 月 30 日
地址:https://arxiv.org/pdf/1611.10012
7.Aggregated Residual Transformations for Deep Neural Networks
時間:2016 年 11 月 16 日
地址:https://arxiv.org/pdf/1611.10012
8.Aggregated Residual Transformations for Deep Neural Networks
時間:2016 年 11 月 16 日
地址:https://arxiv.org/pdf/1611.05431
9.Hierarchical Object Detection with Deep Reinforcement Learning
時間:2016 年 11 月 11 日
地址:https://arxiv.org/pdf/1611.03718
10.Xception: Deep Learning with Depthwise Separable Convolutions
時間:2016 年 10 月 7 日
地址:https://arxiv.org/pdf/1610.02357
11.Learning to Make Better Mistakes: Semantics-aware Visual Food Recognition
時間:2016 年 10 月 1 日
地址:https://github.com/sbrugman/deep-learning-papers/blob/master/papers/learning-to-make-better-mistakes-semantics-aware-visual-food-recognition.pdf
12.Densely Connected Convolutional Networks
時間:2016 年 8 月 25 日
地址:https://arxiv.org/pdf/1608.06993
13.Residual Networks of Residual Networks: Multilevel Residual Networks
時間:2016 年 8 月 9 日
地址:https://arxiv.org/pdf/1608.02908
14.Context Matters: Refining Object Detection in Video with Recurrent Neural Networks
時間:2016 年 7 月 15 日
地址:https://arxiv.org/pdf/1607.04648
15.R-FCN: Object Detection via Region-based Fully Convolutional Networks
時間:2016 年 5 月 20 日
地址:https://arxiv.org/pdf/1605.06409
16.Training Region-based Object Detectors with Online Hard Example Mining
時間:2016 年 4 月 12 日
地址:https://arxiv.org/pdf/1604.03540
17.T-CNN: Tubelets with Convolutional Neural Networks for Object Detection from Videos
時間:2016 年 4 月 9 日
地址:https://arxiv.org/pdf/1604.02532
18.Inception-v4, Inception-ResNet and the Impact of Residual Connections on Learning
時間:2016 年 2 月 23 日
地址:https://arxiv.org/pdf/1602.07261
19.Deep Residual Learning for Image Recognition
時間:2015 年 12 月 10 日
地址:https://arxiv.org/pdf/1512.03385
20.SSD: Single Shot MultiBox Detector
時間:2015 年 12 月 8 日
地址:https://arxiv.org/pdf/1512.02325
21.ParseNet: Looking Wider to See Better
時間:2015 年 6 月 15 日
地址:https://arxiv.org/pdf/1506.04579
22.You Only Look Once: Unified, Real-Time Object Detection
時間:2015 年 6 月 8 日
地址:https://arxiv.org/pdf/1506.02640
23.Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks
時間:2015 年 6 月 4 日
地址:https://arxiv.org/pdf/1506.01497
24.Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classification
時間:2015 年 2 月 6 日
地址:https://arxiv.org/pdf/1502.01852
25.Deep Image: Scaling up Image Recognition
時間:2015 年 1 月 13 日
地址:https://arxiv.org/pdf/1501.02876
26.Rich feature hierarchies for accurate object detection and semantic segmentation
時間:2013 年 11 月 11 日
地址:https://arxiv.org/pdf/1311.2524
27.Selective Search for Object Recognition
時間:2013 年 3 月 11 日
地址:https://github.com/sbrugman/deep-learning-papers/blob/master/papers/selective-search-for-object-recognition.pdf
28.ImageNet Classification with Deep Convolutional Neural Networks
時間:2012 年 12 月 3 日
地址:https://github.com/sbrugman/deep-learning-papers/blob/master/papers/imagenet-classification-with-deep-convolutional-neural-networks.pdf
標識識別(Logo Recognition)
1.Deep Learning Logo Detection with Data Expansion by Synthesising Context
時間:2016 年 12 月 29 日
地址:https://arxiv.org/pdf/1612.09322
2.Automatic Graphic Logo Detection via Fast Region-based Convolutional Networks
時間:2016 年 4 月 20 日
地址:https://arxiv.org/pdf/1604.06083
3.LOGO-Net: Large-scale Deep Logo Detection and Brand Recognition with Deep Region-based Convolutional Networks
時間:2015 年 11 月 8 日
地址:https://arxiv.org/pdf/1511.02462
4.DeepLogo: Hitting Logo Recognition with the Deep Neural Network Hammer
時間:2015 年 10 月 7 日
地址:https://arxiv.org/pdf/1510.02131
超分辨率(Super Resolution)
1.Real-Time Single Image and Video Super-Resolution Using an Efficient Sub-Pixel Convolutional Neural Network
時間:2016 年 9 月 16 日
地址:https://arxiv.org/pdf/1609.05158
2.Photo-Realistic Single Image Super-Resolution Using a Generative Adversarial Network
時間:2016 年 9 月 15 日
地址:https://arxiv.org/pdf/1609.04802
3.RAISR: Rapid and Accurate Image Super Resolution
時間:2016 年 6 月 3 日
地址:https://arxiv.org/pdf/1606.01299
4.Perceptual Losses for Real-Time Style Transfer and Super-Resolution
時間:2016 年 3 月 27 日
地址:https://arxiv.org/pdf/1603.08155
開源項目:http://github.com/jcjohnson/fast-neural-style
5.Image Super-Resolution Using Deep Convolutional Networks
時間:2014 年 12 月 31 日
地址:https://arxiv.org/pdf/1501.00092
姿態估計(Pose Estimation)
1.Forecasting Human Dynamics from Static Images
時間:2017 年 4 月 11 日
地址:https://arxiv.org/pdf/1704.03432
2.Fast Single Shot Detection and Pose Estimation
時間:2016 年 9 月 19 日
地址:https://arxiv.org/pdf/1609.05590
圖像描述(Image Captioning)
1.Detecting and Recognizing Human-Object Interactions
時間:2017 年 4 月 24 日
地址:https://arxiv.org/pdf/1704.07333
2.Deep Reinforcement Learning-based Image Captioning with Embedding Reward
時間:2017 年 4 月 12 日
地址:https://arxiv.org/pdf/1704.03899
3.Generation and Comprehension of Unambiguous Object Deions
時間:2015 年 11 月 7 日
地址:https://arxiv.org/pdf/1511.02283
4.Long-term Recurrent Convolutional Networks for Visual Recognition and Deion
時間:2014 年 11 月 17 日
地址:https://arxiv.org/pdf/1411.4389
圖像壓縮(Image Compression)
1.Full Resolution Image Compression with Recurrent Neural Networks
時間:2016 年 8 月 18 日
地址:https://arxiv.org/pdf/1608.05148
解讀:《詳解谷歌神經網絡圖像壓縮技術:如何高質量地將圖像壓縮得更小》
圖像合成(Image Synthesis)
1.A Neural Representation of Sketch Drawings
時間:2017 年 4 月 11 日
地址:https://arxiv.org/pdf/1704.03477
2.BEGAN: Boundary Equilibrium Generative Adversarial Networks
時間:2017 年 3 月 31 日
地址:https://arxiv.org/pdf/1703.10717
開源項目:https://github.com/carpedm20/BEGAN-tensorflow
3.Improved Training of Wasserstein GANs
時間:2017 年 3 月 31 日
地址:https://arxiv.org/pdf/1704.00028
4.Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks
時間:2017 年 3 月 30 日
地址:https://arxiv.org/pdf/1703.10593
開源項目:https://github.com/junyanz/CycleGAN
解讀:《學界 | 讓莫奈畫作變成照片:伯克利圖像到圖像翻譯新研究》
5.RenderGAN: Generating Realistic Labeled Data
時間:2016 年 11 月 4 日
地址:https://arxiv.org/pdf/1611.01331
6.Conditional Image Generation with PixelCNN Decoders
時間:2016 年 6 月 16 日
地址:https://arxiv.org/pdf/1606.05328
7.Pixel Recurrent Neural Networks
時間:2016 年 1 月 25 日
地址:https://arxiv.org/pdf/1601.06759
面部識別(Face Recognition)
1.Accessorize to a Crime: Real and Stealthy Attacks on State-of-the-Art Face Recognition
時間:2016 年 10 月 24 日
地址:https://github.com/sbrugman/deep-learning-papers/blob/master/papers/accessorize-to-a-crime-real-and-stealthy-attacks-on-state-of-the-art- face-recognition.pdf
2.OpenFace: A general-purpose face recognition library with mobile applications
時間:2016 年 6 月 1 日
地址:https://github.com/sbrugman/deep-learning-papers/blob/master/papers/openface-a-general-purpose-face-recognition-library-with-mobile-applications.pdf
3.Emotion Recognition in the Wild via Convolutional Neural Networks and Mapped Binary Patterns
時間:2015 年 11 月 9 日
地址:https://github.com/sbrugman/deep-learning-papers/blob/master/papers/emotion-recognition-in-the-wild-via-convolutional-neural-networks-and-mapped-binary-patterns. pdf
4.Deep Face Recognition
時間:2015 年 9 月 11 日
地址:https://github.com/sbrugman/deep-learning-papers/blob/master/papers/deep-face-recognition.pdf
5.Compact Convolutional Neural Network Cascade for Face Detection
時間:2015 年 8 月 6 日
地址:https://arxiv.org/pdf/1508.01292
6.Learning Robust Deep Face Representation
時間:2015 年 7 月 17 日
地址:https://arxiv.org/pdf/1507.04844
7.Facenet: A unified embedding for face recognition and clustering
時間:2015 年 6 月 12 日
地址: https://github.com/sbrugman/deep-learning-papers/blob/master/papers/facenet-a-unified-embedding-for-face-recognition-and-clustering.pdf
8.Multi-view Face Detection Using Deep Convolutional Neural Networks
時間:2015 年 2 月 10 日
地址:https://arxiv.org/pdf/1502.02766
音頻
音頻合成(Audio Synthesis)
1.A Neural Parametric Singing Synthesizer
時間:2017 年 4 月 12 日
地址:https://arxiv.org/pdf/1704.03809
2.Neural Audio Synthesis of Musical Notes with WaveNet Autoencoders
時間:2017 年 4 月 5 日
地址:https://arxiv.org/pdf/1704.01279
開源項目:https://github.com/tensorflow/magenta/tree/master/magenta/models/nsynth
解讀:《谷歌大腦&DeepMind:NSynth神經音樂合成器,生成超逼真樂器聲音》
3.Tacotron: Towards End-to-End Speech Synthesis
時間:2017 年 3 月 29 日
地址:https://arxiv.org/pdf/1703.10135
解讀:《學界 | 谷歌全端到端語音合成系統Tacotron:直接從字符合成語音》
4.Deep Voice: Real-time Neural Text-to-Speech
時間:2017 年 2 月 25 日
地址:https://arxiv.org/pdf/1702.07825
解讀:《業界 | 百度提出 Deep Voice:實時的神經語音合成系統》
5.WaveNet: A Generative Model for Raw Audio
時間:2016 年 9 月 12 日
地址:https://arxiv.org/pdf/1609.03499
開源項目:https://github.com/ibab/tensorflow-wavenet
解讀:《重磅 | DeepMind最新生成模型WaveNet,將機器合成語音水平與人類差距縮小50%(附論文)》
其它
未分類
1.Who Said What: Modeling Individual Labelers Improves Classification
時間:2017 年 3 月 26 日
地址:https://arxiv.org/pdf/1703.08774
2.Semi-supervised Knowledge Transfer for Deep Learning from Private Training Data
時間:2016 年 10 月 18 日
地址:https://arxiv.org/pdf/1610.05755
3.DeepMath - Deep Sequence Models for Premise Selection
時間:2016 年 6 月 14 日
地址:https://arxiv.org/pdf/1606.04442
4.Long Short-Term Memory
時間:1997 年 11 月 15 日
地址:https://github.com/sbrugman/deep-learning-papers/blob/master/papers/long-short-term-memory.pdf
擴展:《乾貨 | 圖解LSTM神經網絡架構及其11種變體(附論文)》
正則化(Regularization)
1.Dropout as a Bayesian Approximation: Representing Model Uncertainty in Deep Learning
時間:2015 年 6 月 6 日
地址:https://arxiv.org/pdf/1506.02142
2.Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift
時間:2015 年 2 月 11 日
地址:https://arxiv.org/pdf/1502.03167
神經網絡壓縮(Neural Network Compression)
1.SqueezeNet: AlexNet-level accuracy with 50x fewer parameters and<0.5MB model size
時間:2016 年 2 月 24 日
地址:https://arxiv.org/pdf/1602.07360
2.Deep Compression: Compressing Deep Neural Networks with Pruning, Trained Quantization and Huffman Coding
時間:2015 年 10 月 1 日
地址:https://arxiv.org/pdf/1510.00149
優化器(Optimizers)
1.Adam: A Method for Stochastic Optimization
時間:2014 年 12 月 22 日
地址:https://arxiv.org/pdf/1412.6980
2.Deep learning with Elastic Averaging SGD
時間:2014 年 12 月 20 日
地址:https://arxiv.org/pdf/1412.6651
3.ADADELTA: An Adaptive Learning Rate Method
時間:2012 年 12 月 22 日
地址:https://arxiv.org/pdf/1212.5701
4.Advances in Optimizing Recurrent Networks
時間:2012 年 12 月 4 日
地址:https://arxiv.org/pdf/1212.0901
5.Efficient Backprop
時間:1998 年 7 月 1 日
地址:https://github.com/sbrugman/deep-learning-papers/blob/master/papers/efficient-backprop.pdf
機器之心發布的其它值得關註的論文和文章列表:
資源 | 如何開啟深度學習之旅?這三大類125篇論文為你導航(附資源下載)
學界 | 2010-2016年被引用次數最多的深度學習論文(附下載)
資源 | 生成對抗網絡新進展與論文全集
資源 | 生成對抗網絡及其變體的論文匯總
人工智能從入門到進階,機器之心高分技術文章全集
原文鏈接:https://github.com/sbrugman/deep-learning-papers
來源:http://www.sohu.com/a/139053245_465975
-
幫趣網
分享知識、獲得樂趣
共發表1037篇
- 將註意力機制引入RNN,解決5大應用...
1月前 23:03 幫趣網
- 華為諾亞方舟實驗室提出新型元學習法 ...
1月前 22:33 幫趣網
- 一張速查表實現Apache MXNe...
1月前 22:34 幫趣網
- MIT開放圖像標註工具LabelMe...
1月前 22:22 幫趣網
- OpenAI 新研究:通過自適應參數...
1月前 02:52 幫趣網
從文本到視覺:各領域最前沿的論文集合