1. 程式人生 > >(乾貨)ICLR論文自評分——論文名和翻譯

(乾貨)ICLR論文自評分——論文名和翻譯

以下僅為個人評分。官方論文評分請參看:點選開啟連結  包括2018年977篇研究論文

英文名:


附中文名:

有理對抗訓練證明的分佈魯棒性
論亞當與外在的融合
通過訓練遞迴神經網路來執行空間定位的類網格表示的出現
用於資源有效影象分類的多尺度密集網路
用混合張量分解推廣擴張卷積網路
Wasserstein自動編碼器
i-RevNet:深度可逆網路
學習用圖表來表示程式
在非平穩和競爭的環境中通過元學習的連續適應
用預測方法穩定對抗網路
DIRT-T的無監督域適應方法
遞迴神經網路的交替多位量化
球形CNN | OpenReview
用於學習大群體最優行為策略的深度均值場博弈
FusionNet:通過注意力的融合和應用到機器理解
 分散式優先體驗重播
用於神經網路的光譜歸一化邊界的PAC-貝葉斯方法
無監督機器翻譯僅使用單語語料庫
因果GAN:學習與敵對訓練的因果隱式生成模型
通過交叉漸進式訓練將各個區域進行廣義化
通過Skim-RNN進行神經速度讀取
學習差異性私人迴圈語言模型
合成與自然噪聲破解神經機器翻譯
用景觀設計學習單隱層神經網路

用於條件程式生成的神經素描學習
統一視覺環境下的模組化持續學習
AmbientGAN:來自有損測量的生成模型
深度自動編碼高斯混合模型無監督異常檢測
基於決策的敵對攻擊:對黑盒機器學習模型的可靠攻擊
跳過連線消除奇點
通過深層次的繼承表徵來發現特徵選擇
學習如何解釋神經網路:模式網路和模式歸因
生成對抗網路的譜歸一化
掌握地下城:機械Turker下降基礎的語言學習
PixelNN:基於例項的影象合成
通過深度合成程式碼學習壓縮Word嵌入
變分網路量化
學習深度聲音識別的課堂練習
深入學習物理過程:結合以前的科學知識
關於一般化的單一方向的重要性
培訓RNN像CNN一樣快
變分影象壓縮與規模hyperprior
作為混合凸組合優化問題的深度學習
空間變換敵對的例子
攻擊二值化神經網路
視覺地面想象的生成模型
政策梯度方法與行動相關基線的方差減少
高效的稀疏Winograd卷積神經網路
用樂觀的方式培訓GAN
無監督深度域自適應的最小熵相關校準
N2N學習:通過策略梯度強化學習的網路到網路壓縮
用神經網路模擬動作動力學
素描圖的神經表示
對抗案例的認證防禦

終身學習與動態擴充套件網路
Sobolev GAN | OpenReview
反向傳播通過虛空:優化控制變數的黑盒梯度估計
聯合學習句法和詞彙的神經語言建模
用Gumbel-Sinkhorn網路學習潛在排列
零射擊視覺模仿
內在動機與自動課程的不對稱性
規範和優化LSTM語言模型
主動神經定位
學習教學
用STEIN控制變數進行樣本有效的政策優化
哈密​​爾頓型蒙特卡羅神經網路的推廣
時間差分在深度強化學習中的作用分析
神經網路的可伸縮拉普拉斯逼近
超引數優化:一種光譜方法
抽象概括的深層次增強模型
DCN +:混合的目標和深刻的解決問題的答案
學習Wasserstein嵌入
深度學習與記錄的強盜反饋
GraphVAE:使用變分自動編碼器來生成小圖
在Adam中確定權重衰減正則化
論深度學習重疊式建築的表現力
理解隨機元優化中的短視場偏差
關係神經期望最大化
利用區域性固有維數表徵對抗子空間
卷積濾波器什麼時候易於學習?
來自動態系統檢視的多級剩餘網路
神經對映:深度強化學習的結構化記憶