還在熬夜憋思路?這12篇最新論文打包送給你 | 本週值得讀
在碎片化閱讀充斥眼球的時代,越來越少的人會去關注每篇論文背後的探索和思考。
在這個欄目裡,你會快速 get 每篇精選論文的亮點和痛點,時刻緊跟 AI 前沿成果。
點選本文底部的「閱讀原文」即刻加入社群,檢視更多最新論文推薦。
這是 PaperDaily 的第 78 篇文章Baseline Needs More Love: On Simple Word-Embedding-Based Models and Associated Pooling Mechanisms
@EricShen 推薦
#Word Embedding
這篇發表在 ACL 2018 上的論文來自於杜克大學 Lawrence Carin 教授的實驗室。文章重新審視了 deep learning models(例如 CNN, LSTM)在各類 NLP tasks 中的的必要性
通過大量的實驗探究(17 個數據集),作者發現對於大多數的 NLP 問題,在 word embedding 矩陣上做簡單的 pooling 操作就達到了比 CNN encoder 或者 LSTM encoder 更好的的結果。這類模型被作者命名為 SWEM (Simple Word-Embedding-based Models)。
文章進一步提出了一種新型的 hierarchical pooling 操作:在考慮到部分 word-order 資訊的同時,保持了模型的簡單性。值得一提的是,SWEM 模型相較於 LSTM 模型在訓練速度上提高了 10 倍之多,在引數量上也大大減少。
論文連結
https://www.paperweekly.site/papers/1987
程式碼連結
https://github.com/dinghanshen/SWEM
Deep Reinforcement Learning For Sequence to Sequence Models@guohao916 推薦
#Seq2Seq
針對 Seq2Seq 模型中存在的兩類問題:1. exposure bias; 2. inconsistency between train/test measurement,本文從強化學習的角度出發,結合強化學習方法在決策上的優勢和 Seq2Seq 模型在長期記憶方面的優勢,提出了基於深度強化學習的序列到序列的模型,從而能夠更好地解決複雜情況下的 Seq2Seq任務。
論文連結
https://www.paperweekly.site/papers/1973
程式碼連結
https://github.com/yaserkl/RLSeq2Seq
Training Classifiers with Natural Language Explanations
@erutan 推薦
#Relation Extraction
本文是斯坦福大學發表於 ACL 2018 的工作。在關係抽取中,本文利用標註時標註者提供的自然語言解釋,使用極弱的基於規則的領域無關的 parser 將其轉化為標註規則,並自動去除了大多數矛盾的規則,將其運用在大量未標註資料中獲取弱標註資訊,利用 weakly-supervised 的方法訓練並取得不錯的效果。
比較有意思的點在於,一個是利用了標註者給出的基於自然語言的解釋,這是一種相對而言可以較為廉價獲得(相對於更專業的結構化語言)的資源。另一個是使用了領域無關的弱 parser,卻非常簡單地篩掉了大多數錯誤規則並且指出部分“細微的錯誤”還會帶來一些泛化能力上的提升。
論文連結
https://www.paperweekly.site/papers/1986
程式碼連結
https://github.com/HazyResearch/babble
What you can cram into a single vector: Probing sentence embeddings for linguistic properties@lipaper9527 推薦
#Sentence Embedding
本文是 Facebook AI Research 發表於 ACL 2018 的工作,文章構建了一系列的句子級別的任務來檢測不同模型獲得的句子向量的質量。
任務包含表層的資訊如預測句子長度或某個字是否出現在句子中,也包含句法資訊如句法樹的深度,語義資訊如時態、主語個數、賓語個數等。論文旨在比較不同模型獲得的句子向量的質量。非常有意思且有價值。
論文連結
https://www.paperweekly.site/papers/1977
Learning Semantic Textual Similarity from Conversations@xwzhong 推薦
#Sentence Embedding
本文來自 Google Research,文章提出使用對話資料+遷移學習(此處使用了 SNLI 資料集)來生成句向量,從而用於 QA 中 question rerank,answer rerank 和 sentence 相似度計算等任務中。
論文連結
https://www.paperweekly.site/papers/1984
論文筆記
https://www.paperweekly.site/papers/notes/397
R-VQA: Learning Visual Relation Facts with Semantic Attention for Visual Question Answering@xiaolu 推薦
#Visual Question Answering
本文是清華大學和微軟發表在 KDD ’18 的工作,近來一些 VQA 工作引入了高階語義概念,例如利用計算機視覺領域的一些方法挖掘影象中的語義實體和屬性,從而為 VQA 模型提供豐富的語義資訊。
相比於一元形式的實體和屬性,關係事實(Relation Fact)由主體實體、關係、物件實體三個要素組成,可以構造大量的事實組合,因此具有更強大的語義表達能力。
然而,這些工作存在著明顯的侷限性。一方面,它們使用高層次的語義概念為一元形式的實體或屬性的,只能表達有限的語義知識。另一方面,利用在其它任務或資料集中訓練得到的模型提取影象的候選概念,可能 VQA 任務中的問題內容無關。
為了更好地利用隱含在影象中的語義知識,本文提出了一個新的模型框架用來學習 VQA 任務中的視覺關係事實。具體而言,本文基於 Visual Genome 資料集,通過計算文字之間的語義相似度構建 Relation-VQA(R-VQA)資料集,其中每一個數據由問題、正確答案和相關的支援關係事實組成。本文設計了一種關係事實檢測器可以預測與給定視覺問題相關的關係事實。
本文進一步提出了由視覺注意力機制和語義注意力機制組成的多步注意力模型,分別提取影象中的視覺知識和語義知識。本文在兩個公開的 VQA 資料集上進行了全面的實驗,證明本文的模型實現了目前最好的效能,同時驗證了視覺關係事實在 VQA 任務中的效果。
論文連結
https://www.paperweekly.site/papers/1970
Explicit Reasoning over End-to-End Neural Architectures for Visual Question Answering@huilyu 推薦
#Visual Question Answering
本文是亞利桑那州立大學發表於 AAAI 2018 的工作。VQA 的 reasoning 方面有待加強。本文利用 PSL(Probabilistic Soft Logic)engine 來定義 inputs 和 rules 並列出 top evidences 提供解釋。其中,inputs 由三部分構成:image captioning and parsing into relation triples;question parsing into relation triples;phrasal similarity。
論文連結
https://www.paperweekly.site/papers/1988
程式碼連結
https://github.com/adityaSomak/PSLQA
SSD-6D: Making RGB-based 3D detection and 6D pose estimation great again@SOC1 推薦
#Pose Estimation
本文是慕尼黑工業大學發表於 ICCV 2017 的工作,論文貢獻如下:
1. 基於擴充套件 SSD 的 6D 姿態估計;
2.不需要深度資訊,只通過單幅 RGB 影象就能估計出 6D 姿態。
論文連結
https://www.paperweekly.site/papers/1954
程式碼連結
https://github.com/wadimkehl/ssd-6d
Multi-modal Factorized Bilinear Pooling with Co-Attention Learning for Visual Question Answering@xaj 推薦
Visual Question Answering
本文是杭州電子科技大學發表於 ICCV 2017 的工作,論文提出了一種新的 bilinear pooling 方法,即 MFB。此外,論文還引入了 co-attention 機制,來學習 image 和 question 的 attention。
論文連結
https://www.paperweekly.site/papers/1989
程式碼連結
https://github.com/yuzcccc/vqa-mfb
H-DenseUNet: Hybrid Densely Connected UNet for Liver and Liver Tumor Segmentation from CT Volumes@yunfeinihao 推薦
#Image Segmentation
本文來自香港中文大學,論文使用 U-Net 分割三維醫學影象,可以借鑑到其他的醫學影象中。此外,論文還使用了混合 dense 優化網路,進一步提升效果。
論文連結
https://www.paperweekly.site/papers/1968
Aesthetic-based Clothing Recommendation@somtian 推薦
#Recommender System
本文是清華大學發表於 WWW 18 的工作,論文利用圖片增強效果,傳統的方法只考慮 CNN 抽取的影象特徵;而本文考慮了圖片中的美學特徵對於推薦的影響;作者利用 BDN 從圖片中學習美學特徵,然後將其融合到 DCF 中,增強使用者-產品,產品-時間矩陣,從而提高了推薦效果;在亞馬遜和 AVA 資料集上都取得了良好的效果。
論文連結
https://www.paperweekly.site/papers/1975
Hindsight Experience Replay@ChenjiaBai 推薦
#Reinforcement Learning
本文來自 OpenAI,論文提供瞭解決強化學習 Multi-Goal 問題的思路,擴充套件了 Universal Value Function,並提供了實驗環境。
論文連結
https://www.paperweekly.site/papers/1992
程式碼連結
https://github.com/openai/baselines
#推 薦 有 禮#
本期所有入選論文的推薦人
均將獲得PaperWeekly紀念週邊一份
▲ 機器學習主題行李牌/卡套
▲ 深度學習主題防水貼紙想要贏取以上週邊好禮?
點選閱讀原文即刻加入社群吧!
點選以下標題檢視往期推薦:
▲戳我檢視招募詳情
#作 者 招 募#
關於PaperWeekly
PaperWeekly 是一個推薦、解讀、討論、報道人工智慧前沿論文成果的學術平臺。如果你研究或從事 AI 領域,歡迎在公眾號後臺點選「交流群」,小助手將把你帶入 PaperWeekly 的交流群裡。
▽ 點選 | 閱讀原文 | 加入社群刷論文