1. 程式人生 > >【論文筆記】An End-to-End Model for QA over KBs with Cross-Attention Combining Global Knowledge

【論文筆記】An End-to-End Model for QA over KBs with Cross-Attention Combining Global Knowledge

一、概要
  該文章發於ACL 2017,在Knowledge base-based question answering (KB-QA)上,作者針對於前人工作中存在沒有充分考慮候選答案的相關資訊來訓練question representation的問題,提出了一個使用Cross-Attention機制的神經網路模型來針對於候選答案的不同方面資訊來訓練模型;並且訓練知識庫的全域性資訊學習,在一定程度上減輕的the out of vocabulary (OOV)問題,最終在資料集 WEBQUES- TIONS上取得不錯的效果。

二、模型方法
2.1 模型簡介
  KB-QA的目標是給出一個用自然語言表達的問題,返回在實體集合A作為問題的答案。本文的模型如下圖所示,首先使用Freebase API識別出問題中的實體,在知識庫中找到候選答案,然後使用Attention機制的神經網路針對候選答案的answer entity、answer relation、answer type、以及answer context四個方面分別訓練對應的question representation和及其representation,最後使用相似度得分來選出最終的答案。本文的方法與Li Dong等人提出的方法非常類似,具體可看:

【論文筆記】Question Answering over Freebase with Multi-Column Convolutional Neural Networks,但其實大有不同,比如/business/board member 和/location/country 都是表示答案型別,但是因為它們的Attention不同,最後得到的question representation也會不同。

這裡寫圖片描述

2.2 Question Representation
  首先,我們需要獲取到問題中每個詞的representation,假設存在問題q=(x1,x2,...,xn)xi表示問題中的第i個單詞,如下圖所示,我們通過look up在E

wRd×vw中獲得每個單詞的embeddings,EwRd×vw是隨機初始化的矩陣,並在模型虛擬立案過程中訓練,d表示單詞representation的維度,vw表示所有問題單詞集合的元素的個數,然後將這些詞向量傳入LSTM中,LSTM模型已經被證明在許多NLP問題上表現得非常好,同時為了考慮到每個詞的前後詞彙的資訊,這裡使用了雙向LSTM,LSTM的隱藏單元輸出維度為d/2,最後將雙向LSTM的輸出連線起來,即得到維度為d的向量。

這裡寫圖片描述

2.3 Answer aspect representation
  在答案方面,直接通過KB embedding 矩陣EkRd×vk獲得上面提到四個方面的embedding,其中v

w表示KB中詞表的大小,Ek也隨著模型訓練而不斷學習優化,我們將answer entity , answer relation , answer type,以及answer context分別表示為aearatac,其對應的embedding分別表示為eeeretec,值得注意的是answer context 來自於知識庫中的多個方面,可以表示為(c1,c2,...,cn),我們先通過Ek獲得KB embeddings為:(ec1,ec2,...,ecn),最後算它們的平均embeddings,即:ec=1nni=1eci

2.4 Cross-Attention model
①Answer-towards-question(A-Q) attention
  這是本文最關鍵的一部分,根據答案的ei(eeeretec),可以對LSTM中輸出的word representation hj給予不同的權重,即不同的關注度,其計算方法如下:

aij=exp(wij)nk=1(wik)

wij=f(WT[hj;ei])+b

  其中aij表示第i個詞的Attention權重,n為問題的單詞個數,WR2d×1為中間矩陣,b為偏置值,然後這些Attention權重被用來與對應的詞向量計算得到句子語義向量,即:
qi=nj=1(aijhj)

  最後問題和候選答案的相似度計算方法如下:
S(q,a)=hqie

相關推薦

論文筆記An End-to-End Model for QA over KBs with Cross-Attention Combining Global Knowledge

一、概要   該文章發於ACL 2017,在Knowledge base-based question answering (KB-QA)上,作者針對於前人工作中存在沒有充分考慮候選答案的相關資訊來訓練question representation的問題,提出

論文筆記An Intelligent Fault Diagnosis Method Using: Multivariate Anomaly Detection for Time Series Data with Generative Adversarial Networks

ivar 單位矩陣 作用 一次 一個 http example tps 計算 論文來源:IEEE TRANSACTIONS ON INDUSTRIAL ELECTRONICS 2016年的文章,SCI1區,提出了兩階段的算法。第一個階段使用Sparse filtering

Reading Wikipedia to Answer Open-Domain Questions論文筆記

一、摘要   這篇文章主要是介紹使用維基百科作為唯一的知識庫來解決開放域問答。大規模機器閱讀任務的主要挑戰是文件檢索(查詢相關文章)和機器閱讀理解(從文章中確定答案片段)。作者的方法將基於bigram hashing 和TF-IDF匹配的搜尋元件與經過訓練以檢測維基百科段落中的答案的多層

論文筆記One Millisecond Face Alignment with an Ensemble of Regression Trees

參考文獻: Kazemi V, Sullivan J. One millisecond face alignment with an ensemble of regression trees[C]//Computer Vision and Pattern

論文筆記T Test

nor thum pan n-1 統計學 for nes 其它 align 用來算兩組數的差別大小 只要是一種叫做p-value的 就是說假如你測定一個實驗的p-value是5%也就是說你有95%的信心確定這個實驗它是正確的在正規的實驗裏 只有當p-value小於5%的時候

Semantic Parsing via Staged Query Graph Generation: Question Answering with Knowledge Base論文筆記

一、摘要   我們對知識庫問答提出一個新穎的語義解析框架。我們定義了一個類似於知識庫子圖的查詢圖,可以直接對映為邏輯形式。語義解析被簡化為查詢圖生成,被表述為分階段搜尋問題。與傳統方法不同,我們的方法在早期就利用知識庫來修剪搜尋空間,從而簡化語義匹配問題。通過應用實體鏈指系統和深度卷

Question Answering over Freebase with Multi-Column Convolutional Neural Networks論文筆記

一、概要   通過知識庫回答自然語言問題是一個重要的具有挑戰性的任務。大多數目前的系統依賴於手工特徵和規則。本篇論文,我們介紹了MCCNNs,從三個不同層面(答案路徑,答案型別,答案上下文)來理解問題。同時,在知識庫中我們共同學習實體和關係的低維詞向量。問答對用於訓練模型以對候選答案

Context-Aware Basic Level Concepts Detection in Folksonomies論文筆記

一、概要 這篇論文討論了在 folksonomies中探索隱含語義的問題。在 folksonomies中,使用者建立和管理標籤來標註web資源。使用者建立的標籤的集合是潛在的語義資源。做了大量研究來抽取概念,甚至概念層次 (本體),這是知識表示的重要組成部分。沒有用於發現人類可接受和令人滿意

Question Answering with Subgraph Embeddings論文筆記

一、摘要 這篇論文提出一個系統,在大範圍主題的知識庫中,學習使用較少的手工特徵來回答問題。我們的模型學習單詞和知識庫組成的低維詞向量。這些表示用於根據候選答案對自然語言問題打分。使用成對的問題和對應答案的結構化表示,和成對的問題釋義來訓練系統,在最近的文獻基準中產生有競爭力的結果。 &n

Information Extraction over Structured Data: Question Answering with Freebase論文筆記

          Information Extraction over Structured Data:Question Answering with Freebase   一、摘要

Semantic Parsing on Freebase from Question-Answer Pairs論文筆記

參考:https://zhuanlan.zhihu.com/p/25759682 原文:https://cs.stanford.edu/~pliang/papers/freebase-emnlp2013.pdf 一 、摘要 作者訓練了一個可擴充套件到Freebase的語義解析器,由於

vggface2人臉識別資料集 論文筆記VGGFace2——一個能夠用於識別不同姿態和年齡人臉的資料集

原 【論文筆記】VGGFace2——一個能夠用於識別不同姿態和年齡人臉的資料集 2018年01月10日 14:53:31 有來有去-CV 閱讀數:6701

論文筆記使用多流密集網路的密度感知單影象去雨

使用多流密集網路的密度感知單影象去雨 《Density-aware Single Image De-reaining using a Multi-stream Dense Network》 0 概要 這裡提出一種密度感知多路稠密連線神經網路演算法,DID-MDN,來雨量

論文筆記用形狀做擋風玻璃上的雨滴檢測《Detection Of Raindrop With Various Shapes On A Windshield》

《Detection of Raindrop with Various Shapes on a Windshield》 1 介紹 2 雨滴檢測方法 在白天和夜晚使用不同的演算法。通過整幅影象的強度水平判斷是白天還是夜晚。 2.1 白天的雨滴檢測方法 這個方法假設

論文筆記光流在視訊行為識別中的作用

0. 引言 在做視訊行為識別時,特別是基於two-stream框架時,常常會引入光流圖作為雙流網路其中一支的輸入。這是很常用,且在各資料集上已被證明有效的做法。但是,關於光流在行為識別中到底起到了什麼作用其實並沒有明確的研究。通常我們認為光流代表了視訊的m

論文筆記Margin Sample Mining Loss: A Deep Learning Based Method for Person Re-identification

摘要 Person re-identification (ReID) is an important task in computer vision. Recently, deep learning with a metric learning loss has becom

論文筆記Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks

寫在前面:      我看的paper大多為Computer Vision、Deep Learning相關的paper,現在基本也處於入門階段,一些理解可能不太正確。說到底,小女子才疏學淺,如果有錯

論文筆記視訊物體檢測(VID)系列 NoScope:1000x的視訊檢索加速演算法

計算機視覺的進展,特別是近期深度神經網路的進展,使得在不斷增長的視訊資料中進行檢索成為可能。但是,基於神經網路去做大規模視訊檢索,直接的問題就是計算量激增。比如現在最快的物體檢測器能達到1~2.5x real time的效率(30~80fps),前提是買一個

論文筆記In Defense of the Triplet Loss for Person Re-Identification

1、前言 Triplet loss是非常常用的一種deep metric learning方法,在影象檢索領域有非常廣泛的應用,比如人臉識別、行人重識別、商品檢索等。傳統的triplet loss訓練需要一個三元組,包括三張圖片:achor,positive,

論文筆記視訊物體檢測(VID)系列 FGFA:Flow-Guided Feature Aggregation for Video Object Detection

1.Abstract 視訊中的物體檢測會受到諸如運動模糊、視訊散焦、奇特姿態等的影響。現有的工作嘗試從box-level使用temporal資訊,但是這種方法不能端到端地進行訓練。我們提出了FGFA,在frame-level使用temporal資訊。它將相