1. 程式人生 > >網路表示學習——異構圖的分類任務

網路表示學習——異構圖的分類任務

社交網路的表示學習任務

在日常生活中,會遇到許多的社交網路,比如微博等,展現了不同使用者與微博內容之間的各種關係,還有論文之中的網路,展現了論文作者,作者研究課題,論文出版雜誌社之間的關係。網路表示學習的任務就是學習一種對這些節點的表示方法,以方便其用於機器學習的任務中,如分類,連線預測等1

異構圖的網路表示

現在對於同構圖的網路表示有更多的研究,不過異構圖在生活中使用的更為廣泛。異構圖指的是圖中的節點有不同的形式,圖中節點之間的關係也有多種不同的形式。在對異構圖的研究中,有以下幾種方法:

  • 將異構圖對映到同構圖2345,但是這種方法沒有完全的探索不同節點之間,或者他們標籤之間的聯絡,甚至提出了不太實際的假設
    1
    ,所以準確率較低。
  • 對不同型別的節點使用不同型別的編碼6
  • 用特定型別的引數來擴充套件成對的解碼器(這句話我現在也不知道什麼意思,求賜教)78
  • 還有一種是對random walks的擴充套件9

對於異構網路的表示學習的研究,我最近看了兩篇論文,其中一篇是另一篇的改進版本。

論文1:在異構的社交網路中學習節點的潛在表示10

論文2:應用於社交網路的異構圖形的分類學習11

reference

  1. Jacob Y, Denoyer L, Gallinari P. Learning latent representations of nodes for classifying in heterogeneous social networks[C]// ACM, 2014:373-382.

    ↩︎ ↩︎

  2. Belkin M, Niyogi P, Sindhwani V. Manifold Regularization: A Geometric Framework for Learning from Labeled and Unlabeled Examples[M]. JMLR.org, 2006. ↩︎

  3. Sofus A. Macskassy and Foster Provost. A simple relational classifier. In Proceedings of the Second Workshop on Multi-Relational Data Mining (MRDM-2003) at KDD-2003, pages 64{76, 2003.

    ↩︎

  4. Prithviraj Sen, Galileo Namata, Mustafa Bilgic, Lise Getoor, Brian Gallagher, and Tina Eliassi-Rad. Collective classication in network data. AI Magazine, 29(3):93{106, 2008. ↩︎

  5. Dengyong Zhou, Olivier Bousquet, Thomas Navin Lal, Jason Weston, and Bernhard Scholkopf. Learning with local and global consistency. In Sebastian Thrun, Lawrence Saul, and Bernhard Scholkopf, editors, Advances in Neural Inform. Process. Systems 16. 2004. ↩︎

  6. Chang, S.; Han, W.; Tang, J.; Qi, G. J.; Aggarwal, C. C. & Huang, T. S. Heterogeneous Network Embedding via Deep Architectures. Acm Sigkdd International Conference on Knowledge Discovery & Data Mining, 2015, 119-128 ↩︎

  7. Nickel, M.; Murphy, K.; Tresp, V. & Gabrilovich, E. A Review of Relational Machine Learning for Knowledge Graphs. Proceedings of the IEEE, 2015, 104, 11-33 ↩︎

  8. Schlichtkrull, M.; Kipf, T. N.; Bloem, P.; Berg, R. V. D.; Titov, I. & Welling, M. Modeling Relational Data with Graph Convolutional Networks. 2017, 593-607 ↩︎

  9. Swami, A.; Swami, A. & Swami, A. metapath2vec: Scalable Representation Learning for Heterogeneous Networks. ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, 2017, 135-144 ↩︎

  10. Jacob, Y.; Denoyer, L. & Gallinari, P. Learning latent representations of nodes for classifying in heterogeneous social networks. 2014, 13, 373-382 ↩︎

  11. Santos, L. D.; Piwowarski, B.; Denoyer, L. & Gallinari, P. Representation Learning for Classification in Heterogeneous Graphs with Application to Social Networks. ACM Trans. Knowl. Discov. Data, ACM, 2018, 12, 62:1-62:33 ↩︎

相關推薦

網路表示學習——構圖分類任務

社交網路的表示學習任務 在日常生活中,會遇到許多的社交網路,比如微博等,展現了不同使用者與微博內容之間的各種關係,還有論文之中的網路,展現了論文作者,作者研究課題,論文出版雜誌社之間的關係。網路表示學習的任務就是學習一種對這些節點的表示方法,以方便其用於機器學

網路表示學習(NRL)方向--論文整理

網路表示學習方法(Network Representation Learning/Network Embedding),也稱為網路嵌入。簡單理解就是一種資料預處理技術,就類似於通訊中對原始訊號做傅立葉變換或拉普拉斯變換,之後就可以通過頻域分析的方法方便理解訊號,網路表示學習的物理意義類似。即

圖嵌入、網路嵌入、網路表示學習領域的論文總結

Graph Embedding Techniques, Applications, and Performance: A Survey——一篇圖嵌入的綜述,很全面 論文連結 Representation Learning on Graphs: Methods and Ap

網路表示學習論文閱讀之HARP

HARP: Hierarchical Representation Learning for Networks 閱讀筆記 摘要 在這篇文章中,作者提出了一種新的方法,能夠在做 network embedding 的時候保持網路高階的結構特徵,具體

網路表示學習綜述:一文理解Network Embedding

在碎片化閱讀充斥眼球的時代,越來越少的人會去關注每篇論文背後的探索和思考。在這個欄目裡,你會快速

網路表示學習框架OpenNE的搭建

1.介紹    傳統的網路挖掘方法,一般都是先將網路轉化成鄰接矩陣,然後再用機器學習的模型從而完成網路挖掘任務,比如社群檢測、連結預測、離群點檢測等等。然而這樣的話,鄰接矩陣通常都很稀疏,且維數很大。    Network Embedding是近幾年比較火的領域,發展迅猛。它

網路表示學習總結

我的GitHub部落格:咖啡成癮患者 最近看了paperweekly的兩次關於網路表示學習的直播,塗存超博士與楊成博士講解了網路表示學習的相關知識。本文將網路表示學習中的一些基本知識,結合自己的一些粗淺的理解,整理記錄下來。 網路的鄰接矩陣表示

fastText一個庫用於詞表示的高效學習和句子分類

包括 div itl bar standard nump for each mil skip fastText fastText 是 Facebook 開發的一個用於高效學習單詞呈現以及語句分類的開源庫。 要求 fastText 使用 C++11

CIKM 18 | 螞蟻金服論文:基於構圖神經網路的惡意賬戶識別方法

小螞蟻說: ACM CIKM 2018 全稱是 The 27th ACM International Conference on Information and Knowledge Management,會議於2018年10月22日-26日在義大利都靈省舉行。 CIMK 是國際計算機學會(ACM

神經網路學習引入-線性分類器 Linear Classification

線性分類器 評分函式(score function):計算原始資料到所屬分類的得分 損失函式(loss function):量化預測得分和實際情況之間的認可度 從影象到標籤得分的引數對映 定義評分函式

神經網路學習引入-影象分類的基本概述

1. Motivation動機 儘管影象分類聽起來很簡單,但是它在現實中有大量的應用場景。 許多明顯是計算機視覺的任務都可以被簡化成影象分類問題。 2.挑戰 圖片分類問題主要存在的挑戰有: 多視角問題(viewpoint variation):同一個物體的不同角度看到的圖片 大小

【GAN ZOO閱讀系列】NONSUPERVISED REPRESENTATION LEARNING WITH DCGAN 使用深度卷積生成對抗網路的無監督的表示學習

Alec Radford & Luke Metz indico Research Boston, MA {alec,luke}@indico.io Soumith Chintala Facebook AI Research New York, NY [e

深度學習入門專案:用keras構建CNN或LSTM對minist資料集做簡單分類任務

深度學習入門專案:用keras構建CNN或LSTM或RNN對Minist資料集做簡單分類任務 參考keras中文文件 ——keras: 是一個高階神經網路庫,用 Python 語言寫成,可以執行在 TensorFlow 或者 Theano 之上(即以此為後端)。

吳恩達神經網路與深度學習——深度神經網路習題4:DNN分類應用

吳恩達神經網路與深度學習——深度神經網路習題4 DNN影象分類應用 將上次實現的DNN應用於貓分類問題 包 import time import numpy as np import h5py import matplotlib.pyplot as plt i

卷積神經網路/CNN/深度學習在做分類訓練時不收斂的解決方案

1.背景介紹 訓練網路的過程就是網路學習影象特徵的過程,正所謂網路好用但是不好訓練,我算是真真切切的體會到了.之前訓練手寫漢字的時候,大概就花費了1個多小時,之前訓練幾十個分類的字元也耗費了很長的時間,逐漸讓我我點怕訓練了,不過今天,我好像找到了問題的解決方法,雖然不一定對每個人有用

Bobo老師機器學習筆記第九課-如何處理多分類任務

1、什麼是多分類任務?    針對多類問題的分類中,具體講有兩種,即multiclass classification和multilabel classification。 multiclass是指分類任務中包含不止一個類別時,每條資料僅僅對應其中一個類別,不會對應多個類

【機器學習】動手寫一個全連線神經網路(三):分類

我們來用python寫一個沒有正則化的分類神經網路。 傳統的分類方法有聚類,LR邏輯迴歸,傳統SVM,LSSVM等。其中LR和svm都是二分類器,可以將多個LR或者svm組合起來,做成多分類器。 多分類神經網路使用softmax+cross entropy組

【GAN ZOO閱讀系列】UNSUPERVISED REPRESENTATION LEARNING WITH DCGAN 使用深度卷積生成對抗網路的無監督的表示學習

Alec Radford & Luke Metz indico Research Boston, MA {alec,luke}@indico.io Soumith Chintala

NLP大賽冠軍總結:300萬知乎多標籤文字分類任務(附深度學習原始碼)

1. 比賽介紹 這是一個文字多分類的問題:目標是“參賽者根據知乎給出的問題及話題標籤的繫結關係的訓練資料,訓練出對未標註資料自動標註的模型”。通俗點講就是:當用戶在知乎上提問題時,程式要能夠根據問題的內容自動為其新增話題標籤。一個問題可能對應著多個話題標籤,如下圖所示。

機器學習中的多分類任務入門

摘要: 這篇文章主要是關於機器學習中多分類任務的一些基本知識。 1.我先丟擲一個問題,在LR(邏輯迴歸)中,如何進行多分類? 一般下,我們所認識的lr模型是一個二分類的模型,但是,能否用lr進行多分類任務呢?答案當然是可以的。 不過,我們需要注意的是,我們有許多種思路利