1. 程式人生 > >[深度學習]RBM及DBN

[深度學習]RBM及DBN

2. 能量函式。隨機神經網路的基礎是統計力學,差不多思想是熱力學來的,能量函式是描 述整個系統狀態的一種測度。系統越有序或者概率分佈越集中(比如小球在碗底的情況), 系統的能量越小,反之,系統越無序並且概率分佈發散(比如平均分佈) ,則系統的能量 越大,能量函式的最小值,對應著整個系統最穩定的狀態。 這裡跟之前提到的最大熵模型思路是一樣的。
 
RBM 能量模型的作用是什麼呢?為什麼要弄清楚能量模型的作用呢? 第一、 RBM 網路是一種無監督學習的方法,無監督學習的目的自然就是最大限度的擬 合輸入資料和輸出資料。 第二、 對於一組輸入資料來說,如果不知道它的分佈,那是非常難對這個資料進行學 習的。例如:如果我們實現寫出了高斯函式,就可以寫出似然函式,那麼就可 以進行求解,就知道大致的引數,所以實現如果不知道分佈是非常痛苦的一件 事情,但是,沒關係啊,統計力學的一項研究成果表明,任何概率分佈都可以 轉變成基於能量的模型,即使這個概率分佈是未知的,我們仍然可以將這個分 布改寫成能量函式。 第三、 能量函式能夠為無監督學習方法提供 2 個特殊的東西 a)目標函式。 b)目標解, 換句話說,使用能量模型使得學習一個數據的變得容易可行了。 能否把最優解的求解嵌入能量模型中至關重要,決定著我們具體問題求解的好壞。能量模型要捕獲變數之間的
相關性,變數之間的相關程度決定了能量的高低。把變數的相關關係用圖表示 出來,並引入概率測度方式就構成了概率圖(為什麼是概率圖?前面一句說了, RBM 是一個圖,以概率為測度,所以是概率圖)模型的能量模型。
 
由上面所說,RBM是一種概率圖模型,既然引入了概率,那麼就可以通過取樣技術來求解,在 CD(contrastive divergence)演算法中取樣部分扮演著模擬求解梯度的角色。

相關推薦

[深度學習]RBMDBN

2. 能量函式。隨機神經網路的基礎是統計力學,差不多思想是熱力學來的,能量函式是描 述整個系統狀態的一種測度。系統越有序或者概率分佈越集中(比如小球在碗底的情況), 系統的能量越小,反之,系統越無序並且概率分佈發散(比如平均分佈) ,則系統的能量 越大,能量函式的最小值,對應著整個系統最穩定的狀態。 這裡跟

系統學習深度學習(三) --RBMDBN

轉自:http://blog.csdn.net/yt7589/article/details/52487505 另外,有一篇文章《RBM原理理解》寫的很詳細,每個過程都有詳細推導,也就通俗化的理解。我這裡也有做根據文章對博文做了相關補充。 我們目前的討論的神經網路,雖然學習

深度學習基礎tensorflow框架---學習筆記

1、tensorflow框架基礎問題 ①tensorflow-gpu版環境配置 為了在伺服器GPU上進行加速運算,安裝tensorflow-gpu版,安裝預設gpu版本之後發現tensorflow無法使用,在於最新tensorflow-gpu版與伺服器已有的NVIDIA平行計算架構CUDA9

深度學習介紹簡單應用

引言   深度學習背後的主要原理是從大腦中汲取靈感。,這種觀點產生了“神經網路”術語,大腦包含數十億個神經元,它們之間有數萬個連線。 在許多情況下,深度學習演算法類似於大腦,因為大腦和深度學習模型都涉及大量的計算單元(神經元),這些單元在未啟用時並不是活躍的,它們彼此互動時會變得智慧化。 神經元   神經網路

深度學習入門深度學習學習路線

最近一段老師逼著搞論文,都沒啥時間刷題和更新部落格了。前段時間無意間看到一些深度學習方面的資料,個人覺得寫的實在是太精彩了,必須得推薦給他大家。目前只更新了7篇部落格,裡面包含了原理(即數學推導)和實踐(程式碼實現),對於入門來講實在是合適不過的了。 宣告:本文只負責推薦,

深度學習 --- 基於RBM深度置信網路DBN-DNN詳解

上一節我們詳細的講解了受限玻爾茲曼機RBM的原理,詳細闡述了該網路的快速學習原理以及演算法過程,不懂受限玻爾茲曼機的建議先好好理解上一節的內容,本節主要講解的是使用RBM組成深層神經網路的深度置信網路DBN(Deep Belief Network),但是該網路效果並沒有那麼理想,hinton在此

[深度學習]神經網路的理解(MLP RBF RBM DBN DBM CNN 整理學習

開篇語 文章整理自向世明老師的PPT,圍繞神經網路發展歷史,前饋網路(單層感知器,多層感知器,徑向基函式網路RBF),反饋網路(Hopfield網路,聯想儲存網路,SOM,Boltzman及受限的玻爾茲曼機RBM,DBN,CNN)三部分進行講述,給人一個神經網路的整體認識。 發展歷史 單層感知器

隨時更新———個人喜歡的關於模式識別、機器學習、推薦系統、圖像特征、深度學習、數值計算、目標跟蹤等方面個人主頁博客

lam c++源代碼 for 閾值處理 mmc 閾值 align sources 回歸算法 目標檢測、識別、分類、特征點的提取David Lowe:Sift算法的發明者,天才。Rob Hess:sift的源代碼OpenSift的作者,個人主頁上有openSift的下載鏈接

深度學習實踐系列之--身份證上漢字數字識別系統的實現(上)

手動 ear 常用 env 窗口 mic 文件下載 oot edr 前言: 本文章將記錄我利用深度學習方法實現身份證圖像的信息識別系統的實現過程,及學習到的心得與體會。本次實踐是我投身AI的初次系統化的付諸實踐,意義重大,讓自己成長許多。終於有空閑的時間,將其

深度學習神經網絡學習總結

ons ani online aid size 原理 目標 獲得 bp算法 ps:我是在高一的時候第一次腦海中接觸神經網絡這個概念......,註意只是接觸,一直扔到現在 1. 簡介 神經網絡和深度學習是由Michael Nielsen所寫,其特色是:兼顧理論和實

機器學習/深度學習 問題總結解答

oos 情況 boost target rnn load 解答 兩種 blank 作者:原果 鏈接:https://www.nowcoder.com/discuss/71482 來源:牛客網 問題總結及資料鏈接 (1)機器學習部分 1 邏輯回歸部分 常

Teaching Machines to Understand Us 讓機器理解我們 之三 自然語言學習深度學習的信仰

boa ping beats pen des pla 遇到 muc net Language learning 自然語言學習 Facebook’s New York office is a three-minute stroll up Broadway from LeCun

深度學習機器學習框架對比摘要

評估 shu soar OS oschina detail 深度 china blog 對比深度學習十大框架:TensorFlow 並非最好? TensorFlow與主流深度學習框架對比 五大主流深度學習框架對比:MXNET是最好選擇 主流開源深度學習框架對比分析

深度學習計算機視覺相關資源(不斷更新)

LSTM:  http://colah.github.io/posts/2015-08-Understanding-LSTMs/ 深度學習領域PyTorch專案-git原始碼整理 https://blog.csdn.net/u012969412/article/details/774792

深度學習深度信念網路(DBN)結構和訓練過程

深度信念網路在處理維數比較多的資料時,可以起到壓縮資料維度的作用。其經典結構為: DBN由多個RBM堆疊而成,訓練過程由預訓練和微調構成 深度信念網路訓練步驟: (1)預訓練:分別單獨無監督的訓練每一層RBM網路,確保特徵向量對映到不同特徵空間,都儘可能的保留特徵資訊;它通過一個非監督

深度學習】ResNet解讀程式碼實現

簡介 ResNet是何凱明大神在2015年提出的一種網路結構,獲得了ILSVRC-2015分類任務的第一名,同時在ImageNet detection,ImageNet localization,COCO detection和COCO segmentation等任務中均獲得了第一名,在當

深度學習機器學習的一些問題(面試)

1.為什麼正則化可以防止過擬合 參考連結   深度學習面試100題: 深度學習面試100題(第1-5題):經典常考點CNN 深度學習面試100題(第6-10題) 深度學習面試100題(第11-15題) 深度學習面試100題(第16-20題) 深度學習面試10

深度學習-*-RNN正向反向傳播

RNN簡介 RNN(迴圈神經網路)是深度神經網路中,應用最廣泛的兩種神經網路架構之一。並且,作為一種時序結構的神經網路,RNN經常用於時序相關的問題中,且在NLP中應用廣泛。還有一種RNN稱為遞迴神經網路,雖然名字類似,但是卻是不一樣的架構。 RNN圖示

吳恩達深度學習筆記(22)-深層神經網路說明前後向傳播實現

深層神經網路(Deep L-layer neural network) 目前為止我們已經學習了只有一個單獨隱藏層的神經網路的正向傳播和反向傳播,還有邏輯迴歸,並且你還學到了向量化,這在隨機初始化權重時是很重要。 目前所要做的是把這些理念集合起來,就可以執行你自己的深度神經網路。

深度學習——L0、L1L2範數

在深度學習中,監督類學習問題其實就是在規則化引數同時最小化誤差。最小化誤差目的是讓模型擬合訓練資料,而規則化引數的目的是防止模型過分擬合訓練資料。 引數太多,會導致模型複雜度上升,容易過擬合,也就是訓練誤差小,測試誤差大。因此,我們需要保證模型足夠簡單,並在此基礎上訓練誤差小,這樣訓練得到的引數