深度學習--深度信念網(wǎng)絡(luò)(DeepBeliefNetwork)_第1頁
深度學習--深度信念網(wǎng)絡(luò)(DeepBeliefNetwork)_第2頁
深度學習--深度信念網(wǎng)絡(luò)(DeepBeliefNetwork)_第3頁
深度學習--深度信念網(wǎng)絡(luò)(DeepBeliefNetwork)_第4頁
深度學習--深度信念網(wǎng)絡(luò)(DeepBeliefNetwork)_第5頁
已閱讀5頁,還剩4頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

1、1深度學習-深度信念網(wǎng)絡(luò)(Deep Belief Network)概述由 Geoffrey Hinton 在深度信念網(wǎng)絡(luò) (Deep Belief Network, DBN) 2006 年提出。它是一種生成模型,通過訓練其神經(jīng)元間的權(quán)重,我們可以讓整個神經(jīng)網(wǎng)絡(luò)按照最大概率來生成訓練數(shù)據(jù)。我們不僅可以使用DBN識別特征、分類數(shù)據(jù),還可以用它來生成數(shù)據(jù)。下面的圖片展示的是用DBN 識別手寫數(shù)字:圖1用深度信念網(wǎng)絡(luò)識別手寫數(shù)字。圖中右下角是待識別數(shù)字的黑白位圖, 它 的上方有三層隱性神經(jīng)元。每一個黑色矩形代表一層神經(jīng)元,白點代表處于開啟 狀態(tài)的神經(jīng)元,黑色代表處于關(guān)閉狀態(tài)的神經(jīng)元。注意頂層神經(jīng)元的左

2、下方即使 別結(jié)果,與畫面左上角的對應(yīng)表比對,得知這個DBN 正確地識別了該數(shù)字。F面是展示了一個學習了大量英文維基百科文章的DBN所生成的自然語言段落: In 1974 Norther n Denver had bee n overshadowed by CNL, and several Irish intelligenee agencies in the Mediterranean region. However, on the Victoria, Ki ngs Hebrew stated that Charles decided to escape duri ng anallianee.

3、The mansion house was completed in 1882, the second in its bridge are omitted, while closing is the proton reticulum composed below it aims, such that it is the blurring of appearing on any well-paid type of box prin ter.DBN 由多層神經(jīng)元構(gòu)成,這些神經(jīng)元又分為 顯性神經(jīng)元 和隱性神經(jīng)元(以 下簡稱顯元和隱元)。顯元用于接受輸入,隱元用于提取特征。因此隱元也有個 別名,叫特征

4、檢測器(feature detectors)。最頂上的兩層間的連接是無向的,組成聯(lián)合內(nèi)存(associative memory)。較低的其他層之間有連接上下的有向連接。最底層代表了數(shù)據(jù)向量(data vectors),每一個神經(jīng)元代表數(shù)據(jù)向量的 一維。DBN 的組成元件是受限玻爾茲曼機(Restricted BoltzmannMachines, RBM)。訓練 DBN 的過程是一層一層地進行的。在每一層中,用 數(shù)據(jù)向量來推斷隱層,再把這一隱層當作下一層(高一層)的數(shù)據(jù)向量。受限玻爾茲曼機如前所述,RBM是DBN的組成元件。事實上,每一個 RBM都可以單獨用作聚類器RBM 只有兩層神經(jīng)元,一層叫

5、做 顯層(visible layer),由顯元(visibleunits)組成,用于輸入訓練數(shù)據(jù)。另一層叫做隱層(Hidden layer),相應(yīng)地,由隱元(hidden units)組成,用作特征檢測器(feature detectors) 。hhldeii unitsvisible units圖2受限玻爾茲曼機的結(jié)構(gòu)。圖中的較上一層神經(jīng)元組成隱層, 較下的神經(jīng)元 組成顯元。每一層都可以用一個向量來表示, 每一維表示每個神經(jīng)元。注意這兩層間的對稱(雙向)連接神經(jīng)元之間的條件獨立性應(yīng)注意到,顯層和隱層內(nèi)部的神經(jīng)元都沒有互連, 只有層間的神經(jīng)元有對稱的連 接線。這樣的好處是,在給定所有顯元的值的

6、情況下,每一個隱元取什么值是互 不相關(guān)的。也就是說,P(h | v) =| v)同樣,在給定隱層時,所有顯元的取值也互不相關(guān):P(v |h)=匸二 F(u| h)有了這個重要性質(zhì),我們在計算每個神經(jīng)元的取值情況時就不必每次計算一個, 而是同時并行地計算整層神經(jīng)元。使用RBM的過程假設(shè)我們現(xiàn)在已經(jīng)得到一個訓練好的RBM,每個隱元與顯元間的權(quán)重用矩陣4#W表示,且:i,iWl,2其中Wij代表從第i個顯元到第j個隱元的權(quán)重,M代表顯元的個數(shù),N代表隱元的個數(shù)。那么,當我們把一條新來的數(shù)據(jù) X ,J 附給(clamp to)顯層后,RBM 將會依照權(quán)值 W來決定開啟或關(guān)閉隱元。具體的操作如下:首先,

7、將每個隱元的激勵值(activatio n) 計算出來:h = Wx注意,這里用到了前面提到的神經(jīng)元之間的條件獨立性。然后,將每個隱元的激勵值都用S形函數(shù)進行標準化,變成它們處于開啟#狀(用1表示)的概率值:=1)=H%) =1 + e#此處的S形函數(shù)我們采用的是Logistic 函數(shù):#a -1+至此,每個隱元hj開啟的概率被計算出來了。其處于關(guān)閉狀態(tài)(用0表示)的概率自然也就是P(hj =0) = 1 P(曾=1)那么到底這個元開啟還是關(guān)閉,我們需要將開啟的概率與一個從0,1 均勻分 布中抽取的隨機值u t/(0; 1)進行如下比較_ Pg = 1) )=|0, P(h. = l)u然后開

8、啟或關(guān)閉相應(yīng)的隱元。給定隱層,計算顯層的方法是一樣的。訓練RBMRBM的訓練過程,實際上是求出一個最能產(chǎn)生訓練樣本的概率分布。也就是說, 要求一個分布,在這個分布里,訓練樣本的概率最大。由于這個分布的決定性因 素在于權(quán)值W,所以我們訓練 RBM 的目標就是尋找最佳的權(quán)值。為了保持 讀者的興趣,這里我們不給出最大化對數(shù)似然函數(shù)的推導(dǎo)過程,直接說明如何訓練 RBM。G. Hi nto n 提出了名為對比散度 (Co ntrastive Diverge nee) 的學習算法F面我們來詳述它的具體過程我們沿用前文的符號記法。算法1.對比散度對于訓練集中的每一條記錄算法h對比散度對于訓練集中的每條記眾X

9、有:將葢附給顯層迪.計算它便隱神經(jīng)元被開啟的概率 p溟: =1 |嚴)=鞏W嚴)式巾啲上標用于區(qū)別不同向止 下標用干區(qū)別同向曲t啲不同維。 然后*從計算山的概率分布抽取一個樣本hW P(的 | 評)用h他重構(gòu)足層P(咱二 1 I h)=CT(W7 hi0)同樣*抽取出顯層的-彳樣上理(嚴|們再次用顯層神經(jīng)元巫構(gòu)之S的)計鱒岀隱層神經(jīng)元被開啟的慨率 P(h;H = 1 | V)=(7(W 2)按下式刪HE:W W 十人(F(h朋=11 嚴)嚴丁 - Pfh(1) = 11 v1)v(,T如此訓練之后的RBM就能較為準確地提取顯層的特征,或者根據(jù)隱層所代表 的特征還原顯層了。深度信念網(wǎng)絡(luò)前文我們已

10、經(jīng)介紹了 RBM 的基本結(jié)構(gòu)和其訓練、使用過程,接下來我們介紹DBN 的相關(guān)內(nèi)容。DBN 是由多層 RBM 組成的一個神經(jīng)網(wǎng)絡(luò),它既可以被看作一個生成模型, 也可以當作判別模型,其訓練過程是:使用非監(jiān)督貪婪逐層方法去預(yù)訓練獲得權(quán) 值。訓練過程:1. 首先充分訓練第一個 RBM ;2. 固定第一個 RBM 的權(quán)重和偏移量,然后使用其隱性神經(jīng)元的狀態(tài),作為 第二個RBM的輸入向量;3. 充分訓練第二個 RBM后,將第二個 RBM堆疊在第一個RBM的上 方;4. 重復(fù)以上三個步驟任意多次;5. 如果訓練集中的數(shù)據(jù)有標簽,那么在頂層的 RBM 訓練時,這個RBM 的 顯層中除了顯性神經(jīng)元,還需要有代表

11、分類標簽的神經(jīng)元,一起進行訓練:a)假設(shè)頂層RBM的顯層有500 個顯性神經(jīng)元,訓練數(shù)據(jù)的分類一共分成了 10 類;b)那么頂層 RBM 的顯層有510 個顯性神經(jīng)元,對每一訓練訓練數(shù)據(jù),相 應(yīng)的標簽神經(jīng)元被打開設(shè)為 1,而其他的則被關(guān)閉設(shè)為 0。6. DBN 被訓練好后如下圖:(示意)圖3訓練好的深度信念網(wǎng)絡(luò)。圖中的綠色部分就是在最頂層 RBM 中參與訓練的標簽。注意調(diào)優(yōu) (FINE-TUNING)過程是一個判別模型另:P(hjv)hOO oo oo voo6 006 *000DataReconstructed P(vjh)調(diào)優(yōu)過程(Fine-Tuning) :生成模型使用 Con trastive Wake-Sleep 算法進行調(diào)優(yōu),其算法過程是:1. 除了頂層 RBM,其他層 RBM 的權(quán)重被分成向上的認知權(quán)重和向下的生 成權(quán)重;2. Wake 階段:認知過程,通過外界的特征和向上的權(quán)重 (認知權(quán)重)產(chǎn)生每 一層的抽象表示(結(jié)點狀態(tài)),并且使用梯度下降修改層間的下行權(quán)重 (生成權(quán) 重)。也就是如果現(xiàn)實跟我想象的不一樣,改變我的權(quán)重使得我想

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論