hopfield神經(jīng)網(wǎng)絡(luò)及其應(yīng)用教學(xué)_第1頁
hopfield神經(jīng)網(wǎng)絡(luò)及其應(yīng)用教學(xué)_第2頁
hopfield神經(jīng)網(wǎng)絡(luò)及其應(yīng)用教學(xué)_第3頁
hopfield神經(jīng)網(wǎng)絡(luò)及其應(yīng)用教學(xué)_第4頁
hopfield神經(jīng)網(wǎng)絡(luò)及其應(yīng)用教學(xué)_第5頁
已閱讀5頁,還剩60頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

Hopfield網(wǎng)絡(luò)及其應(yīng)用

1精選課件ppt一、反饋網(wǎng)絡(luò)二、Hopfield網(wǎng)絡(luò)簡介三、DHNN網(wǎng)絡(luò)四、TSP問題求解五、內(nèi)容小結(jié)內(nèi)容安排2精選課件ppt1.1反饋網(wǎng)絡(luò)簡介1.2網(wǎng)絡(luò)穩(wěn)定性一、反饋網(wǎng)絡(luò)3精選課件ppt1.1反饋網(wǎng)絡(luò)簡介反饋網(wǎng)絡(luò)(RecurrentNetwork),又稱自聯(lián)想記憶網(wǎng)絡(luò)其目的是為了設(shè)計一個網(wǎng)絡(luò),儲存一組平衡點,使得當(dāng)給網(wǎng)絡(luò)一組初始值時,網(wǎng)絡(luò)通過自行運行而最終收斂到這個設(shè)計的平衡點上。反饋網(wǎng)絡(luò)能表現(xiàn)出非線性動力學(xué)系統(tǒng)動態(tài)特性網(wǎng)絡(luò)系統(tǒng)具有若干個穩(wěn)定狀態(tài)。當(dāng)網(wǎng)絡(luò)從某一初始狀態(tài)開始運動,網(wǎng)絡(luò)系統(tǒng)總可以收斂到某一個穩(wěn)定的平衡狀態(tài);系統(tǒng)穩(wěn)定的平衡狀態(tài)可以通過設(shè)計網(wǎng)絡(luò)的權(quán)值而被存儲到網(wǎng)絡(luò)中4精選課件ppt前饋型與反饋型神經(jīng)網(wǎng)絡(luò)的比較

(1)前饋型神經(jīng)網(wǎng)絡(luò)只表達輸入輸出之間的映射關(guān)系,實現(xiàn)非線性映射;反饋型神經(jīng)網(wǎng)絡(luò)考慮輸入輸出之間在時間上的延遲,需要用動態(tài)方程來描述,反饋型神經(jīng)網(wǎng)絡(luò)是一個非線性動力學(xué)系統(tǒng)。

(2)前饋型神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)訓(xùn)練的目的是快速收斂,一般用誤差函數(shù)來判定其收斂程度;反饋型神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)目的是快速尋找到穩(wěn)定點,一般用能量函數(shù)來判別是否趨于穩(wěn)定點。

(3)兩者都有局部極小問題。5精選課件ppt1.1反饋網(wǎng)絡(luò)簡介反饋網(wǎng)絡(luò)分類如果激活函數(shù)f(·)是一個二值型的函數(shù),即ai=sgn(ni),i=l,2,…r,則稱此網(wǎng)絡(luò)為離散型反饋網(wǎng)絡(luò);如果f(·)為一個連續(xù)單調(diào)上升的有界函數(shù),這類網(wǎng)絡(luò)被稱為連續(xù)型反饋網(wǎng)絡(luò)6精選課件ppt該網(wǎng)絡(luò)為單層全反饋網(wǎng)絡(luò),其中的每個神經(jīng)元的輸出都是與其他神經(jīng)元的輸入相連的。所以其輸入數(shù)目與輸出層神經(jīng)元的數(shù)目是相等的,有r=s。7精選課件ppt8精選課件ppt9精選課件ppt1.2網(wǎng)絡(luò)穩(wěn)定性狀態(tài)軌跡對于一個由r個神經(jīng)元組成的反饋網(wǎng)絡(luò),在某一時刻t,分別用N(t)和A(t)來表示加權(quán)和矢量和輸出矢量。在下一時刻t+1,可得到N(t+1),而N(t+1)又引起A(t+1)的變化,這種反饋演化的過程,使網(wǎng)絡(luò)狀態(tài)隨時間發(fā)生變化。在一個r維狀態(tài)空間上,可以用一條軌跡來描述狀態(tài)變化情況。從初始值A(chǔ)(t0)出發(fā),A(t0+Δt)→A(t0+2Δt)→…→A(t0+mΔt),這些在空間上的點組成的確定軌跡,是演化過程中所有可能狀態(tài)的集合,我們稱這個狀態(tài)空間為相空間10精選課件ppt1.2網(wǎng)絡(luò)穩(wěn)定性狀態(tài)軌跡離散與連續(xù)軌跡在一個r維狀態(tài)空間上,可以用一條軌跡來描述狀態(tài)變化情況.

11精選課件ppt1.2網(wǎng)絡(luò)穩(wěn)定性狀態(tài)軌跡分類:對于不同的連接權(quán)值wij和輸入Pj(i,j=1,2,…r),反饋網(wǎng)絡(luò)可能出現(xiàn)不同性質(zhì)的狀態(tài)軌跡軌跡為穩(wěn)定點軌跡為極限環(huán)軌跡為混沌現(xiàn)象軌跡發(fā)散12精選課件ppt1.2網(wǎng)絡(luò)穩(wěn)定性穩(wěn)定軌跡反饋網(wǎng)絡(luò)從任一初始態(tài)P(0)開始運動,若存在某一有限時刻t,從t以后的網(wǎng)絡(luò)狀態(tài)不再發(fā)生變化(P(t+Δt)=P(t),Δt>0)則稱網(wǎng)絡(luò)是穩(wěn)定的處于穩(wěn)定時的網(wǎng)絡(luò)狀態(tài)叫做穩(wěn)定狀態(tài),又稱為定吸引子13精選課件ppt1.2網(wǎng)絡(luò)穩(wěn)定性穩(wěn)定點分類在一個反饋網(wǎng)絡(luò)中,存在很多穩(wěn)定點穩(wěn)定點收斂域漸近穩(wěn)定點:在穩(wěn)定點Ae周圍的A(σ)區(qū)域內(nèi),從任一個初始狀態(tài)A(t0)出發(fā),當(dāng)t→∞時都收斂于Ae,則稱Ae為漸近穩(wěn)定點不穩(wěn)定平衡點Aen:在某些特定的軌跡演化過程中,網(wǎng)絡(luò)能夠到達穩(wěn)定點Aen,但對其它方向上任意小的區(qū)域A(σ),不管A(σ)取多么小,其軌跡在時間t以后總是偏離Aen;期望解網(wǎng)絡(luò)的解:如果網(wǎng)絡(luò)最后穩(wěn)定到設(shè)計人員期望的穩(wěn)定點,且該穩(wěn)定點又是漸近穩(wěn)定點,那么這個點稱為網(wǎng)絡(luò)的解;網(wǎng)絡(luò)的偽穩(wěn)定點:網(wǎng)絡(luò)最終穩(wěn)定到一個漸近穩(wěn)定點上,但這個穩(wěn)定點不是網(wǎng)絡(luò)設(shè)計所要求的解14精選課件ppt1.2網(wǎng)絡(luò)穩(wěn)定性狀態(tài)軌跡為極限環(huán)在某些參數(shù)的情況下,狀態(tài)A(t)的軌跡是一個圓,或一個環(huán)狀態(tài)A(t)沿著環(huán)重復(fù)旋轉(zhuǎn),永不停止,此時的輸出A(t)也出現(xiàn)周期變化(即出現(xiàn)振蕩)如果在r種狀態(tài)下循環(huán)變化,稱其極限環(huán)為r對于離散反饋網(wǎng)絡(luò),軌跡變化可能在兩種狀態(tài)下來回跳動,其極限環(huán)為215精選課件ppt1.2網(wǎng)絡(luò)穩(wěn)定性狀態(tài)軌跡為混沌如果狀態(tài)A(t)的軌跡在某個確定的范圍內(nèi)運動,但既不重復(fù),又不能停下來狀態(tài)變化為無窮多個,而軌跡也不能發(fā)散到無窮遠,這種現(xiàn)象稱為混沌(chaos)出現(xiàn)混沌的情況下,系統(tǒng)輸出變化為無窮多個,并且隨時間推移不能趨向穩(wěn)定,但又不發(fā)散16精選課件ppt1.2網(wǎng)絡(luò)穩(wěn)定性狀態(tài)軌跡發(fā)散狀態(tài)A(t)的軌跡隨時間一直延伸到無窮遠。此時狀態(tài)發(fā)散,系統(tǒng)的輸出也發(fā)散一般非線性人工神經(jīng)網(wǎng)絡(luò)中發(fā)散現(xiàn)象是不會發(fā)生的.17精選課件ppt1.2網(wǎng)絡(luò)穩(wěn)定性目前的反饋神經(jīng)網(wǎng)絡(luò)是利用穩(wěn)定的特定軌跡來解決某些問題如果視系統(tǒng)的穩(wěn)定點為一個記憶,則從初始狀態(tài)朝此穩(wěn)定點移動的過程即為尋找該記憶的過程狀態(tài)的初始值可以認為是給定的有關(guān)該記憶的部分信息,狀態(tài)A(t)移動的過程,是從部分信息去尋找全部信息,這就是聯(lián)想記憶的過程將系統(tǒng)的穩(wěn)定點考慮為一個能量函數(shù)的極小點。在狀態(tài)空間中,從初始狀態(tài)A(t0),最后到達A*。若A*為穩(wěn)定點,則可以看作是A*把A(t0)吸引了過去,在A(t0)時能量比較大,而吸引到A*時能量已為極小了18精選課件ppt1.2網(wǎng)絡(luò)穩(wěn)定性考慮具體應(yīng)用,可以將能量的極小點作為一個優(yōu)化目標(biāo)函數(shù)的極小點,把狀態(tài)變化的過程看成是優(yōu)化某一個目標(biāo)函數(shù)的過程因此反饋網(wǎng)絡(luò)的狀態(tài)移動的過程實際上是一種計算聯(lián)想記憶或優(yōu)化的過程。它的解并不需要真的去計算,只需要形成一類反饋神經(jīng)網(wǎng)絡(luò),適當(dāng)?shù)卦O(shè)計網(wǎng)絡(luò)權(quán)值wij,使其初始輸入A(t0)向穩(wěn)定吸引子狀態(tài)移動就可以達到目的19精選課件ppt二、Hopfield網(wǎng)絡(luò)簡介2.1網(wǎng)絡(luò)模型2.2DHNN2.3CHNN2.4聯(lián)想記憶與優(yōu)化計算20精選課件ppt概述Hopfield網(wǎng)絡(luò)是神經(jīng)網(wǎng)絡(luò)發(fā)展歷史上的一個重要的里程碑。由美國加州理工學(xué)院物理學(xué)家J.J.Hopfield教授于1982年提出,是一種單層反饋神經(jīng)網(wǎng)絡(luò)。Hopfield網(wǎng)絡(luò)是一種由非線性元件構(gòu)成的反饋系統(tǒng),其穩(wěn)定狀態(tài)的分析比前向神經(jīng)網(wǎng)絡(luò)要復(fù)雜得多。1984年,Hopfield設(shè)計并研制了網(wǎng)絡(luò)模型的電路,并成功地解決了旅行商(TSP)計算難題(優(yōu)化問題)。Hopfield網(wǎng)絡(luò)分為離散型和連續(xù)型兩種網(wǎng)絡(luò)模型,分別記作DHNN(DiscreteHopfieldNeuralNetwork)和CHNN(ContinuesHopfieldNeuralNetwork)。Hello,I’mJohnHopfield21精選課件ppt反饋神經(jīng)網(wǎng)絡(luò)由于其輸出端有反饋到其輸入端;所以,Hopfield網(wǎng)絡(luò)在輸入的激勵下,會產(chǎn)生不斷的狀態(tài)變化。當(dāng)有輸入之后,可以求出Hopfield的輸出,這個輸出反饋到輸入從而產(chǎn)生新的輸出,這個反饋過程一直進行下去。如果Hopfield網(wǎng)絡(luò)是一個能收斂的穩(wěn)定網(wǎng)絡(luò),則這個反饋與迭代的計算過程所產(chǎn)生的變化越來越小,一旦到達了穩(wěn)定平衡狀態(tài);那么Hopfield網(wǎng)絡(luò)就會輸出一個穩(wěn)定的恒值。22精選課件ppt2.1網(wǎng)絡(luò)模型分類離散Hopfield網(wǎng)絡(luò)(DHNN)連續(xù)Hopfield網(wǎng)絡(luò)(CHNN)DHNN中的激活函數(shù)

CHNN中的激活函數(shù)

23精選課件ppt2.1網(wǎng)絡(luò)模型24精選課件ppt2.2DHNNHopfield最早提出的網(wǎng)絡(luò)是二值神經(jīng)網(wǎng)絡(luò),神經(jīng)元的輸出只取1和0這兩個值,所以,也稱離散Hopfield神經(jīng)網(wǎng)絡(luò)。在離散Hopfield網(wǎng)絡(luò)中,所采用的神經(jīng)元是二值神經(jīng)元;故而,所輸出的離散值1和0分別表示神經(jīng)元處于激活和抑制狀態(tài)。25精選課件ppt2.2DHNN對于一個離散的Hopfield網(wǎng)絡(luò),其網(wǎng)絡(luò)狀態(tài)是輸出神經(jīng)元信息的集合。對于一個輸出層是n個神經(jīng)元的網(wǎng)絡(luò),則其t時刻的狀態(tài)為一個n維向量:A=[a1,a2…,an]T

故而,網(wǎng)絡(luò)狀態(tài)有2n個狀態(tài);因為Aj(t)(j=1……n)可以取值為1或0;故n維向量A(t)有2n種狀態(tài),即是網(wǎng)絡(luò)狀態(tài)。26精選課件ppt2.2DHNN對于三個神經(jīng)元的離散Hopfield網(wǎng)絡(luò),它的輸出層就是三位二進制數(shù);每一個三位二進制數(shù)就是一種網(wǎng)絡(luò)狀態(tài),從而共有8個網(wǎng)絡(luò)狀態(tài)。這些網(wǎng)絡(luò)狀態(tài)如圖所示。在圖中,立方體的每一個頂角表示一種網(wǎng)絡(luò)狀態(tài)。同理,對于n個神經(jīng)元的輸出層,它有2n個網(wǎng)絡(luò)狀態(tài),也和一個n維超立方體的頂角相對應(yīng)。27精選課件ppt2.2DHNN如果Hopfield網(wǎng)絡(luò)是一個穩(wěn)定網(wǎng)絡(luò),那么在網(wǎng)絡(luò)的輸入端加入一個輸入向量,則網(wǎng)絡(luò)的狀態(tài)會產(chǎn)生變化,也就是從超立方體的一個頂角轉(zhuǎn)移向另一個頂角,并且最終穩(wěn)定于一個特定的頂角。28精選課件ppt2.2DHNNDHNN取b=0,wii=0權(quán)矩陣中有wij=wji29精選課件ppt2.2DHNNDHNN網(wǎng)絡(luò)結(jié)構(gòu)可以用一個加權(quán)向量圖表示30精選課件ppt穩(wěn)定狀態(tài)若網(wǎng)絡(luò)從某一時刻以后,狀態(tài)不再發(fā)生變化,則稱網(wǎng)絡(luò)處于穩(wěn)定狀態(tài)網(wǎng)絡(luò)為對稱連接,即;神經(jīng)元自身無連接能量函數(shù)在網(wǎng)絡(luò)運行中不斷降低,最后達到穩(wěn)定31精選課件ppt網(wǎng)絡(luò)中神經(jīng)元能量函數(shù)變化量Hopfield網(wǎng)絡(luò)狀態(tài)向著能量函數(shù)減小的方向演化。由于能量函數(shù)有界,所以系統(tǒng)必然會趨于穩(wěn)定狀態(tài)。32精選課件ppt2.3CHNN將霍普菲爾德網(wǎng)絡(luò)推廣到輸入和輸出都取連續(xù)數(shù)值的情形網(wǎng)絡(luò)的基本結(jié)構(gòu)不變,狀態(tài)輸出方程形式上也相同。則網(wǎng)絡(luò)的狀態(tài)轉(zhuǎn)移方程可寫為33精選課件ppt2.3CHNN神經(jīng)元的激活函數(shù)f為S型的函數(shù)(或線性飽和函數(shù))34精選課件ppt2.3CHNN神經(jīng)元的激活函數(shù)f為S型的函數(shù)(或線性飽和函數(shù))35精選課件ppt2.4聯(lián)想記憶與優(yōu)化計算聯(lián)想記憶問題穩(wěn)定狀態(tài)已知并且通過學(xué)習(xí)和設(shè)計算法尋求合適的權(quán)值矩陣將穩(wěn)定狀態(tài)存儲到網(wǎng)絡(luò)中優(yōu)化計算權(quán)值矩陣W已知,目的為尋找具有最小能量E的穩(wěn)定狀態(tài)主要工作為設(shè)計相應(yīng)的W和能量函數(shù)公式36精選課件ppt三、DHNN3.1神經(jīng)元狀態(tài)更新方式3.2網(wǎng)絡(luò)學(xué)習(xí)3.3網(wǎng)絡(luò)記憶容量3.4權(quán)值設(shè)計37精選課件ppt3.1狀態(tài)更新由-1變?yōu)?;由1變?yōu)?1;狀態(tài)保持不變串行異步方式任意時刻隨機地或確定性地選擇網(wǎng)絡(luò)中的一個神經(jīng)元進行狀態(tài)更新,而其余神經(jīng)元的狀態(tài)保持不變38精選課件ppt3.1狀態(tài)更新串行異步方式任一時刻,網(wǎng)絡(luò)中只有一個神經(jīng)元被選擇進行狀態(tài)更新或保持,所以異步狀態(tài)更新的網(wǎng)絡(luò)從某一初態(tài)開始需經(jīng)過多次更新狀態(tài)后才可以達到某種穩(wěn)態(tài)。實現(xiàn)上容易,每個神經(jīng)元有自己的狀態(tài)更新時刻,不需要同步機制;異步狀態(tài)更新更接近實際的生物神經(jīng)系統(tǒng)的表現(xiàn)并行同步方式任意時刻網(wǎng)絡(luò)中部分神經(jīng)元(比如同一層的神經(jīng)元)的狀態(tài)同時更新。如果任意時刻網(wǎng)絡(luò)中全部神經(jīng)元同時進行狀態(tài)更新,那么稱之為全并行同步方式39精選課件ppt3.2網(wǎng)絡(luò)學(xué)習(xí)聯(lián)想記憶聯(lián)想記憶功能是DHNN的一個重要應(yīng)用范圍。反饋網(wǎng)絡(luò)實現(xiàn)聯(lián)想記憶必須具備的兩個基本條件網(wǎng)絡(luò)能收斂到穩(wěn)定的平衡狀態(tài),并以其作為樣本的記憶信息;具有回憶能力,能夠從某一殘缺的信息回憶起所屬的完整的記憶信息學(xué)習(xí)目的具有q個不同的輸入樣本組Pr×q=[P1,P2…Pq]通過學(xué)習(xí)方式調(diào)節(jié)計算有限的權(quán)值矩陣W以每一組輸入樣本Pk,k=1,2,…,q作為系統(tǒng)的初始值經(jīng)過網(wǎng)絡(luò)工作運行后,系統(tǒng)能收斂到各自輸入樣本矢量本身40精選課件ppt3.2網(wǎng)絡(luò)學(xué)習(xí)DHNN中運用海布調(diào)節(jié)規(guī)則(hebb)海布法則是一種無指導(dǎo)的死記式學(xué)習(xí)算法當(dāng)神經(jīng)元輸入與輸出節(jié)點的狀態(tài)相同(即同時興奮或抑制)時,從第j個到第i個神經(jīng)元之間的連接強度則增強,否則減弱當(dāng)k=1時,對于第i個神經(jīng)元,由海布學(xué)習(xí)規(guī)則可得網(wǎng)絡(luò)權(quán)值對輸入矢量的學(xué)習(xí)關(guān)系式為其中,α>0,i=1,2…,r;j=1,2…,r。在實際學(xué)習(xí)規(guī)則的運用中,一般取α=1或1/r41精選課件ppt3.2網(wǎng)絡(luò)學(xué)習(xí)當(dāng)k由1增加到2,直至q時,是在原有己設(shè)計出的權(quán)值的基礎(chǔ)上,增加一個新量pjkpik,k=2…,q對網(wǎng)絡(luò)所有輸入樣本記憶權(quán)值的設(shè)計公式為其中,α>0,i=1,2…,r;j=1,2…,r。在實際學(xué)習(xí)規(guī)則的運用中,一般取α=1或1/r42精選課件ppt3.2網(wǎng)絡(luò)學(xué)習(xí)向量形式表示α=1時神經(jīng)網(wǎng)絡(luò)工具箱中采用海布公式求解網(wǎng)絡(luò)權(quán)矩陣變化的函數(shù)為learnh.m和learnhd.m。后者為帶有衰減學(xué)習(xí)速率的函數(shù)dW=1earnh(P,A,lr)dW=learnhd(W,P,A,lr,dr);對于簡單的情況,lr可以選擇1;對于復(fù)雜的應(yīng)用,可取lr=0.1~0.5,dr=lr/343精選課件ppt3.2網(wǎng)絡(luò)學(xué)習(xí)簡單驗證q=1,α=l求出的權(quán)值wij是否能夠保證ai=pi?對于第i個輸出節(jié)點,有44精選課件ppt3.3記憶容量設(shè)計DHNN網(wǎng)絡(luò)的目的,是希望通過所設(shè)計的權(quán)值矩陣W儲存多個期望模式當(dāng)網(wǎng)絡(luò)只記憶一個穩(wěn)定模式時,該模式肯定被網(wǎng)絡(luò)準(zhǔn)確無誤地記憶住,即所設(shè)計的W值一定能夠滿足正比于輸入和輸出矢量的乘積關(guān)系但當(dāng)需要記憶的模式增多時,網(wǎng)絡(luò)記憶可能出現(xiàn)問題權(quán)值移動交叉干擾45精選課件ppt3.3記憶容量在網(wǎng)絡(luò)的學(xué)習(xí)過程中,網(wǎng)絡(luò)對記憶樣本輸入T1,T2…,Tq的權(quán)值學(xué)習(xí)記憶實際上是逐個實現(xiàn)的。即對權(quán)值W,有程序:W=0fork=l…qW=W+Tk(Tk)T-Iend46精選課件ppt3.3記憶容量由此過程可知:當(dāng)k=1時,有此時,網(wǎng)絡(luò)準(zhǔn)確的記住了樣本T1

47精選課件ppt3.3記憶容量權(quán)值移動當(dāng)k=2時,為了記憶樣本T2,需要在記憶了樣本Tl的權(quán)值上加上對樣本T2的記憶項T2(T2)T-I,將權(quán)值在原來值的基礎(chǔ)上產(chǎn)生了移動由于在學(xué)習(xí)樣本T2時,權(quán)矩陣W是在已學(xué)習(xí)了T1的基礎(chǔ)上進行修正的,W起始值不再為零,所以由此調(diào)整得出的新的W值,對記憶樣本T2來說,也未必對所有的s個輸出同時滿足符號函數(shù)的條件,即難以保證網(wǎng)絡(luò)對T2的精確的記憶48精選課件ppt3.3記憶容量權(quán)值移動隨著學(xué)習(xí)樣本數(shù)k的增加,權(quán)值移動現(xiàn)象將進一步發(fā)生,當(dāng)學(xué)習(xí)了第q個樣本Tq后,權(quán)值又在前q-1個樣本修正的基礎(chǔ)上產(chǎn)生了移動,這也是網(wǎng)絡(luò)在精確的學(xué)習(xí)了第一個樣本后的第q-1次移動對已記憶的樣本發(fā)生遺忘,這種現(xiàn)象被稱為“疲勞”49精選課件ppt3.3記憶容量在此情況下,所求出的新的W為:wij=tj1ti1+tj2ti2,對于樣本T1來說,網(wǎng)絡(luò)的輸出為:此輸出有可能不再對所有的s個輸出均滿足加權(quán)輸入和與輸出符號一致的條件。網(wǎng)絡(luò)有可能部分地遺忘了以前已記憶住的模式。50精選課件ppt3.3記憶容量交叉干擾設(shè)輸入矢量P維數(shù)為r×q,取α=1/r。Pk∈{-1,1},所以pjk*pjk=1。當(dāng)網(wǎng)絡(luò)某個矢量Pl,l∈[1,q],作為網(wǎng)絡(luò)的輸入矢量時,可得網(wǎng)絡(luò)的加權(quán)輸入和nil為上式右邊中第一項為期望記憶的樣本,而第二項則是當(dāng)網(wǎng)絡(luò)學(xué)習(xí)多個樣本時,在回憶階段即驗證該記憶樣本時,所產(chǎn)生的相互干擾,稱為交叉干擾項51精選課件ppt3.3記憶容量有效容量從對網(wǎng)絡(luò)的記憶容量產(chǎn)生影響的權(quán)值移動和交叉干擾上看,采用海布學(xué)習(xí)法則對網(wǎng)絡(luò)記憶樣本的數(shù)量是有限制的通過上面的分析已經(jīng)很清楚地得知,當(dāng)交叉干擾項值大于正確記憶值時,將產(chǎn)生錯誤輸出在什么情況下,能夠保證記憶住所有樣本?當(dāng)所期望記憶的樣本是兩兩正交時,能夠準(zhǔn)確得到一個可記憶數(shù)量的上限值52精選課件ppt3.3記憶容量有效容量的上界正交特性神經(jīng)元為二值輸出的情況下,即Pj∈{-1,1},當(dāng)兩個r維樣本矢量的各個分量中,有r/2是相同,r/2是相反。對于任意一個數(shù)l,l∈[1,q],有Pl(Pk)T=0,l≠k;而有Pl(Pl)T=r,l=k53精選課件ppt3.3記憶容量用外積和公式所得到的權(quán)矩陣進行迭代計算,在輸入樣本Pk,k=1,2…,q中任取Pl為初始輸入,求網(wǎng)絡(luò)加權(quán)輸出和Nl

只要滿足,r>q,則有sgn(Nl)=Pl保證Pl為網(wǎng)絡(luò)的穩(wěn)定解54精選課件ppt3.4權(quán)值設(shè)計的其它方法δ學(xué)習(xí)規(guī)則:通過計算每個神經(jīng)元節(jié)點的實際激活值A(chǔ)(t),與期望狀態(tài)T(t)進行比較,若不滿足要求,則將二者的誤差的一部分作為調(diào)整量,若滿足要求,則相應(yīng)的權(quán)值保持不變55精選課件ppt3.4權(quán)值設(shè)計的其它方法偽逆法對于輸入樣本P=[P1P2…Pq],設(shè)網(wǎng)絡(luò)輸出可以寫成一個與輸入樣本相對應(yīng)的矩陣A,輸入和輸出之間可用一個權(quán)矩陣W來映射,即有:W*P=N,A=sgn(N),由此可得W=N*P*

其中P*為P的偽逆,有P*=(PTP)-1PT如果樣本之間是線性無關(guān)的,則PTP滿秩,其逆存在,則可求出權(quán)矩陣W但當(dāng)記憶樣本之間是線性相關(guān)的,由海布法所設(shè)計出的網(wǎng)絡(luò)存在的問題,偽逆法也解決不了,甚至無法求解,相比之下,由于存在求逆等運算,偽逆法較為繁瑣,而海布法則要容易求得多56精選課件ppt四、TSP問題求解所謂TSP(TravelingSalesmanProblem)問題,即“旅行商問題”是一個十分有名的難以求解的優(yōu)化問題,其要求很簡單:在n個城市的集合中,找出一條經(jīng)過每個城市各一次,最終回到起點的最短路徑問題描述如果已知城市A,B,C,D,…,之間的距離為dAB,dBC,dCD…;那么總的距離d=dAB+dBC+dCD+…,對于這種動態(tài)規(guī)化問題,要去求其min(d)的解對于n個城市的全排列共有n!種,而TSP并沒有限定路徑的方向,即為全組合,所以對于固定的城市數(shù)n

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論