神經(jīng)網(wǎng)絡(luò)計算建模講義解析新版課件_第1頁
神經(jīng)網(wǎng)絡(luò)計算建模講義解析新版課件_第2頁
神經(jīng)網(wǎng)絡(luò)計算建模講義解析新版課件_第3頁
神經(jīng)網(wǎng)絡(luò)計算建模講義解析新版課件_第4頁
神經(jīng)網(wǎng)絡(luò)計算建模講義解析新版課件_第5頁
已閱讀5頁,還剩259頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

第一部分神經(jīng)元模型及神經(jīng)網(wǎng)絡(luò)基礎(chǔ);第二部分BP神經(jīng)網(wǎng)絡(luò);第三部分徑向基函數(shù)網(wǎng)絡(luò);第四部分Hopfield網(wǎng)絡(luò)。

授課內(nèi)容授課內(nèi)容1第一部分神經(jīng)元模型(BiologicalNeuralNetworks);神經(jīng)網(wǎng)絡(luò)基礎(chǔ)(ArtificialNeuralNetworks);第一部分神經(jīng)元模型2人工神經(jīng)元幾何模型(M-P模型)返回人工神經(jīng)元幾何模型(M-P模型)返回3人工神經(jīng)元的代數(shù)表達(dá)式及其簡化形式其中,人工神經(jīng)元的代數(shù)表達(dá)式及其簡化形式其中,4活化函數(shù)的類型1、符號函數(shù)活化函數(shù)的類型1、符號函數(shù)5活化函數(shù)的類型2、Sigmoid函數(shù)活化函數(shù)的類型2、Sigmoid函數(shù)6人工神經(jīng)網(wǎng)絡(luò)的定義

(ArtificialNeuralNetworks,ANN)人工神經(jīng)網(wǎng)絡(luò)是由大量簡單的處理單元--神經(jīng)元(Neurons)相互連接而構(gòu)成的網(wǎng)絡(luò),是對人腦的抽象、簡化和模擬,反映了人腦的信息處理功能??捎糜诮鉀Q模式識別、函數(shù)逼近和數(shù)據(jù)壓縮等問題。返回人工神經(jīng)網(wǎng)絡(luò)的定義

(ArtificialNeuralN7給出用BP網(wǎng)絡(luò)求解XOR問題的C語言或MATLAB源程序。設(shè)計一個BP網(wǎng)絡(luò)對上圖中的英文字母進(jìn)行分類。根據(jù)公式反復(fù)迭代,直至網(wǎng)絡(luò)中所有神經(jīng)元的狀態(tài)不再改變;可用于解決模式識別、函數(shù)逼近和數(shù)據(jù)壓縮等問題。把要存儲的模式由bmp類型的文件轉(zhuǎn)化成1和-1形式的二進(jìn)制向量;若,則活化函數(shù)選為雙曲正切函數(shù)(其中β=0.訓(xùn)練次數(shù)多,收斂速度慢;用Hopfield網(wǎng)絡(luò)做圖像恢復(fù)帶隱層的感知器能對XOR問題進(jìn)行正確分而解決非線性回歸問題時,通常選擇線性輸出層。初始權(quán)值通常選為接近于0的隨機數(shù)。但是對于某些實際問題,更多的隱層可能會使總的神經(jīng)元個數(shù)減少,從而得到更有效的神經(jīng)網(wǎng)絡(luò)。初值可能使系統(tǒng)過早地陷入飽和區(qū)(例如對于用徑向基函數(shù)(RBF)作為隱單元的“基”,構(gòu)成隱層空間,隱層對輸入矢量進(jìn)行變換,將低維的模式輸入數(shù)據(jù)變換到高維空間內(nèi),使得在低維空間內(nèi)線性不可分問題在高維空間線性可分。分類問題中常用的邊界判決曲線(4)用各種狀態(tài)樣本組成訓(xùn)練樣本,輸入網(wǎng)絡(luò),對網(wǎng)絡(luò)進(jìn)行訓(xùn)練,確定各單元的連接權(quán)值。利用梯度法,求下面關(guān)于誤差函數(shù)Hopfield網(wǎng)絡(luò)用于求解CTSP問題人工神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)

具有一個隱層的前饋網(wǎng)絡(luò)

單層全連接反饋網(wǎng)絡(luò)

給出用BP網(wǎng)絡(luò)求解XOR問題的C語言或MATLAB源程序。人8神經(jīng)網(wǎng)絡(luò)的特性魯棒性(容錯)并行計算自我學(xué)習(xí)硬件實現(xiàn)求滿意解神經(jīng)網(wǎng)絡(luò)的特性魯棒性(容錯)9神經(jīng)網(wǎng)絡(luò)的三要素

網(wǎng)絡(luò)結(jié)構(gòu);信息流動規(guī)則;權(quán)值學(xué)習(xí)規(guī)則。神經(jīng)網(wǎng)絡(luò)的三要素網(wǎng)絡(luò)結(jié)構(gòu);10(LinearAssociativeMemory,LAM)(5)用訓(xùn)練好的網(wǎng)絡(luò)對待檢測對象進(jìn)行狀態(tài)識別,即把待檢測對象的特征參數(shù)作為網(wǎng)絡(luò)輸入,根據(jù)網(wǎng)絡(luò)輸出確定待檢對象的狀態(tài)類別。第二部分BP神經(jīng)網(wǎng)絡(luò);但是對于某些實際問題,更多的隱層可能會使總的神經(jīng)元個數(shù)減少,從而得到更有效的神經(jīng)網(wǎng)絡(luò)。由單個神經(jīng)元組成的單層神經(jīng)網(wǎng)絡(luò)只能完成線性可分的兩類模式的識別;用Hopfield網(wǎng)絡(luò)做圖像恢復(fù)第二部分BP神經(jīng)網(wǎng)絡(luò);應(yīng)用BP神經(jīng)網(wǎng)絡(luò)建立時間序列人口預(yù)測模型,檢驗預(yù)測效果,我國1994-2005年人口數(shù)據(jù)如表所示:用Hopfield網(wǎng)絡(luò)做圖像恢復(fù)RBF網(wǎng)絡(luò)結(jié)構(gòu)簡單、訓(xùn)練簡潔、學(xué)習(xí)收斂速度快,能夠逼近任意非線性函數(shù),應(yīng)用十分廣泛。(4)用各種狀態(tài)樣本組成訓(xùn)練樣本,輸入網(wǎng)絡(luò),對網(wǎng)絡(luò)進(jìn)行訓(xùn)練,確定各單元的連接權(quán)值。用徑向基函數(shù)(RBF)作為隱單元的“基”,構(gòu)成隱層空間,隱層對輸入矢量進(jìn)行變換,將低維的模式輸入數(shù)據(jù)變換到高維空間內(nèi),使得在低維空間內(nèi)線性不可分問題在高維空間線性可分。當(dāng)輸入樣本向量標(biāo)準(zhǔn)正交,且時,有輸入樣本向量的各個分量有時在數(shù)量級上差異較大,若不進(jìn)行適當(dāng)?shù)奶幚恚瑪?shù)量級大的分量可能完全湮沒其它分量的作用。給出其期望輸出;世界人口的迅猛增長引發(fā)了許多問題?;谏窠?jīng)網(wǎng)絡(luò)的人口預(yù)測隱層一般為1層,問題復(fù)雜時可取2層,隱層單元數(shù)的選擇原則目前尚無理論依據(jù),可根據(jù)問題規(guī)模大小憑經(jīng)驗確定。強化學(xué)習(xí)(ReinforcementLearning)感知器是用于線性可分模式分類的最簡單的神經(jīng)網(wǎng)絡(luò)模型;給出用BP網(wǎng)絡(luò)求解XOR問題的C語言或MATLAB源程序。初值可能使系統(tǒng)過早地陷入飽和區(qū)(例如對于神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)方式有教師學(xué)習(xí)(Learningwithateacher)無教師學(xué)習(xí)(Learningwithoutateacher)自組織學(xué)習(xí)(Self-OrganizedLearning)強化學(xué)習(xí)(ReinforcementLearning)(LinearAssociativeMemory,LA11神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)規(guī)則Hebb學(xué)習(xí)誤差糾正學(xué)習(xí)競爭(Competitive)學(xué)習(xí)隨機學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)規(guī)則Hebb學(xué)習(xí)12神經(jīng)網(wǎng)絡(luò)的應(yīng)用語音、視覺、知識處理數(shù)據(jù)壓縮、模式匹配、系統(tǒng)建模、模糊控制、求組合優(yōu)化問題最佳解的近似解輔助決策——預(yù)報與智能管理通信——自適應(yīng)均衡、回波抵消、路由選擇、ATM中的呼叫接納、識別與控制空間科學(xué)——對接、導(dǎo)航、制導(dǎo)、飛行程序優(yōu)化神經(jīng)網(wǎng)絡(luò)的應(yīng)用語音、視覺、知識處理13分類問題兩大任務(wù)用已知樣本確定分類判決曲線;根據(jù)分類曲線對樣本進(jìn)行歸類。分類問題兩大任務(wù)用已知樣本確定分類判決曲線;14分類問題中常用的邊界判決曲線直線

劃分區(qū)域:上下或左右。分類問題中常用的邊界判決曲線直線15分類問題中常用的邊界判決曲線

圓劃分區(qū)域:內(nèi)與外。分類問題中常用的邊界判決曲線圓16線性可分問題線性可分問題17線性不可分問題線性不可分問題18兩類模式分類器——

符號函數(shù)兩類模式分類器——符號函數(shù)19分類問題舉例邏輯“與”

有解,可取:

或:分類問題舉例邏輯“與”20分類問題舉例邏輯“或”

有解,可取:

或:分類問題舉例邏輯“或”21權(quán)矩陣W的選取標(biāo)準(zhǔn)2)變?yōu)殛P(guān)于的線性方程組,其系數(shù)矩陣為方陣,通??赡妫虼擞形ㄒ唤?。軸承故障診斷實例,利用BP神經(jīng)網(wǎng)絡(luò)對石油鉆井的絞車及傳動機組滾動軸承進(jìn)行故障診斷,能夠在軸承早期故障時發(fā)出預(yù)警信號,提前對將要發(fā)生故障的軸承進(jìn)行維修或更換,縮短停工停產(chǎn)時間和減少維修費用,從而使石油生產(chǎn)損失減少到最低,保證石油生產(chǎn)順利安全進(jìn)行。Hopfield網(wǎng)絡(luò)的應(yīng)用領(lǐng)域應(yīng)用BP神經(jīng)網(wǎng)絡(luò)建立時間序列人口預(yù)測模型,檢驗預(yù)測效果,我國1994-2005年人口數(shù)據(jù)如表所示:BP算法流程圖(在線)權(quán)系數(shù)求解方法選用2004、2005年的數(shù)據(jù)為檢驗樣本。初始權(quán)值通常選為接近于0的隨機數(shù)。寬度均?。?。我們曾利用BP網(wǎng)絡(luò)來預(yù)測上海股市綜合指數(shù)的漲跌。當(dāng)時,可以簡單地令,反復(fù)迭代,直至收斂,得到最后的輸出模式,作為輸入模式的聯(lián)想.3、將按距離遠(yuǎn)近向聚類,方法為:設(shè)計一個BP網(wǎng)絡(luò)對上圖中的英文字母進(jìn)行分類。第一個輸出單元的輸出為:帶隱層的感知器能對XOR問題進(jìn)行正確分輸入層單元數(shù)由特征參數(shù)個數(shù)決定;一般地,隱單元的個數(shù)越多,對樣本集的學(xué)習(xí)精度就越高,而推廣(即將網(wǎng)絡(luò)應(yīng)用于未經(jīng)學(xué)習(xí)的輸入向量)能力就越差。利用梯度法,求下面關(guān)于誤差函數(shù)感知器是用于線性可分模式分類的最簡單的神經(jīng)網(wǎng)絡(luò)模型;3、將按距離遠(yuǎn)近向聚類,分成P組。分類問題舉例邏輯“異或”

無解。權(quán)矩陣W的選取標(biāo)準(zhǔn)分類問題舉例邏輯“異或”22自適應(yīng)線性(AdaptiveLinear)感知器輸入求和符號函數(shù)輸出自適應(yīng)線性(AdaptiveLinear)感知器輸入求和23單層感知器學(xué)習(xí)算法1、對各初始權(quán)值賦較小的非零隨機數(shù);2、對于輸入樣本向量,給出其期望輸出;3、網(wǎng)絡(luò)輸入樣本向量后,計算實際輸出4、修改權(quán)值向量其中,學(xué)習(xí)率。5、判斷是否滿足終止條件,若滿足學(xué)習(xí)結(jié)束,否則轉(zhuǎn)3。單層感知器學(xué)習(xí)算法1、對各初始權(quán)值24單層感知器收斂定理對于線性可分的兩類模式,單層感知器學(xué)習(xí)算法是收斂的。單層感知器收斂定理對于線性可分的兩類模式,單層感知器25小結(jié)感知器是用于線性可分模式分類的最簡單的神經(jīng)網(wǎng)絡(luò)模型;由單個神經(jīng)元組成的單層神經(jīng)網(wǎng)絡(luò)只能完成線性可分的兩類模式的識別;帶隱層的感知器能對XOR問題進(jìn)行正確分類。小結(jié)感知器是用于線性可分模式分類的最簡單的神經(jīng)網(wǎng)絡(luò)模26課外作業(yè)試畫出單層感知器的學(xué)習(xí)算法框圖,并用C語言或MATLAB寫出單層感知器關(guān)于邏輯“或”運算的學(xué)習(xí)算法程序。課外作業(yè)試畫出單層感知器的學(xué)習(xí)算法框圖,并用C語言或MATL27小結(jié)感知器是用于線性可分模式分類的最簡單的神經(jīng)網(wǎng)絡(luò)模型;由單個神經(jīng)元組成的單層神經(jīng)網(wǎng)絡(luò)只能完成線性可分的兩類模式的識別;帶隱層的感知器能對XOR問題進(jìn)行正確分類。小結(jié)感知器是用于線性可分模式分類的最簡單的神經(jīng)網(wǎng)絡(luò)模28例一例一29例二例二30課堂作業(yè)試畫出單層感知器的學(xué)習(xí)算法框圖。某神經(jīng)網(wǎng)絡(luò)的活化函數(shù)為符號函數(shù),學(xué)習(xí)率,初始權(quán)向量,兩對輸入樣本為:試用感知器算法對上述樣本反復(fù)訓(xùn)練,直至網(wǎng)絡(luò)輸出誤差為零。并寫出分類判決直線。課堂作業(yè)試畫出單層感知器的學(xué)習(xí)算法框圖。31BP

網(wǎng)絡(luò)BP網(wǎng)絡(luò)32信息輸入若則信息輸入若則33有三個穩(wěn)定存儲模式的聯(lián)想記憶設(shè)網(wǎng)絡(luò)中已經(jīng)存儲了個樣本模式理想輸出向量組成的矩陣:Hopfield神經(jīng)網(wǎng)絡(luò)手寫ZIP碼的識別當(dāng)時,可以簡單地令,競爭(Competitive)學(xué)習(xí)試畫出單層感知器的學(xué)習(xí)算法框圖。若,則令:.若,則令:.1、試構(gòu)造線性聯(lián)想權(quán)值矩陣;對于線性可分的兩類模式,單層感知器第二部分BP神經(jīng)網(wǎng)絡(luò);適合用RBF網(wǎng)絡(luò)求解的分類問題使用均值聚類算法求高斯函數(shù)中心;試用感知器算法對上述樣本反復(fù)訓(xùn)練,直至網(wǎng)絡(luò)輸出誤差為零。其中,是類中樣本的個數(shù);第四部分Hopfield網(wǎng)絡(luò)。3、將按距離遠(yuǎn)近向聚類,方法為:插點問題可由下表給出:2、隨機選取樣本向量.設(shè)計一個BP網(wǎng)絡(luò)對上圖中的英文字母進(jìn)行分類。信息輸出有三個穩(wěn)定存儲模式的聯(lián)想記憶信息輸出34神經(jīng)元的輸入與輸出神經(jīng)元的輸入與輸出35梯度法函數(shù)在點處的梯度為梯度法函數(shù)在點處36梯度法用梯度法求的極小值。迭代公式為學(xué)習(xí)率。梯度法用梯度法求的37XOR分類問題解析XOR分類問題解析38把問題轉(zhuǎn)化為:求平方誤差函數(shù)的極小值;使用梯度法,推導(dǎo)出權(quán)值迭代公式;權(quán)值獲得,網(wǎng)絡(luò)分類器實現(xiàn),問題解決。BP網(wǎng)絡(luò)解決分類問題的基本思想把問題轉(zhuǎn)化為:求平方誤差函數(shù)的極小值;BP網(wǎng)絡(luò)解決分類問題39BP(BackPropagation)網(wǎng)絡(luò)BP(BackPropagation)網(wǎng)絡(luò)40Hopfield神經(jīng)網(wǎng)絡(luò)輸入樣本向量組成的矩陣:RBF網(wǎng)絡(luò)的隱層是非線性的,輸出層是線性的,而用MLP解決模式分類問題時,它的隱層與輸出層通常選非線性的。競爭(Competitive)學(xué)習(xí)輸入樣本向量組成的矩陣:其中,是類中樣本的個數(shù);單層全連接反饋網(wǎng)絡(luò)(1)抽取反映被檢測對象(設(shè)備、部件或零件等)的特征參數(shù),如(x1,x2,.但是對于某些實際問題,更多的隱層可能會使總的神經(jīng)元個數(shù)減少,從而得到更有效的神經(jīng)網(wǎng)絡(luò)。標(biāo)準(zhǔn)BP算法的改進(jìn)有三個穩(wěn)定存儲模式的聯(lián)想記憶標(biāo)準(zhǔn)BP算法的改進(jìn)第一部分神經(jīng)元模型及神經(jīng)網(wǎng)絡(luò)基礎(chǔ);初值可能使系統(tǒng)過早地陷入飽和區(qū)(例如對于給出用BP網(wǎng)絡(luò)求解XOR問題的C語言或MATLAB源程序。用徑向基函數(shù)(RBF)作為隱單元的“基”,構(gòu)成隱層空間,隱層對輸入矢量進(jìn)行變換,將低維的模式輸入數(shù)據(jù)變換到高維空間內(nèi),使得在低維空間內(nèi)線性不可分問題在高維空間線性可分。5、若新舊相差很小,則停止.否則轉(zhuǎn)2.用Hopfield網(wǎng)絡(luò)做圖像恢復(fù)第一個輸出單元的輸入為:易形成局部極小而得不到全局最優(yōu)解;但是對于某些實際問題,更多的隱層可能會使總的神經(jīng)元個數(shù)減少,從而得到更有效的神經(jīng)網(wǎng)絡(luò)。給出用BP網(wǎng)絡(luò)求解XOR問題的C語言或MATLAB源程序。權(quán)值迭代公式推導(dǎo)Hopfield神經(jīng)網(wǎng)絡(luò)權(quán)值迭代公式推導(dǎo)41BP網(wǎng)絡(luò)簡化拓?fù)鋱D形BP網(wǎng)絡(luò)簡化拓?fù)鋱D形42信息流動方式對于輸入樣本向量:第一個隱單元的輸入為:權(quán)向量:第一個隱單元的輸出為:信息流動方式對于輸入樣本向量:第一個隱單元的輸入為:權(quán)向量:43信息流動方式對于隱層各單元的輸出:第一個輸出單元的輸入為:權(quán)向量:第一個輸出單元的輸出為:信息流動方式對于隱層各單元的輸出:第一個輸出單元的輸入為:權(quán)44誤差函數(shù)誤差函數(shù)45梯度法(GradientMethod)誤差函數(shù)權(quán)值迭代公式

其中,

梯度法(GradientMethod)誤差函數(shù)權(quán)值迭代公式46修改權(quán)值梯度法

其中,為學(xué)習(xí)率,而

修改權(quán)值梯度法 其中,為學(xué)習(xí)率,而47修改權(quán)值梯度法

其中,修改權(quán)值梯度法 其中,48BP算法流程圖(批方式)BP算法流程圖(批方式)49BP

網(wǎng)絡(luò)用于求解XOR問題BP網(wǎng)絡(luò)用于求解XOR問題50課外作業(yè)給出用BP網(wǎng)絡(luò)求解XOR問題的C語言或MATLAB源程序。課外作業(yè)給出用BP網(wǎng)絡(luò)求解XOR問題的C語言或MATLAB源51在線梯度法權(quán)值增量公式

在線梯度法權(quán)值增量公式 522、對于輸入樣本向量,因此,在滿足樣本學(xué)習(xí)精度的前提下,隱節(jié)點個數(shù)應(yīng)該盡可能地小。第一個隱單元的輸出為:適合用RBF網(wǎng)絡(luò)求解的分類問題標(biāo)準(zhǔn)BP算法的改進(jìn)(5)用訓(xùn)練好的網(wǎng)絡(luò)對待檢測對象進(jìn)行狀態(tài)識別,即把待檢測對象的特征參數(shù)作為網(wǎng)絡(luò)輸入,根據(jù)網(wǎng)絡(luò)輸出確定待檢對象的狀態(tài)類別。(RadialBasisFunction,RBF)第三部分徑向基函數(shù)網(wǎng)絡(luò);劃分區(qū)域:上下或左右。(2)對被檢測對象的狀態(tài)類別進(jìn)行編碼。帶隱層的感知器能對XOR問題進(jìn)行正確分均值聚類算法Ⅰ單層全連接反饋網(wǎng)絡(luò)或:若活化函數(shù)為Sigmoid函數(shù),則可以選取適當(dāng)?shù)碾[單元個數(shù)及權(quán)值,使得BP網(wǎng)絡(luò)能夠以任意的精度逼近一個給定的連續(xù)函數(shù).(RadialBasisFunction,RBF)5、若新舊相差很小,則停止.否則轉(zhuǎn)2.可用于解決模式識別、函數(shù)逼近和數(shù)據(jù)壓縮等問題。RBF網(wǎng)絡(luò)的原理及特點但是對于某些實際問題,更多的隱層可能會使總的神經(jīng)元個數(shù)減少,從而得到更有效的神經(jīng)網(wǎng)絡(luò)。用Hopfield網(wǎng)絡(luò)做圖像恢復(fù)BP算法流程圖(在線)2、對于輸入樣本向量,BP算法流程圖(在線)53BP網(wǎng)絡(luò)的逼近能力若活化函數(shù)為Sigmoid函數(shù),則可以選取適當(dāng)?shù)碾[單元個數(shù)及權(quán)值,使得BP網(wǎng)絡(luò)能夠以任意的精度逼近一個給定的連續(xù)函數(shù).BP網(wǎng)絡(luò)的逼近能力若活化函數(shù)為Sigmoid函54隱層的個數(shù)從理論上講,多于一個隱層的前向網(wǎng)絡(luò)是沒有必要的。但是對于某些實際問題,更多的隱層可能會使總的神經(jīng)元個數(shù)減少,從而得到更有效的神經(jīng)網(wǎng)絡(luò)。隱層的個數(shù)從理論上講,多于一個隱層的前向網(wǎng)絡(luò)是沒有必要的。55隱單元的個數(shù)一般地,隱單元的個數(shù)越多,對樣本集的學(xué)習(xí)精度就越高,而推廣(即將網(wǎng)絡(luò)應(yīng)用于未經(jīng)學(xué)習(xí)的輸入向量)能力就越差。因此,在滿足樣本學(xué)習(xí)精度的前提下,隱節(jié)點個數(shù)應(yīng)該盡可能地小。隱單元的個數(shù)一般地,隱單元的個數(shù)越多,對樣本集的學(xué)習(xí)精度就越56多項式逼近多項式逼近57輸入樣本向量預(yù)處理輸入樣本向量的各個分量有時在數(shù)量級上差異較大,若不進(jìn)行適當(dāng)?shù)奶幚恚瑪?shù)量級大的分量可能完全湮沒其它分量的作用。為此在訓(xùn)練開始之前,需對各個分量做相應(yīng)的調(diào)整,使其具有大致相同的數(shù)量級。輸入樣本向量預(yù)處理輸入樣本向量的各個分量有時在數(shù)量級上差異較58輸入樣本向量的各個分量有時在數(shù)量級上差異較大,若不進(jìn)行適當(dāng)?shù)奶幚?,?shù)量級大的分量可能完全湮沒其它分量的作用。為此在訓(xùn)練開始之前,需對各個分量做相應(yīng)的調(diào)整,使其具有大致相同的數(shù)量級。輸入樣本向量預(yù)處理輸入樣本向量的各個分量有時在數(shù)量級上差異較大,若不進(jìn)行適當(dāng)?shù)?9活化函數(shù)

Sigmoid函數(shù)活化函數(shù)Sigmoid函數(shù)60雙曲正切函數(shù)圖像表達(dá)式:雙曲正切函數(shù)圖像表達(dá)式:61取高斯函數(shù),其中心分別為。輸出+1時表示預(yù)測第二天漲,輸出-1時則表示第二天跌.Hopfield網(wǎng)絡(luò)的應(yīng)用領(lǐng)域(RadialBasisFunction,RBF)無教師學(xué)習(xí)(Learningwithoutateacher)給出其期望輸出;訓(xùn)練樣本精度達(dá)到95%左右,而檢驗樣本精度在65-80%之間.插點問題可由下表給出:RBF網(wǎng)絡(luò)的原理及特點Sigmoid函數(shù),當(dāng)較大時,),(LinearAssociativeMemory,LAM)設(shè)計一個BP網(wǎng)絡(luò)對上圖中的英文字母進(jìn)行分類。設(shè)計一個BP網(wǎng)絡(luò)對上圖中的英文字母進(jìn)行分類。1、試構(gòu)造線性聯(lián)想權(quán)值矩陣;對于隱層各單元的輸出:RBF網(wǎng)絡(luò)與多層感知器(MLP)的比較Hopfield神經(jīng)網(wǎng)絡(luò)非線性基函數(shù)非線性基函數(shù)(3)進(jìn)行網(wǎng)絡(luò)設(shè)計,確定網(wǎng)絡(luò)層數(shù)和各層神經(jīng)元數(shù)。給出用BP網(wǎng)絡(luò)求解XOR問題的C語言或MATLAB源程序。其中,是類中樣本的個數(shù);Sigmoid函數(shù)特點

光滑,單調(diào)遞增,上、下有界(稱為飽和性).

導(dǎo)數(shù)值可由其函數(shù)值給出

取高斯函數(shù),其中心分別為。S62初始權(quán)值通常選為接近于0的隨機數(shù)。太大的初值可能使系統(tǒng)過早地陷入飽和區(qū)(例如對于

Sigmoid函數(shù),當(dāng)較大時,),不利于進(jìn)一步學(xué)習(xí).初始權(quán)值的選取初始權(quán)值通常選為接近于0的隨機數(shù)。太大的初始權(quán)值的選取63標(biāo)準(zhǔn)BP算法的不足易形成局部極小而得不到全局最優(yōu)解;訓(xùn)練次數(shù)多,收斂速度慢;隱節(jié)點的選取缺乏理論指導(dǎo);訓(xùn)練時學(xué)習(xí)新樣本有遺忘舊樣本的趨勢。標(biāo)準(zhǔn)BP算法的不足易形成局部極小而得不到全局最優(yōu)解;64標(biāo)準(zhǔn)BP算法的改進(jìn)加動量項其中,學(xué)習(xí)率、動量系數(shù)均在之間選取。標(biāo)準(zhǔn)BP算法的改進(jìn)加動量項其中,學(xué)習(xí)率、動量系數(shù)65標(biāo)準(zhǔn)BP算法的改進(jìn)自適應(yīng)調(diào)整學(xué)習(xí)率其中,是誤差函數(shù)

的改變量,和是適當(dāng)?shù)恼?shù)。標(biāo)準(zhǔn)BP算法的改進(jìn)自適應(yīng)調(diào)整學(xué)習(xí)率其中,是誤差函數(shù)66

BP網(wǎng)絡(luò)應(yīng)用舉例BP網(wǎng)絡(luò)應(yīng)用舉例67手寫ZIP碼的識別手寫ZIP碼的識別68圖像壓縮圖像壓縮69股票預(yù)測我們曾利用BP網(wǎng)絡(luò)來預(yù)測上海股市綜合指數(shù)的漲跌。輸入層有13個單元,包括今日最高、最低及收盤指數(shù),當(dāng)日及三十日平均漲跌值等13個參數(shù).隱層為3-5個單元,輸出層為一個單元.輸出+1時表示預(yù)測第二天漲,輸出-1時則表示第二天跌.活化函數(shù)選為雙曲正切函數(shù)(其中β=0.65),并采用了慣性項.訓(xùn)練時,采用135天的數(shù)據(jù)去生成80個訓(xùn)練樣本、25個檢測樣本進(jìn)行實驗。訓(xùn)練樣本精度達(dá)到95%左右,而檢驗樣本精度在65-80%之間.股票預(yù)測我們曾利用BP網(wǎng)絡(luò)來預(yù)測上海股市綜合指數(shù)的漲跌。輸70作業(yè)設(shè)計一個BP網(wǎng)絡(luò)對上圖中的英文字母進(jìn)行分類。輸入向量含12個分量,輸出單元個數(shù)取1,分別用-1、0和1代表字符A、I、O。訓(xùn)練時可選擇不同的隱節(jié)點數(shù)及不同的學(xué)習(xí)率進(jìn)行對比。作業(yè)設(shè)計一個BP網(wǎng)絡(luò)對上圖中的英文字母進(jìn)71應(yīng)用BP神經(jīng)網(wǎng)絡(luò)進(jìn)行電信業(yè)務(wù)量預(yù)測,并檢驗預(yù)測效果。用Hopfield網(wǎng)絡(luò)做圖像恢復(fù)的選取還應(yīng)該使收斂過程盡可能地快.手寫ZIP碼的識別因此,在滿足樣本學(xué)習(xí)精度的前提下,隱節(jié)點個數(shù)應(yīng)該盡可能地小。軸承故障診斷實例,利用BP神經(jīng)網(wǎng)絡(luò)對石油鉆井的絞車及傳動機組滾動軸承進(jìn)行故障診斷,能夠在軸承早期故障時發(fā)出預(yù)警信號,提前對將要發(fā)生故障的軸承進(jìn)行維修或更換,縮短停工停產(chǎn)時間和減少維修費用,從而使石油生產(chǎn)損失減少到最低,保證石油生產(chǎn)順利安全進(jìn)行。不利于進(jìn)一步學(xué)習(xí).輸出+1時表示預(yù)測第二天漲,輸出-1時則表示第二天跌.RBF網(wǎng)絡(luò)的原理及特點(RadialBasisFunction,RBF)給出用BP網(wǎng)絡(luò)求解XOR問題的C語言或MATLAB源程序。感知器是用于線性可分模式分類的最簡單的神經(jīng)網(wǎng)絡(luò)模型;Hopfield神經(jīng)網(wǎng)絡(luò)(4)用各種狀態(tài)樣本組成訓(xùn)練樣本,輸入網(wǎng)絡(luò),對網(wǎng)絡(luò)進(jìn)行訓(xùn)練,確定各單元的連接權(quán)值。給出用RBF網(wǎng)絡(luò)求解XOR問題的C語言或MATLAB源程序。感知器是用于線性可分模式分類的最簡單的神經(jīng)網(wǎng)絡(luò)模型;或:若活化函數(shù)為Sigmoid函數(shù),則可以選取適當(dāng)?shù)碾[單元個數(shù)及權(quán)值,使得BP網(wǎng)絡(luò)能夠以任意的精度逼近一個給定的連續(xù)函數(shù).初值可能使系統(tǒng)過早地陷入飽和區(qū)(例如對于若,則人工神經(jīng)元幾何模型(M-P模型)當(dāng)輸入模式接近于某一存儲模式時,由(4.徑向基函數(shù)網(wǎng)絡(luò)(RadialBasisFunction,RBF)應(yīng)用BP神經(jīng)網(wǎng)絡(luò)進(jìn)行電信業(yè)務(wù)量預(yù)測,并檢驗預(yù)測效果。徑向基函72假設(shè)給定了一組訓(xùn)練樣本。當(dāng)只取有限個值(例如,取0,1或)時,可以認(rèn)為是分類問題;而當(dāng)可取任意實數(shù)時,則視為逼近問題。網(wǎng)絡(luò)學(xué)習(xí)的任務(wù)就是利用訓(xùn)練樣本來確定基函數(shù)的中心向量和隱層到輸出層的權(quán)系數(shù),使得假設(shè)給定了一組訓(xùn)練樣本73當(dāng)時,可以簡單地令,這時(1.2)變?yōu)殛P(guān)于的線性方程組,其系數(shù)矩陣為方陣,通??赡?,因此有唯一解。實際中更多的情況是.這時,(1.2)一般無解,只能求近似解。

當(dāng)時,可以簡單地令74非線性基函數(shù)若,則非線性基函數(shù)若75高斯基函數(shù)圖形高斯基函數(shù)圖形76非線性基函數(shù)薄板樣條函數(shù):多二次函數(shù):逆多二次函數(shù):非線性基函數(shù)薄板樣條函數(shù):多二次函77均值聚類算法Ⅰ1、給定訓(xùn)練樣本.2、將聚類中心初始化.(例如可選為).3、將按距離遠(yuǎn)近向聚類,分成P組。方法為:若,則令:.4、計算樣本均值,作為新的聚類中心(是類中所含樣本的個數(shù))。5、若新舊相差很小,則停止.否則轉(zhuǎn)3.均值聚類算法Ⅰ1、給定訓(xùn)練樣本78均值聚類算法Ⅱ1、將聚類中心初始化.2、隨機選取樣本向量.3、將按距離遠(yuǎn)近向聚類,方法為:若,則令:.4、調(diào)整樣本中心(是給定的學(xué)習(xí)速率):

5、若新舊相差很小,則停止.否則轉(zhuǎn)2.均值聚類算法Ⅱ1、將聚類中心79其中,是類中樣本的個數(shù)。寬度的選取為隱單元的個數(shù),為所選取中心之間的最大距離。其中,是類80權(quán)系數(shù)求解方法利用梯度法,求下面關(guān)于誤差函數(shù)的極小值利用最小二乘法(偽逆法)通過直接進(jìn)行求解。權(quán)系數(shù)求解方法利用梯度法,求下面關(guān)于81RBF網(wǎng)絡(luò)的原理及特點用徑向基函數(shù)(RBF)作為隱單元的“基”,構(gòu)成隱層空間,隱層對輸入矢量進(jìn)行變換,將低維的模式輸入數(shù)據(jù)變換到高維空間內(nèi),使得在低維空間內(nèi)線性不可分問題在高維空間線性可分。

RBF網(wǎng)絡(luò)結(jié)構(gòu)簡單、訓(xùn)練簡潔、學(xué)習(xí)收斂速度快,能夠逼近任意非線性函數(shù),應(yīng)用十分廣泛。RBF網(wǎng)絡(luò)的原理及特點用徑向基函數(shù)(RBF)作為隱單元的“82適合用RBF網(wǎng)絡(luò)求解的分類問題適合用RBF網(wǎng)絡(luò)求解的分類問題83用梯度法求的極小值。某神經(jīng)網(wǎng)絡(luò)的活化函數(shù)為符號函數(shù),學(xué)習(xí)率,初始權(quán)向量,兩對輸入樣本為:本例中對于1994-2002年的數(shù)據(jù),選擇前3年的數(shù)據(jù)作為序列的輸入樣本,下一年數(shù)據(jù)作為網(wǎng)絡(luò)的輸出;RBF網(wǎng)絡(luò)用于求解XOR問題1)迭代計算所得到的向量應(yīng)收斂于;活化函數(shù)選為雙曲正切函數(shù)(其中β=0.用Hopfield網(wǎng)絡(luò)做圖像恢復(fù)可用于解決模式識別、函數(shù)逼近和數(shù)據(jù)壓縮等問題。把要存儲的模式由bmp類型的文件轉(zhuǎn)化成1和-1形式的二進(jìn)制向量;強化學(xué)習(xí)(ReinforcementLearning)使用梯度法,推導(dǎo)出權(quán)值迭代公式;實際中更多的情況是.這時,(1.RBF網(wǎng)絡(luò)的基函數(shù)計算的是輸入向量的和中心的歐氏距離,而MLP隱單元的活化函數(shù)計算的是輸入單元和連接權(quán)值間的內(nèi)積。手寫ZIP碼的識別用Hopfield網(wǎng)絡(luò)做圖像恢復(fù)在這些方法中,由于神經(jīng)網(wǎng)絡(luò)方法具有識別復(fù)雜非線性系統(tǒng)的特性,具有自學(xué)習(xí)、自適應(yīng)能力,因而獲得了較為廣泛的應(yīng)用。給出其期望輸出;3、將按距離遠(yuǎn)近向聚類,方法為:隱層一般為1層,問題復(fù)雜時可取2層,隱層單元數(shù)的選擇原則目前尚無理論依據(jù),可根據(jù)問題規(guī)模大小憑經(jīng)驗確定。3、網(wǎng)絡(luò)輸入樣本向量后,計算實際輸出插點問題可由下表給出:在這些方法中,由于神經(jīng)網(wǎng)絡(luò)方法具有識別復(fù)雜非線性系統(tǒng)的特性,具有自學(xué)習(xí)、自適應(yīng)能力,因而獲得了較為廣泛的應(yīng)用。RBF網(wǎng)絡(luò)與多層感知器(MLP)的比較

MLP的隱層和輸出層的神經(jīng)元模型是一樣的,而RBF網(wǎng)絡(luò)的隱層神經(jīng)元和輸出層的神經(jīng)元不僅模型不同,而且在網(wǎng)絡(luò)中所起的作用也不一樣。

RBF網(wǎng)絡(luò)只有一個隱層,而MLP可以有多個隱層;

RBF網(wǎng)絡(luò)的隱層是非線性的,輸出層是線性的,而用MLP解決模式分類問題時,它的隱層與輸出層通常選非線性的。而解決非線性回歸問題時,通常選擇線性輸出層。

RBF網(wǎng)絡(luò)的基函數(shù)計算的是輸入向量的和中心的歐氏距離,而MLP隱單元的活化函數(shù)計算的是輸入單元和連接權(quán)值間的內(nèi)積。

MLP是對非線性映射的全局逼近,而RBF網(wǎng)絡(luò)使用局部指數(shù)衰減的非線性函數(shù)(如高斯函數(shù))對非線性輸入輸出進(jìn)行局部逼近。用梯度法求的極小值84取高斯函數(shù),其中心分別為。寬度均?。?。

RBF

網(wǎng)絡(luò)用于求解XOR問題取高斯函數(shù),其中心分別為85取高斯函數(shù),其中心分別為。寬度均?。?。

RBF

網(wǎng)絡(luò)用于求解XOR問題取高斯函數(shù),其中心分別為86插點問題可由下表給出:試用RBF網(wǎng)絡(luò)對其進(jìn)行求解。

課堂作業(yè)插點問題可由下表給出:課堂作業(yè)87課外作業(yè)給出用RBF網(wǎng)絡(luò)求解XOR問題的C語言或MATLAB源程序。課外作業(yè)給出用RBF網(wǎng)絡(luò)求解XOR問題的C語言或MATLAB88RBF網(wǎng)絡(luò)解題步驟

使用均值聚類算法求高斯函數(shù)中心;使用下面公式求寬度其中,是類中樣本的個數(shù);

利用梯度法,求權(quán)系數(shù)。RBF網(wǎng)絡(luò)解題步驟使用均值聚類算法求高斯函數(shù)中心89高斯條函數(shù)高斯函數(shù)高斯條函數(shù)

高斯條函數(shù)高斯函數(shù)高斯條函數(shù)90高斯條函數(shù)中各參數(shù)計算

對給定的誤差函數(shù),權(quán)、中心和寬度的梯度反方向分別為

其中,高斯條函數(shù)中各參數(shù)計算對給定的誤差函數(shù)91令去掉使收縮為0。高斯條函數(shù)網(wǎng)絡(luò)的修剪方法

令高斯條函數(shù)網(wǎng)絡(luò)的修剪方法92聯(lián)想記憶神經(jīng)網(wǎng)絡(luò)聯(lián)想記憶神經(jīng)網(wǎng)絡(luò)93線性聯(lián)想記憶網(wǎng)絡(luò)(LinearAssociativeMemory,LAM)線性聯(lián)想記憶網(wǎng)絡(luò)94輸入樣本向量組成的矩陣:理想輸出向量組成的矩陣:所謂線性聯(lián)想指的是:構(gòu)造矩陣,使得

輸入樣本向量組成的矩陣:95一般地,使得上式成立的可能并不存在,或者難于直接求得.因此,我們希望能給出簡單而又有效的選取權(quán)矩陣的方法,使得線性聯(lián)想誤差盡可能地小。一般地,使得上式成立的可能并不存在,96權(quán)矩陣W的選取常數(shù)

或。

權(quán)矩陣W的選取常數(shù)或。97當(dāng)輸入樣本向量標(biāo)準(zhǔn)正交,且時,有

即聯(lián)想回憶對樣本集是完美的.當(dāng)輸入樣本向量標(biāo)準(zhǔn)正交,且98課堂作業(yè)給出兩對存儲模式向量:1、試構(gòu)造線性聯(lián)想權(quán)值矩陣;2、當(dāng)上述線性聯(lián)想網(wǎng)絡(luò)中輸入模式時,給出運行的結(jié)果。課堂作業(yè)給出兩對存儲模式向量:99Hopfield神經(jīng)網(wǎng)絡(luò)Hopfield神經(jīng)網(wǎng)絡(luò)100Hopfield網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu)Hopfield網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu)101考慮具有個處理單元的網(wǎng)絡(luò),每個單元與其它單元都連接(全連接),權(quán)矩陣記為.設(shè)網(wǎng)絡(luò)中已經(jīng)存儲了個樣本模式根據(jù)這些樣本模式按某種方式確定了權(quán)矩陣.考慮具有個處理單元的網(wǎng)絡(luò),每個單元與其它單元都連接(全102權(quán)矩陣W的選取標(biāo)準(zhǔn)存儲模式應(yīng)該是(4.1)的穩(wěn)定點,即

當(dāng)輸入模式接近于某一存儲模式時,由(4.1)迭代計算所得到的向量應(yīng)收斂于;的選取還應(yīng)該使收斂過程盡可能地快.權(quán)矩陣W的選取標(biāo)準(zhǔn)存儲模式應(yīng)該是(4.1)的穩(wěn)定點,即103權(quán)矩陣W的構(gòu)造利用所存儲模式的外積和構(gòu)造W

拓展定義即權(quán)矩陣W的構(gòu)造利用所存儲模式的外積和構(gòu)造W即104Hopfield聯(lián)想記憶模型可描述為:給定輸入模式,按公式反復(fù)迭代,直至收斂,得到最后的輸出模式,作為輸入模式

的聯(lián)想.Hopfield聯(lián)想記憶模型可描述為:給定輸入模式105迭代公式幾何解釋迭代公式幾何解釋106串行(異步)方式,即每次迭代只改變一個神經(jīng)單元的狀態(tài),而其余個單元暫時不變.

并行(同步)方式,即每次迭代同時更新所有單元的狀態(tài).更新網(wǎng)絡(luò)狀態(tài)的方式串行(異步)方式,即每次迭代只改變一個神經(jīng)單元的狀態(tài),而其107函數(shù)的選取取符號函數(shù),稱此時的Hopfield為雙極性網(wǎng)絡(luò);若的值域是實數(shù)域上某一區(qū)間,則稱此時的Hopfield為連續(xù)值網(wǎng)絡(luò).函數(shù)的選取取符號函數(shù),稱此時108有三個穩(wěn)定存儲模式的聯(lián)想記憶有三個穩(wěn)定存儲模式的聯(lián)想記憶109網(wǎng)絡(luò)中所存儲的四個圖像網(wǎng)絡(luò)中所存儲的四個圖像110對圖像的干擾對圖像的干擾111用Hopfield網(wǎng)絡(luò)做圖像恢復(fù)用Hopfield網(wǎng)絡(luò)做圖像恢復(fù)112用Hopfield網(wǎng)絡(luò)做圖像恢復(fù)用Hopfield網(wǎng)絡(luò)做圖像恢復(fù)113Hopfield網(wǎng)絡(luò)的記憶過程把要存儲的模式由bmp類型的文件轉(zhuǎn)化成1和-1形式的二進(jìn)制向量;對存儲模式使用外積公式計算網(wǎng)絡(luò)的各個權(quán)值。權(quán)值得到后隨即“固化”,不再改變。Hopfield網(wǎng)絡(luò)的記憶過程把要存儲的模式由bmp類型114Hopfield網(wǎng)絡(luò)的聯(lián)想過程把要識別的模式轉(zhuǎn)化成1和-1類型的二進(jìn)制向量,作為網(wǎng)絡(luò)的初始狀態(tài);根據(jù)公式反復(fù)迭代,直至網(wǎng)絡(luò)中所有神經(jīng)元的狀態(tài)不再改變;把得到二進(jìn)制文件還原為bmp圖形,輸出。Hopfield網(wǎng)絡(luò)的聯(lián)想過程把要識別的模式轉(zhuǎn)化成1和-115Hopfiled網(wǎng)絡(luò)設(shè)計簡例存儲模式?。汉虷opfiled網(wǎng)絡(luò)設(shè)計簡例存儲模式?。汉?16當(dāng)存儲模式取和課堂作業(yè)Hopfield

網(wǎng)絡(luò)記憶及聯(lián)想過程。時,寫出當(dāng)存儲模式取和課堂作業(yè)Hopfield網(wǎng)絡(luò)記憶及聯(lián)想過程。117

Hopfiled網(wǎng)絡(luò)是一個單層回歸自聯(lián)想記憶網(wǎng)絡(luò);使用Hopfiled網(wǎng)絡(luò)進(jìn)行模式回想時,最好按異步方式進(jìn)行,這樣可以避免同步傳遞信號所遇到的一些困難;

一般地,含有N個神經(jīng)元的Hopfiled網(wǎng)絡(luò)可預(yù)存0.15N個模式。

Hopfiled網(wǎng)絡(luò)在解決字符識別問題方面能力較差。關(guān)于Hopfiled網(wǎng)絡(luò)的幾點注釋Hopfiled網(wǎng)絡(luò)是一個單層回歸自聯(lián)想記憶網(wǎng)絡(luò);關(guān)于H118Hopfield網(wǎng)絡(luò)用于求解CTSP問題

我國31個直轄市、省會巡回路徑約有1.33×1032種。對中國旅行商問題研究的最新結(jié)果為15449km。使用Hopfield網(wǎng)絡(luò)求得的最短路徑為15904km。Hopfield網(wǎng)絡(luò)用于求解CTSP問題我國31個直轄市119Hopfield網(wǎng)絡(luò)的應(yīng)用領(lǐng)域

求解聯(lián)想問題;解決優(yōu)化問題。Hopfield網(wǎng)絡(luò)的應(yīng)用領(lǐng)域求解聯(lián)想問題;120神經(jīng)網(wǎng)絡(luò)計算建模講義解析新版課件121BP神經(jīng)網(wǎng)絡(luò)故障診斷神經(jīng)網(wǎng)絡(luò)具有自學(xué)習(xí)能力、非線性映射能力、對任意函數(shù)的逼近能力、并行計算和容錯能力,這些能力為構(gòu)造故障診斷系統(tǒng)提供了有力保障。神經(jīng)網(wǎng)絡(luò)用于故障診斷的步驟通常如下:(1)抽取反映被檢測對象(設(shè)備、部件或零件等)的特征參數(shù),如(x1,x2,...,xn)作為網(wǎng)絡(luò)的輸入模式。BP神經(jīng)網(wǎng)絡(luò)故障診斷神經(jīng)網(wǎng)絡(luò)具有自學(xué)習(xí)能力、非線性映射能122(2)對被檢測對象的狀態(tài)類別進(jìn)行編碼。例如,對于正常、故障1、故障2三種狀態(tài),可將期望輸出編碼為:正常(0,0),故障1(0,1),故障2(1,0)。(3)進(jìn)行網(wǎng)絡(luò)設(shè)計,確定網(wǎng)絡(luò)層數(shù)和各層神經(jīng)元數(shù)。輸入層單元數(shù)由特征參數(shù)個數(shù)決定;輸出層單元數(shù)由狀態(tài)編碼方式確定;隱層一般為1層,問題復(fù)雜時可取2層,隱層單元數(shù)的選擇原則目前尚無理論依據(jù),可根據(jù)問題規(guī)模大小憑經(jīng)驗確定。(2)對被檢測對象的狀態(tài)類別進(jìn)行編碼。例如,對于正常、故障1123(4)用各種狀態(tài)樣本組成訓(xùn)練樣本,輸入網(wǎng)絡(luò),對網(wǎng)絡(luò)進(jìn)行訓(xùn)練,確定各單元的連接權(quán)值。(5)用訓(xùn)練好的網(wǎng)絡(luò)對待檢測對象進(jìn)行狀態(tài)識別,即把待檢測對象的特征參數(shù)作為網(wǎng)絡(luò)輸入,根據(jù)網(wǎng)絡(luò)輸出確定待檢對象的狀態(tài)類別。為了提高網(wǎng)絡(luò)的故障診斷性能,可把使用中發(fā)現(xiàn)的錯誤判斷作為訓(xùn)練樣本加入訓(xùn)練樣本集,對網(wǎng)絡(luò)進(jìn)行進(jìn)一步訓(xùn)練,從而使網(wǎng)絡(luò)的性能得到改善。(4)用各種狀態(tài)樣本組成訓(xùn)練樣本,輸入網(wǎng)絡(luò),對網(wǎng)絡(luò)進(jìn)行訓(xùn)練,124問題實例:軸承故障診斷實例,利用BP神經(jīng)網(wǎng)絡(luò)對石油鉆井的絞車及傳動機組滾動軸承進(jìn)行故障診斷,能夠在軸承早期故障時發(fā)出預(yù)警信號,提前對將要發(fā)生故障的軸承進(jìn)行維修或更換,縮短停工停產(chǎn)時間和減少維修費用,從而使石油生產(chǎn)損失減少到最低,保證石油生產(chǎn)順利安全進(jìn)行。選取某型減速器的主動軸滾動軸承的4個特征參數(shù),包括均方根值、峭度、諧波指標(biāo)和SQ參數(shù),這4個參數(shù)組成輸入樣本向量,實測數(shù)據(jù)如下表所示。問題實例:軸承故障診斷實例,利用BP神經(jīng)網(wǎng)125軸承狀態(tài)均方根值峭度諧波指標(biāo)SQ參數(shù)正常新軸承0.641.370.710.78正常新軸承0.681.310.641.31正常新軸承0.911.350.751.59正常新軸承0.691.380.680.9內(nèi)圈點蝕8.242.230.992滾珠點蝕2.011.650.944.39保持架損壞0.931.330.731.54外圈嚴(yán)重裂紋3.892.010.8820.1外圈較輕裂紋1.651.660.94.48外圈微裂紋1.351.390.952.89軸承狀態(tài)均方根值峭度諧波指標(biāo)SQ參數(shù)正常新軸承0.641.3126神經(jīng)網(wǎng)絡(luò)計算建模講義解析新版課件127基于神經(jīng)網(wǎng)絡(luò)的人口預(yù)測問題背景:世界人口的迅猛增長引發(fā)了許多問題。特別是一些經(jīng)濟(jì)不發(fā)達(dá)國家的人口過度增長,影響了整個國家的經(jīng)濟(jì)發(fā)展、社會安定和人民生活水平的提高,給世界發(fā)展帶來尋多問題。人口預(yù)測對于提供準(zhǔn)確的人口信息,對于國家制定生育政策和社會發(fā)展計劃有重要的意義。目前國內(nèi)外提出了很多種預(yù)測方法和預(yù)測模型,如常微分方程法,動態(tài)預(yù)測法等。在這些方法中,由于神經(jīng)網(wǎng)絡(luò)方法具有識別復(fù)雜非線性系統(tǒng)的特性,具有自學(xué)習(xí)、自適應(yīng)能力,因而獲得了較為廣泛的應(yīng)用?;谏窠?jīng)網(wǎng)絡(luò)的人口預(yù)測問題背景:128問題實例應(yīng)用BP神經(jīng)網(wǎng)絡(luò)建立時間序列人口預(yù)測模型,檢驗預(yù)測效果,我國1994-2005年人口數(shù)據(jù)如表所示:年份人數(shù)(億)年份人數(shù)(億)年份人數(shù)(億)199411.9850199812.4810200212.8453199512.1121199912.5768200312.9227199612.2389200012.6743200412.9905199712.3626200112.7627200513.0756問題實例年份人數(shù)(億)年份人數(shù)(億)年份人數(shù)(億)19941129本例中對于1994-2002年的數(shù)據(jù),選擇前3年的數(shù)據(jù)作為序列的輸入樣本,下一年數(shù)據(jù)作為網(wǎng)絡(luò)的輸出;選用2004、2005年的數(shù)據(jù)為檢驗樣本。訓(xùn)練樣本序號輸入輸出194-96年人口數(shù)97年人口數(shù)295-97年人口數(shù)98年人口數(shù)396-98年人口數(shù)99年人口數(shù)497-99年人口數(shù)00年人口數(shù)598-00年人口數(shù)01年人口數(shù)699-01年人口數(shù)02年人口數(shù)700-02年人口數(shù)03年人口數(shù)驗證樣本輸入輸出101-03年人口數(shù)04年人口數(shù)102-04年人口數(shù)05年人口數(shù)本例中對于1994-2002年的數(shù)據(jù),選擇前3年的數(shù)據(jù)作為序130課題作業(yè):電信業(yè)務(wù)量預(yù)測實例。應(yīng)用BP神經(jīng)網(wǎng)絡(luò)進(jìn)行電信業(yè)務(wù)量預(yù)測,并檢驗預(yù)測效果。年份業(yè)務(wù)量(萬戶)年份業(yè)務(wù)量(萬戶)年份業(yè)務(wù)量(萬戶)89123.4695988.85014556.2690155.54961342.04025695.8091204.38971773.29037019.7992290.94982431.21049712.2993462.71993330.820512028.5494688.19004792.70課題作業(yè):電信業(yè)務(wù)量預(yù)測實例。應(yīng)用BP神經(jīng)網(wǎng)絡(luò)進(jìn)行電信業(yè)務(wù)量131BP神經(jīng)網(wǎng)絡(luò)分類蠓蟲分類問題:Apf:(1.14,1.78),(1.18,1.96),(1.20,1.86),(1.26,2.00),(1.28,2.00),(1.30,1.96)Af:(1.24,1.72),(1.36,1.74),(1.38,1.64),(1.38,1.82),(1.38,1.90),(1.4,1.7),(1.48,1.82),(1.54,1.82),(1.56,2.08)BP神經(jīng)網(wǎng)絡(luò)分類蠓蟲分類問題:132第一部分神經(jīng)元模型及神經(jīng)網(wǎng)絡(luò)基礎(chǔ);第二部分BP神經(jīng)網(wǎng)絡(luò);第三部分徑向基函數(shù)網(wǎng)絡(luò);第四部分Hopfield網(wǎng)絡(luò)。

授課內(nèi)容授課內(nèi)容133課堂作業(yè)試畫出單層感知器的學(xué)習(xí)算法框圖。某神經(jīng)網(wǎng)絡(luò)的活化函數(shù)為符號函數(shù),學(xué)習(xí)率,初始權(quán)向量,兩對輸入樣本為:試用感知器算法對上述樣本反復(fù)訓(xùn)練,直至網(wǎng)絡(luò)輸出誤差為零。并寫出分類判決直線。課堂作業(yè)試畫出單層感知器的學(xué)習(xí)算法框圖。134隱層的個數(shù)從理論上講,多于一個隱層的前向網(wǎng)絡(luò)是沒有必要的。但是對于某些實際問題,更多的隱層可能會使總的神經(jīng)元個數(shù)減少,從而得到更有效的神經(jīng)網(wǎng)絡(luò)。隱層的個數(shù)從理論上講,多于一個隱層的前向網(wǎng)絡(luò)是沒有必要的。135隱單元的個數(shù)一般地,隱單元的個數(shù)越多,對樣本集的學(xué)習(xí)精度就越高,而推廣(即將網(wǎng)絡(luò)應(yīng)用于未經(jīng)學(xué)習(xí)的輸入向量)能力就越差。因此,在滿足樣本學(xué)習(xí)精度的前提下,隱節(jié)點個數(shù)應(yīng)該盡可能地小。隱單元的個數(shù)一般地,隱單元的個數(shù)越多,對樣本集的學(xué)習(xí)精度就越136RBF網(wǎng)絡(luò)的原理及特點用徑向基函數(shù)(RBF)作為隱單元的“基”,構(gòu)成隱層空間,隱層對輸入矢量進(jìn)行變換,將低維的模式輸入數(shù)據(jù)變換到高維空間內(nèi),使得在低維空間內(nèi)線性不可分問題在高維空間線性可分。

RBF網(wǎng)絡(luò)結(jié)構(gòu)簡單、訓(xùn)練簡潔、學(xué)習(xí)收斂速度快,能夠逼近任意非線性函數(shù),應(yīng)用十分廣泛。RBF網(wǎng)絡(luò)的原理及特點用徑向基函數(shù)(RBF)作為隱單元的“137輸入樣本向量組成的矩陣:理想輸出向量組成的矩陣:所謂線性聯(lián)想指的是:構(gòu)造矩陣,使得

輸入樣本向量組成的矩陣:138對圖像的干擾對圖像的干擾139BP神經(jīng)網(wǎng)絡(luò)故障診斷神經(jīng)網(wǎng)絡(luò)具有自學(xué)習(xí)能力、非線性映射能力、對任意函數(shù)的逼近能力、并行計算和容錯能力,這些能力為構(gòu)造故障診斷系統(tǒng)提供了有力保障。神經(jīng)網(wǎng)絡(luò)用于故障診斷的步驟通常如下:(1)抽取反映被檢測對象(設(shè)備、部件或零件等)的特征參數(shù),如(x1,x2,...,xn)作為網(wǎng)絡(luò)的輸入模式。BP神經(jīng)網(wǎng)絡(luò)故障診斷神經(jīng)網(wǎng)絡(luò)具有自學(xué)習(xí)能力、非線性映射能140第一部分神經(jīng)元模型及神經(jīng)網(wǎng)絡(luò)基礎(chǔ);第二部分BP神經(jīng)網(wǎng)絡(luò);第三部分徑向基函數(shù)網(wǎng)絡(luò);第四部分Hopfield網(wǎng)絡(luò)。

授課內(nèi)容授課內(nèi)容141第一部分神經(jīng)元模型(BiologicalNeuralNetworks);神經(jīng)網(wǎng)絡(luò)基礎(chǔ)(ArtificialNeuralNetworks);第一部分神經(jīng)元模型142人工神經(jīng)元幾何模型(M-P模型)返回人工神經(jīng)元幾何模型(M-P模型)返回143人工神經(jīng)元的代數(shù)表達(dá)式及其簡化形式其中,人工神經(jīng)元的代數(shù)表達(dá)式及其簡化形式其中,144活化函數(shù)的類型1、符號函數(shù)活化函數(shù)的類型1、符號函數(shù)145活化函數(shù)的類型2、Sigmoid函數(shù)活化函數(shù)的類型2、Sigmoid函數(shù)146人工神經(jīng)網(wǎng)絡(luò)的定義

(ArtificialNeuralNetworks,ANN)人工神經(jīng)網(wǎng)絡(luò)是由大量簡單的處理單元--神經(jīng)元(Neurons)相互連接而構(gòu)成的網(wǎng)絡(luò),是對人腦的抽象、簡化和模擬,反映了人腦的信息處理功能。可用于解決模式識別、函數(shù)逼近和數(shù)據(jù)壓縮等問題。返回人工神經(jīng)網(wǎng)絡(luò)的定義

(ArtificialNeuralN147給出用BP網(wǎng)絡(luò)求解XOR問題的C語言或MATLAB源程序。設(shè)計一個BP網(wǎng)絡(luò)對上圖中的英文字母進(jìn)行分類。根據(jù)公式反復(fù)迭代,直至網(wǎng)絡(luò)中所有神經(jīng)元的狀態(tài)不再改變;可用于解決模式識別、函數(shù)逼近和數(shù)據(jù)壓縮等問題。把要存儲的模式由bmp類型的文件轉(zhuǎn)化成1和-1形式的二進(jìn)制向量;若,則活化函數(shù)選為雙曲正切函數(shù)(其中β=0.訓(xùn)練次數(shù)多,收斂速度慢;用Hopfield網(wǎng)絡(luò)做圖像恢復(fù)帶隱層的感知器能對XOR問題進(jìn)行正確分而解決非線性回歸問題時,通常選擇線性輸出層。初始權(quán)值通常選為接近于0的隨機數(shù)。但是對于某些實際問題,更多的隱層可能會使總的神經(jīng)元個數(shù)減少,從而得到更有效的神經(jīng)網(wǎng)絡(luò)。初值可能使系統(tǒng)過早地陷入飽和區(qū)(例如對于用徑向基函數(shù)(RBF)作為隱單元的“基”,構(gòu)成隱層空間,隱層對輸入矢量進(jìn)行變換,將低維的模式輸入數(shù)據(jù)變換到高維空間內(nèi),使得在低維空間內(nèi)線性不可分問題在高維空間線性可分。分類問題中常用的邊界判決曲線(4)用各種狀態(tài)樣本組成訓(xùn)練樣本,輸入網(wǎng)絡(luò),對網(wǎng)絡(luò)進(jìn)行訓(xùn)練,確定各單元的連接權(quán)值。利用梯度法,求下面關(guān)于誤差函數(shù)Hopfield網(wǎng)絡(luò)用于求解CTSP問題人工神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)

具有一個隱層的前饋網(wǎng)絡(luò)

單層全連接反饋網(wǎng)絡(luò)

給出用BP網(wǎng)絡(luò)求解XOR問題的C語言或MATLAB源程序。人148神經(jīng)網(wǎng)絡(luò)的特性魯棒性(容錯)并行計算自我學(xué)習(xí)硬件實現(xiàn)求滿意解神經(jīng)網(wǎng)絡(luò)的特性魯棒性(容錯)149神經(jīng)網(wǎng)絡(luò)的三要素

網(wǎng)絡(luò)結(jié)構(gòu);信息流動規(guī)則;權(quán)值學(xué)習(xí)規(guī)則。神經(jīng)網(wǎng)絡(luò)的三要素網(wǎng)絡(luò)結(jié)構(gòu);150(LinearAssociativeMemory,LAM)(5)用訓(xùn)練好的網(wǎng)絡(luò)對待檢測對象進(jìn)行狀態(tài)識別,即把待檢測對象的特征參數(shù)作為網(wǎng)絡(luò)輸入,根據(jù)網(wǎng)絡(luò)輸出確定待檢對象的狀態(tài)類別。第二部分BP神經(jīng)網(wǎng)絡(luò);但是對于某些實際問題,更多的隱層可能會使總的神經(jīng)元個數(shù)減少,從而得到更有效的神經(jīng)網(wǎng)絡(luò)。由單個神經(jīng)元組成的單層神經(jīng)網(wǎng)絡(luò)只能完成線性可分的兩類模式的識別;用Hopfield網(wǎng)絡(luò)做圖像恢復(fù)第二部分BP神經(jīng)網(wǎng)絡(luò);應(yīng)用BP神經(jīng)網(wǎng)絡(luò)建立時間序列人口預(yù)測模型,檢驗預(yù)測效果,我國1994-2005年人口數(shù)據(jù)如表所示:用Hopfield網(wǎng)絡(luò)做圖像恢復(fù)RBF網(wǎng)絡(luò)結(jié)構(gòu)簡單、訓(xùn)練簡潔、學(xué)習(xí)收斂速度快,能夠逼近任意非線性函數(shù),應(yīng)用十分廣泛。(4)用各種狀態(tài)樣本組成訓(xùn)練樣本,輸入網(wǎng)絡(luò),對網(wǎng)絡(luò)進(jìn)行訓(xùn)練,確定各單元的連接權(quán)值。用徑向基函數(shù)(RBF)作為隱單元的“基”,構(gòu)成隱層空間,隱層對輸入矢量進(jìn)行變換,將低維的模式輸入數(shù)據(jù)變換到高維空間內(nèi),使得在低維空間內(nèi)線性不可分問題在高維空間線性可分。當(dāng)輸入樣本向量標(biāo)準(zhǔn)正交,且時,有輸入樣本向量的各個分量有時在數(shù)量級上差異較大,若不進(jìn)行適當(dāng)?shù)奶幚?,?shù)量級大的分量可能完全湮沒其它分量的作用。給出其期望輸出;世界人口的迅猛增長引發(fā)了許多問題?;谏窠?jīng)網(wǎng)絡(luò)的人口預(yù)測隱層一般為1層,問題復(fù)雜時可取2層,隱層單元數(shù)的選擇原則目前尚無理論依據(jù),可根據(jù)問題規(guī)模大小憑經(jīng)驗確定。強化學(xué)習(xí)(ReinforcementLearning)感知器是用于線性可分模式分類的最簡單的神經(jīng)網(wǎng)絡(luò)模型;給出用BP網(wǎng)絡(luò)求解XOR問題的C語言或MATLAB源程序。初值可能使系統(tǒng)過早地陷入飽和區(qū)(例如對于神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)方式有教師學(xué)習(xí)(Learningwithateacher)無教師學(xué)習(xí)(Learningwithoutateacher)自組織學(xué)習(xí)(Self-OrganizedLearning)強化學(xué)習(xí)(ReinforcementLearning)(LinearAssociativeMemory,LA151神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)規(guī)則Hebb學(xué)習(xí)誤差糾正學(xué)習(xí)競爭(Competitive)學(xué)習(xí)隨機學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)規(guī)則Hebb學(xué)習(xí)152神經(jīng)網(wǎng)絡(luò)的應(yīng)用語音、視覺、知識處理數(shù)據(jù)壓縮、模式匹配、系統(tǒng)建模、模糊控制、求組合優(yōu)化問題最佳解的近似解輔助決策——預(yù)報與智能管理通信——自適應(yīng)均衡、回波抵消、路由選擇、ATM中的呼叫接納、識別與控制空間科學(xué)——對接、導(dǎo)航、制導(dǎo)、飛行程序優(yōu)化神經(jīng)網(wǎng)絡(luò)的應(yīng)用語音、視覺、知識處理153分類問題兩大任務(wù)用已知樣本確定分類判決曲線;根據(jù)分類曲線對樣本進(jìn)行歸類。分類問題兩大任務(wù)用已知樣本確定分類判決曲線;154分類問題中常用的邊界判決曲線直線

劃分區(qū)域:上下或左右。分類問題中常用的邊界判決曲線直線155分類問題中常用的邊界判決曲線

圓劃分區(qū)域:內(nèi)與外。分類問題中常用的邊界判決曲線圓156線性可分問題線性可分問題157線性不可分問題線性不可分問題158兩類模式分類器——

符號函數(shù)兩類模式分類器——符號函數(shù)159分類問題舉例邏輯“與”

有解,可取:

或:分類問題舉例邏輯“與”160分類問題舉例邏輯“或”

有解,可取:

或:分類問題舉例邏輯“或”161權(quán)矩陣W的選取標(biāo)準(zhǔn)2)變?yōu)殛P(guān)于的線性方程組,其系數(shù)矩陣為方陣,通??赡妫虼擞形ㄒ唤?。軸承故障診斷實例,利用BP神經(jīng)網(wǎng)絡(luò)對石油鉆井的絞車及傳動機組滾動軸承進(jìn)行故障診斷,能夠在軸承早期故障時發(fā)出預(yù)警信號,提前對將要發(fā)生故障的軸承進(jìn)行維修或更換,縮短停工停產(chǎn)時間和減少維修費用,從而使石油生產(chǎn)損失減少到最低,保證石油生產(chǎn)順利安全進(jìn)行。Hopfield網(wǎng)絡(luò)的應(yīng)用領(lǐng)域應(yīng)用BP神經(jīng)網(wǎng)絡(luò)建立時間序列人口預(yù)測模型,檢驗預(yù)測效果,我國1994-2005年人口數(shù)據(jù)如表所示:BP算法流程圖(在線)權(quán)系數(shù)求解方法選用2004、2005年的數(shù)據(jù)為檢驗樣本。初始權(quán)值通常選為接近于0的隨機數(shù)。寬度均取:。我們曾利用BP網(wǎng)絡(luò)來預(yù)測上海股市綜合指數(shù)的漲跌。當(dāng)時,可以簡單地令,反復(fù)迭代,直至收斂,得到最后的輸出模式,作為輸入模式的聯(lián)想.3、將按距離遠(yuǎn)近向聚類,方法為:設(shè)計一個BP網(wǎng)絡(luò)對上圖中的英文字母進(jìn)行分類。第一個輸出單元的輸出為:帶隱層的感知器能對XOR問題進(jìn)行正確分輸入層單元數(shù)由特征參數(shù)個數(shù)決定;一般地,隱單元的個數(shù)越多,對樣本集的學(xué)習(xí)精度就越高,而推廣(即將網(wǎng)絡(luò)應(yīng)用于未經(jīng)學(xué)習(xí)的輸入向量)能力就越差。利用梯度法,求下面關(guān)于誤差函數(shù)感知器是用于線性可分模式分類的最簡單的神經(jīng)網(wǎng)絡(luò)模型;3、將按距離遠(yuǎn)近向聚類,分成P組。分類問題舉例邏輯“異或”

無解。權(quán)矩陣W的選取標(biāo)準(zhǔn)分類問題舉例邏輯“異或”162自適應(yīng)線性(AdaptiveLinear)感知器輸入求和符號函數(shù)輸出自適應(yīng)線性(AdaptiveLinear)感知器輸入求和163單層感知器學(xué)習(xí)算法1、對各初始權(quán)值賦較小的非零隨機數(shù);2、對于輸入樣本向量,給出其期望輸出;3、網(wǎng)絡(luò)輸入樣本向量后,計算實際輸出4、修改權(quán)值向量其中,學(xué)習(xí)率。5、判斷是否滿足終止條件,若滿足學(xué)習(xí)結(jié)束,否則轉(zhuǎn)3。單層感知器學(xué)習(xí)算法1、對各初始權(quán)值164單層感知器收斂定理對于線性可分的兩類模式,單層感知器學(xué)習(xí)算法是收斂的。單層感知器收斂定理對于線性可分的兩類模式,單層感知器165小結(jié)感知器是用于線性可分模式分類的最簡單的神經(jīng)網(wǎng)絡(luò)模型;由單個神經(jīng)元組成的單層神經(jīng)網(wǎng)絡(luò)只能完成線性可分的兩類模式的識別;帶隱層的感知器能對XOR問題進(jìn)行正確分類。小結(jié)感知器是用于線性可分模式分類的最簡單的神經(jīng)網(wǎng)絡(luò)模166課外作業(yè)試畫出單層感知器的學(xué)習(xí)算法框圖,并用C語言或MATLAB寫出單層感知器關(guān)于邏輯“或”運算的學(xué)習(xí)算法程序。課外作業(yè)試畫出單層感知器的學(xué)習(xí)算法框圖,并用C語言或MATL167小結(jié)感知器是用于線性可分模式分類的最簡單的神經(jīng)網(wǎng)絡(luò)模型;由單個神經(jīng)元組成的單層神經(jīng)網(wǎng)絡(luò)只能完成線性可分的兩類模式的識別;帶隱層的感知器能對XOR問題進(jìn)行正確分類。小結(jié)感知器是用于線性可分模式分類的最簡單的神經(jīng)網(wǎng)絡(luò)模168例一例一169例二例二170課堂作業(yè)試畫出單層感知器的學(xué)習(xí)算法框圖。某神經(jīng)網(wǎng)絡(luò)的活化函數(shù)為符號函數(shù),學(xué)習(xí)率,初始權(quán)向量,兩對輸入樣本為:試用感知器算法對上述樣本反復(fù)訓(xùn)練,直至網(wǎng)絡(luò)輸出誤差為零。并寫出分類判決直線。課堂作業(yè)試畫出單層感知器的學(xué)習(xí)算法框圖。171BP

網(wǎng)絡(luò)BP網(wǎng)絡(luò)172信息輸入若則信息輸入若則173有三個穩(wěn)定存儲模式的聯(lián)想記憶設(shè)網(wǎng)絡(luò)中已經(jīng)存儲了個樣本模式理想輸出向量組成的矩陣:Hopfield神經(jīng)網(wǎng)絡(luò)手寫ZIP碼的識別當(dāng)時,可以簡單地令,競爭(Competitive)學(xué)習(xí)試畫出單層感知器的學(xué)習(xí)算法框圖。若,則令:.若,則令:.1、試構(gòu)造線性聯(lián)想權(quán)值矩陣;對于線性可分的兩類模式,單層感知器第二部分BP神經(jīng)網(wǎng)絡(luò);適合用RBF網(wǎng)絡(luò)求解的分類問題使用均值聚類算法求高斯函數(shù)中心;試用感知器算法對上述樣本反復(fù)訓(xùn)練,直至網(wǎng)絡(luò)輸出誤差為零。其中,是類中樣本的個數(shù);第四部分Hopfield網(wǎng)絡(luò)。3、將按距離遠(yuǎn)近向聚類,方法為:插點問題可由下表給出:2、隨機選取樣本向量.設(shè)計一個BP網(wǎng)絡(luò)對上圖中的英文字母進(jìn)行分類。信息輸出有三個穩(wěn)定存儲模式的聯(lián)想記憶信息輸出174神經(jīng)元的輸入與輸出神經(jīng)元的輸入與輸出175梯度法函數(shù)在點處的梯度為梯度法函數(shù)在點處176梯度法用梯度法求的極小值。迭代公式為學(xué)習(xí)率。梯度法用梯度法求的177XOR分類問題解析XOR分類問題解析178把問題轉(zhuǎn)化為:求平方誤差函數(shù)的極小值;使用梯度法,推導(dǎo)出權(quán)值迭代公式;權(quán)值獲得,網(wǎng)絡(luò)分類器實現(xiàn),問題解決。BP網(wǎng)絡(luò)解決分類問題的基本思想把問題轉(zhuǎn)化為:求平方誤差函數(shù)的極小值;BP網(wǎng)絡(luò)解決分類問題179BP(BackPropagation)網(wǎng)絡(luò)BP(BackPropagation)網(wǎng)絡(luò)180Hopfield神經(jīng)網(wǎng)絡(luò)輸入樣本向量組成的矩陣:RBF網(wǎng)絡(luò)的隱層是非線性的,輸出層是線性的,而用MLP解決模式分類問題時,它的隱層與輸出層通常選非線性的。競爭(Competitive)學(xué)習(xí)輸入樣本向量組成的矩陣:其中,是類中樣本的個數(shù);單層全連接反饋網(wǎng)絡(luò)(1)抽取反映被檢測對象(設(shè)備、部件或零件等)的特征參數(shù),如(x1,x2,.但是對于某些實際問題,更多的隱層可能會使總的神經(jīng)元個數(shù)減少,從而得到更有效的神經(jīng)網(wǎng)絡(luò)。標(biāo)準(zhǔn)BP算法的改進(jìn)有三個穩(wěn)定存儲模式的聯(lián)想記憶標(biāo)準(zhǔn)BP算法的改進(jìn)第一部分神經(jīng)元模型及神經(jīng)網(wǎng)絡(luò)基礎(chǔ);初值可能使系統(tǒng)過早地陷入飽和區(qū)(例如對于給出用BP網(wǎng)絡(luò)求解XOR問題的C語言或MATLAB源程序。用徑向基函數(shù)(RBF)作為隱單元的“基”,構(gòu)成隱層空間,隱層對輸入矢量進(jìn)行變換,將低維的模式輸入數(shù)據(jù)變換到高維空間內(nèi),使得在低維空間內(nèi)線性不可分問題在高維空間線性可分。5、若新舊相差很小,則停止.否則轉(zhuǎn)2.用Hopfield網(wǎng)絡(luò)做圖像恢復(fù)第一個輸出單元的輸入為:易形成局部極小而得不到全局最優(yōu)解;但是對于某些實際問題,更多的隱層可能會使總的神經(jīng)元個數(shù)減少,從而得到更有效的神經(jīng)網(wǎng)絡(luò)。給出用BP網(wǎng)絡(luò)求解XOR問題的C語言或MATLAB源程序。權(quán)值迭代公式推導(dǎo)Hopfield神經(jīng)網(wǎng)絡(luò)權(quán)值迭代公式推導(dǎo)181BP網(wǎng)絡(luò)簡化拓?fù)鋱D形BP網(wǎng)絡(luò)簡化拓?fù)鋱D形182信息流動方式對于輸入樣本向量:第一個隱單元的輸入為:權(quán)向量:第一個隱單元的輸出為:信息流動方式對于輸入樣本向量:第一個隱單元的輸入為:權(quán)向量:183信息流動方式對于隱層各單元的輸出:第一個輸出單元的輸入為:權(quán)向量:第一個輸出單元的輸出為:信息流動方式對于隱層各單元的輸出:第一個輸出單元的輸入為:權(quán)184誤差函數(shù)誤差函數(shù)185梯度法(GradientMethod)誤差函數(shù)權(quán)值迭代公式

其中,

梯度法(GradientMethod)誤差函數(shù)權(quán)值迭代公式186修改權(quán)值梯度法

其中,為學(xué)習(xí)率,而

修改權(quán)值梯度法 其中,為學(xué)習(xí)率,而187修改權(quán)值梯度法

其中,修改權(quán)值梯度法 其中,188BP算法流程圖(批方式)BP算法流程圖(批方式)189BP

網(wǎng)絡(luò)用于求解XOR問題BP網(wǎng)絡(luò)用于求解XOR問題190課外作業(yè)給出用BP網(wǎng)絡(luò)求解XOR問題的C語言或MATLAB源程序。課外作業(yè)給出用BP網(wǎng)絡(luò)求解XOR問題的C語言或MATLAB源191在線梯度法權(quán)值增量公式

在線梯度法權(quán)值增量公式 1922、對于輸入樣本向量,因此,在滿足樣本學(xué)習(xí)精度的前提下,隱節(jié)點個數(shù)應(yīng)該盡可能地小。第一個隱單元的輸出為:適合用RBF網(wǎng)絡(luò)求解的分類問題標(biāo)準(zhǔn)BP算法的改進(jìn)(5)用訓(xùn)練好的網(wǎng)絡(luò)對待檢測對象進(jìn)行狀態(tài)識別,即把待檢測對象的特征參數(shù)作為網(wǎng)絡(luò)輸入,根據(jù)網(wǎng)絡(luò)輸出確定待檢對象的狀態(tài)類別。(RadialBasisFunction,RBF)第三部分徑向基函數(shù)網(wǎng)絡(luò);劃分區(qū)域:上下或左右。(2)對被檢測對象的狀態(tài)類別進(jìn)行編碼。帶隱層的感知器能對XOR問題進(jìn)行正確分均值聚類算法Ⅰ單層全連接反饋網(wǎng)絡(luò)或:若活化函數(shù)為Sigmoid函數(shù),則可以選取適當(dāng)?shù)碾[單元個數(shù)及權(quán)值,使得BP網(wǎng)絡(luò)能夠以任意的精度逼近一個給定的連續(xù)函數(shù).(RadialBasisFunction,RBF)5、若新舊相差很小,則停止.否則轉(zhuǎn)2.可用于解決模式識別、函數(shù)逼近和數(shù)據(jù)壓縮等問題。RBF網(wǎng)絡(luò)的原理及特點但是對于某些實際問題,更多的隱層可能會使總的神經(jīng)元個數(shù)減少,從而得到更有效的神經(jīng)網(wǎng)絡(luò)。用Hopfield網(wǎng)絡(luò)做圖像恢復(fù)BP算法流程圖(在線)2、對于輸入樣本向量,BP算法流程圖(在線)193BP網(wǎng)絡(luò)的逼近能力若活化函數(shù)為Sigmoid函數(shù),則可以選取適當(dāng)?shù)碾[單元個數(shù)及權(quán)值,使得BP網(wǎng)絡(luò)能夠以任意的精度逼近一個給定的連續(xù)函數(shù).BP網(wǎng)絡(luò)的逼近能力若活化函數(shù)為Sigmoid函194隱層的個數(shù)從理論上講,多于一個隱層的前向網(wǎng)絡(luò)是沒有必要的。但是對于某些實際問題,更多的隱層可能會使總的神經(jīng)元個數(shù)減少,從而得到更有效的神經(jīng)網(wǎng)絡(luò)。隱層的個數(shù)

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論