BP神經(jīng)網(wǎng)絡實驗-Matlab_第1頁
BP神經(jīng)網(wǎng)絡實驗-Matlab_第2頁
BP神經(jīng)網(wǎng)絡實驗-Matlab_第3頁
BP神經(jīng)網(wǎng)絡實驗-Matlab_第4頁
BP神經(jīng)網(wǎng)絡實驗-Matlab_第5頁
已閱讀5頁,還剩13頁未讀 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權,請進行舉報或認領

文檔簡介

1、計算智能實驗報告實驗名稱: BP 神經(jīng)網(wǎng)絡算法實驗班級名稱: 2010 級軟工三班專業(yè):軟件工程姓名:李 XX學號:XXXXXX2010090精品資料1、 實驗目的1 ) 編程實現(xiàn) BP 神經(jīng)網(wǎng)絡算法;2 ) 探究 BP 算法中學習因子算法收斂趨勢、收斂速度之間的關系;3 ) 修改訓練后BP 神經(jīng)網(wǎng)絡部分連接權值,分析連接權值修改前和修改后對相同測試樣本測試結果,理解神經(jīng)網(wǎng)絡分布存儲等特點。2、 實驗要求按照下面的要求操作,然后分析不同操作后網(wǎng)絡輸出結果。1 ) 可修改學習因子2 ) 可任意指定隱單元層數(shù)3 ) 可任意指定輸入層、隱含層、輸出層的單元數(shù)4)可指定最大允許誤差e5 ) 可輸入學習

2、樣本(增加樣本)6 ) 可存儲訓練后的網(wǎng)絡各神經(jīng)元之間的連接權值矩陣;7 ) 修改訓練后的 BP 神經(jīng)網(wǎng)絡部分連接權值,分析連接權值修改前和修改后對相同測試樣本測試結果三、實驗原理1明確BP神經(jīng)網(wǎng)絡算法的基本思想如下:在BPNN中,后向傳播是一種學習算法,體現(xiàn)為 BPNN的訓練過程,該過程是需要教師指導的;前饋型網(wǎng)絡是一種結構,體現(xiàn)為BPNN的網(wǎng)絡構架反向傳播算法通過迭代處理的方式,不斷地調(diào)整連接神經(jīng)元的網(wǎng)絡權重,使得最終輸出結果和預期結果的誤差最小BPNN是一種典型的神經(jīng)網(wǎng)絡, 廣泛應用于各種分類系統(tǒng),它也包括了訓練和使用兩個階段。由于訓練階段是 BPNN能夠投入使用的基礎和前提,而使用階段

3、本身是一個非常簡單的過程,也就是給出輸入,BPNN會根據(jù)已經(jīng)訓練好的參數(shù)進行運算,得到輸出結果2明確BP神經(jīng)網(wǎng)絡算法步驟和流程如下:1初始化網(wǎng)絡權值2由給定的輸入輸出模式對計算隱層、輸出層各單元輸出3計算新的連接權及閥值,4選取下一個輸入*II式對返回第 2步反復訓練直到網(wǎng)絡設輸出誤差達到要求結束訓練。制逮覆口揭唱與fli»#出髓壯反忖隗“一爐花松報T雷朋仙相元嵋(st )四、實驗內(nèi)容和分析1.實驗時建立三層BP神經(jīng)網(wǎng)絡,輸入節(jié)點2個,隱含層節(jié)點2個,輸出節(jié)點1個,輸入訓練樣本如下表:輸入值輸出0.00.00.00.01.01.01.00.01.01.01.00.0學習因子分別為0.

4、5和0.6,最大允許誤差0.01代碼:P=0.0 0.0 1.0 1.0;0.0 1.0 0.0 1.0;%輸入量矩陣T=0.0 1.0 1.0 0.0;% 輸出量矩陣net=newff(minmax(P),T,2 1,'tansig','purelin','traingd');% 創(chuàng)建名為 net的 BP 神經(jīng)網(wǎng)絡inputWeights=net.IW1,1;% 輸入層與隱含層的連接權重inputbias=net.b2;% 輸入層與隱含層的閾值net.trainParam.epochs=5000;% 網(wǎng)絡參數(shù):最大訓練次數(shù)為 5000 次net

5、.trainParam.goal=0.01;% 網(wǎng)絡參數(shù):訓練精度為 0.001net.trainparam.lr=0.5;% 網(wǎng)絡參數(shù):學習設置率為 0.5net.trainParam.mc=0.6; % 動量net.trainparam.show=100% 網(wǎng)絡參數(shù): 設置為每 5 次學習顯示誤差曲線點net,tr=train(net,P,T);%訓練A=sim(net,P);%仿真E=T-A;%誤差MSE=mse(E);%均方誤差i Neural Network Training (nntraintool)NeuraI INetwork Training Performance plot

6、performi); Epoch 16, Performance goal metBest Training Performance is 0.008364 at epoch 16TO1一ofow-3681016 Epochs12TrainBestGoal16訓練結果: 訓練次數(shù)5000 ,全局誤差0.008364輸入層與隱含層連接權值為» net.IWO, 1)-X 85901.3331X 9491-1.7234隱含層與輸出層連接權值為» net, lw l.2j 11ana =-0.6739-0.6438隱含層神經(jīng)元閾值為>> net. b 15 12.輸入

7、測試樣本為» Fl=0,05 0. 2 C, 3«Qh L 6 9 0. 351Pl 二0.0500Q. 20g0,S600OU 0000.90000.9500» 11=5 lm (netj PL)Il =0. 02390. 4£67-0.0674輸出層神經(jīng)元閾值為» net. b2, 1ans 二1. 0902可見網(wǎng)絡性能良好,輸出結果基本滿足識別要求。3. 改變學習因子學習因子決定每一次循環(huán)訓練中所產(chǎn)生的權值變化量。大的學習因子可能導致系統(tǒng)的不穩(wěn)定;但小的學習因子導致較長的訓練時間, 可能收斂很慢,不過能 保證網(wǎng)絡的誤差值不跳出誤差表面的低

8、谷而最終趨于誤差最小值。所以一般情況下傾向于選取較小的學習速率以保證系統(tǒng)的穩(wěn)定性。» netitrairparaji.%愜絡番數(shù):學工詢言率為口net. train? ar Em. mc=O. 3;電動量ieuri iNerworK i raining enonnance pioiperrcmij tpocn vairaaTion sxop.Best Validation Perfornnsnce is 0.097402 at epoch 0LTra in ValidationTestBestGoal0501)QJW poJmnbs 仁相三0. 38830.92870.93474.

9、改變輸入層、隱含層、輸出層的單元數(shù)當隱含層節(jié)點個數(shù)為3時,相同訓練樣本和測試樣本,得到測試結果為net=newff(minmax(P),T,3 1,'tansig','purelin','traingd');% 創(chuàng)建名為 net 的BP神經(jīng)網(wǎng)絡>>Pl)精品資料T1 =訓練次數(shù)5000,全局誤差0.004126可見,改變輸入層、隱含層、輸出層的單元數(shù),即改變網(wǎng)絡結構,可以改善網(wǎng)絡性能,增加隱含層節(jié)點個數(shù)可以更好的提取模式特征,識別結果更精確,但網(wǎng)絡復雜度增加,可能不穩(wěn)定。5. 最大允許誤差£控制網(wǎng)絡識別精度。選取較大值學習速

10、度加快,但精度降低;選取較小值,學習速度變慢,精度 提高,但可能導致網(wǎng)絡無法收斂到允許的誤差范圍。net.trainParam.lr=0.05;6. 增加學習樣本在基本實驗的基礎上,增加一個學習樣本0.1 1.0 1.0后,訓練次數(shù)變增加為18982 ,全局誤差為0.0099993 ,相同測試樣本,測試結果為在基本實驗的基礎上,增加一個學習樣本0.1 1.0 1.0后,訓練次數(shù)變增加為20000,全局誤差為0.12568,相同測試樣本,測試結果為>>Pl)J1 二0. 3338 0.922292S6網(wǎng)絡學習速度降低,識別精度大大提高。另外,改變學習樣本個數(shù),將改變 原有訓練結果。»fl)ri 二I”情i,a:5&q:無7. 改變部分連接權值E rU96柘! - 7535-L L631>> EBUHUL8H < 7、房幽 f B】網(wǎng)絡性能被

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論