BP神經(jīng)網(wǎng)絡預測模型_第1頁
BP神經(jīng)網(wǎng)絡預測模型_第2頁
BP神經(jīng)網(wǎng)絡預測模型_第3頁
全文預覽已結束

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權,請進行舉報或認領

文檔簡介

1、BP神經(jīng)網(wǎng)絡模型基本原理(1) 神經(jīng)網(wǎng)絡的定義簡介神經(jīng)網(wǎng)絡是由多個神經(jīng)元組成的廣泛互連的神經(jīng)網(wǎng)絡,能夠模擬生物神經(jīng) 系統(tǒng)真實世界及物體之間所做出的交互反應.人工神經(jīng)網(wǎng)絡處理信息是通過信 息樣本對神經(jīng)網(wǎng)絡的訓練,使其具有人的大腦的記憶,辨識能力,完成名種信息 處理功能.它不需要任何先驗公式,就能從已有數(shù)據(jù)中自動地歸納規(guī)則,獲得這 些數(shù)據(jù)的內(nèi)在規(guī)律,具有良好的自學習,自適應,聯(lián)想記憶,并行處理和非線性 形轉(zhuǎn)換的能力,特別適合于因果關系復雜的非確定性推理,判斷,識別和分類等 問題.對于任意一組隨機的,正態(tài)的數(shù)據(jù),都可以利用人工神經(jīng)網(wǎng)絡算法進行統(tǒng) 計分析,做出擬合和預測.基于誤差反向傳播(Back p

2、ropagation算法的多層前饋網(wǎng)絡(Multiple-layer feedforward network,簡記為BP網(wǎng)絡),是目前應用最成功和廣泛的人工神經(jīng)網(wǎng) 絡(2) BP莫型的基本原理3學習過程中由信號的正向傳播與誤差的逆向傳播兩個過程組成正向傳播時,模式作用于輸入層,經(jīng)隱層處理后,傳入誤差的逆向傳播階段,將輸出誤差 按某種子形式,通過隱層向輸入層逐層返回,并分攤”給各層的所有單元,從而 獲得各層單元的參考誤差或稱誤差信號,以作為修改各單元權值的依據(jù)權值不 斷修改的過程,也就是網(wǎng)絡學習過程.此過程一直進行到網(wǎng)絡輸出的誤差準逐漸 減少到可接受的程度或達到設定的學習次數(shù)為止 BP網(wǎng)絡模型包

3、括其輸入輸出模 型,作用函數(shù)模型,誤差計算模型和自學習模型.BP網(wǎng)絡由輸入層,輸出層以及一個或多個隱層節(jié)點互連而成的一種多層網(wǎng) , 這種結構使多層前饋網(wǎng)絡可在輸入和輸出間建立合適的線性或非線性關系,又不致使網(wǎng)絡輸出限制在-1和1之間.見圖(1).O 1O 2OiO m輸出層隱含層(大于等于一層)WW(L)輸入層圖1 BP網(wǎng)絡模型(3) BP神經(jīng)網(wǎng)絡的訓練BP算法通過 訓練”這一事件來得到這種輸入,輸出間合適的線性或非線性 關系訓練”的過程可以分為向前傳輸和向后傳輸兩個階段:1 向前傳輸階段: 從樣本集中取一個樣本 R,Qj,將R輸入網(wǎng)絡; 計算出誤差測度E和實際輸出Oj = Fl(.(F2(F

4、1(F;W(1)W).)W(L); 對權重值W,W,WL各做一次調(diào)整,重復這個循環(huán),直到E: ;2 向后傳播階段誤差傳播階段: 計算實際輸出Op與理想輸出Qj的差; 用輸出層的誤差調(diào)整輸出層權矩陣;1 m Ej 話(Qij -Oj)2 ;2 j丄 用此誤差估計輸出層的直接前導層的誤差,再用輸出層前導層誤差估計 更前一層的誤差.如此獲得所有其他各層的誤差估計; 并用這些估計實現(xiàn)對權矩陣的修改 形成將輸出端表現(xiàn)出的誤差沿著與 輸出信號相反的方向逐級向輸出端傳遞的過程網(wǎng)絡關于整個樣本集的誤差測度:E匹Eji幾點說明:一般地,BP網(wǎng)絡的輸入變量即為待分析系統(tǒng)的內(nèi)生變量 (影響因子或自變量) 數(shù),一般根

5、據(jù)專業(yè)知識確定。若輸入變量較多,一般可通過主成份分析方法壓減 輸入變量,也可根據(jù)剔除某一變量引起的系統(tǒng)誤差與原系統(tǒng)誤差的比值的大小來 壓減輸入變量。輸出變量即為系統(tǒng)待分析的外生變量(系統(tǒng)性能指標或因變量), 可以是一個,也可以是多個。一般將一個具有多個輸出的網(wǎng)絡模型轉(zhuǎn)化為多個具 有一個輸出的網(wǎng)絡模型效果會更好,訓練也更方便。一般認為,增加隱層數(shù)可以降低網(wǎng)絡誤差,提高精度,但也使網(wǎng)絡復雜化,從而增加了網(wǎng)絡的訓練時間和出現(xiàn)“過擬合”的傾向。在設計BP網(wǎng)絡時,確定隱層節(jié)點數(shù)的最基本原則是:在滿足精度要求的前提下取盡可能緊湊的結構,即取盡可能少的隱層節(jié)點數(shù),可以優(yōu)先考慮3層BP網(wǎng)絡(即有1個隱層)。一般地,靠增 加隱層節(jié)點數(shù)來獲得較低的誤差,其訓練效果要比增加隱層數(shù)更容易實現(xiàn)。對于 沒有隱層的神經(jīng)網(wǎng)絡模型,實際上就是一個線性或非線性

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論