




版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)
文檔簡介
改進BP神經(jīng)網(wǎng)絡(luò)與MATLAB實現(xiàn)江西師范大學(xué)1:BP神經(jīng)網(wǎng)絡(luò)的概述2:BP神經(jīng)網(wǎng)絡(luò)的標準訓(xùn)練學(xué)習(xí)3:在MATLAB軟件上運行幾個程序4:基于Levenberg-Marquardt算法的學(xué)習(xí)優(yōu) 化(阻尼最小二乘法)5:基于蟻群算法的初始權(quán)值優(yōu)化6:經(jīng)過4和5優(yōu)化后的仿真試驗(發(fā)動機 性能趨勢分析和故障診斷中的應(yīng)用)7:總結(jié)多元函數(shù)圖示一元函數(shù)X.R二元函數(shù)xyoR.fD.f.三元函數(shù)xyzo.R.fXXI矩形的面積
S=x×y長方體體積
V=x×y×z多元函數(shù)圖示xR..
多元函數(shù)及其圖形多元函數(shù)及其圖形BP神經(jīng)網(wǎng)絡(luò)模型激活函數(shù)必須處處可導(dǎo)一般都使用S型函數(shù)使用S型激活函數(shù)時BP網(wǎng)絡(luò)輸入與輸出關(guān)系輸入輸出BP神經(jīng)網(wǎng)絡(luò)模型輸出的導(dǎo)數(shù)根據(jù)S型激活函數(shù)的圖形可知,對神經(jīng)網(wǎng)絡(luò)進行訓(xùn)練,應(yīng)該將net的值盡量控制在收斂比較快的范圍內(nèi)
網(wǎng)絡(luò)結(jié)構(gòu)輸入層有n個神經(jīng)元,隱含層有p個神經(jīng)元,
輸出層有q個神經(jīng)元變量定義輸入向量;隱含層輸入向量;隱含層輸出向量;輸出層輸入向量;輸出層輸出向量;期望輸出向量;輸入層與中間層的連接權(quán)值:隱含層與輸出層的連接權(quán)值:隱含層各神經(jīng)元的閾值:輸出層各神經(jīng)元的閾值:樣本數(shù)據(jù)個數(shù):激活函數(shù):誤差函數(shù):第一步,網(wǎng)絡(luò)初始化給各連接權(quán)值分別賦一個區(qū)間(-1,1)內(nèi)的隨機數(shù),設(shè)定誤差函數(shù)e,給定計算精度值和最大學(xué)習(xí)次數(shù)M。第二步,隨機選取第個輸入樣本及對應(yīng)期望輸出第三步,計算隱含層各神經(jīng)元的輸入和輸出第四步,利用網(wǎng)絡(luò)期望輸出和實際輸出,計算誤差函數(shù)對輸出層的各神經(jīng)元的偏導(dǎo)數(shù) 。第五步,利用隱含層到輸出層的連接權(quán)值、輸出層的 和隱含層的輸出計算誤差函數(shù)對隱含層各神經(jīng)元的偏導(dǎo)數(shù) 第六步,利用輸出層各神經(jīng)元的 和隱含層各神經(jīng)元的輸出來修正連接權(quán)值第七步,利用隱含層各神經(jīng)元的和輸入層各神經(jīng)元的輸入修正連接權(quán)。第八步,計算全局誤差第九步,判斷網(wǎng)絡(luò)誤差是否滿足要求。當誤差達到預(yù)設(shè)精度或?qū)W習(xí)次數(shù)大于設(shè)定的最大次數(shù),則結(jié)束算法。否則,選取下一個學(xué)習(xí)樣本及對應(yīng)的期望輸出,返回到第三步,進入下一輪學(xué)習(xí)。BP算法直觀解釋情況1的直觀表達當誤差對權(quán)值的偏導(dǎo)數(shù)大于零時,權(quán)值調(diào)整量為負,實際輸出大于期望輸出,權(quán)值向減少方向調(diào)整,使得實際輸出與期望輸出的差減少。whoe>0,此時Δwho<0BP算法直解釋情況2的直觀表達當誤差對權(quán)值的偏導(dǎo)數(shù)小于零時,權(quán)值調(diào)整量為正,實際輸出少于期望輸出,權(quán)值向增大方向調(diào)整,使得實際輸出與期望輸出的差減少。e<0,此時Δwho>0who梯度下降法
一、無約束優(yōu)化的古典分析法無約束優(yōu)化問題可表示為
minf
(x1,x2,…,xn)
xi
R,i=1,2,…,n如果令
x=(x1,x2,…,xn)T,則無約束優(yōu)化問題為
minf
(x)
x
Rn
關(guān)于
f
(x):當
x
=(x)
時,f
(x)
是一條曲線;當
x
=(x1,x2)T
時,f
(x1,x2)
是一個曲面;當
x
=(x1,x2,x3)T
時,f
(x1,x2,x3)
是一個體密度(或類位勢函數(shù));當
x
=(x1,x2,…,xn)T
時,f
(x1,x2,…,xn)
是一個超曲面。
設(shè)函數(shù)
f
(x)=f
(x1,...,xn)
對所有變元都有一階與二階連續(xù)偏導(dǎo)數(shù),則
①
稱
n
個一階偏導(dǎo)數(shù)構(gòu)成的
n
維列向量為
f.(x)
的梯度,記作
②
稱滿足
f
(x0)
=
0
的點
x0為函數(shù)f
(x)
的駐點或臨界點。
③
稱
n2個二階偏導(dǎo)數(shù)構(gòu)成的
n
階對稱矩陣為函數(shù)
f
(x)
的海森(Hessian)矩陣,記為
H(x)或
2f
(x):
綜上所述,多元函數(shù)
f
(x)=f
(x1,x2,…,xn)
的一階導(dǎo)數(shù)是它的梯度
f.(x),二階導(dǎo)數(shù)是它的
Hessian
矩陣
2f
(x)。在最優(yōu)化方法的討論中這是兩個常用的概念。
定理
(最優(yōu)性條件)設(shè)
n
元函數(shù)
y
=
f
(x)
對所有變元具有一階及二階連續(xù)偏導(dǎo)數(shù),則
x0是
f
(x)
極小點的充分條件為
f
(x0)=0,
2f
(x0)>0(正定)而
x0是f
(x)
極大點的充分條件為
f
(x0)=0,
2f
(x0)<0(負定)
事實上,如果設(shè)
x=(x1,…,xn)T,則利用多元函數(shù)的泰勒展開式,我們有其中
R
為
x
的高階無窮小,即
R=o||
x
||2。
于是,當
x0為函數(shù)
f.(x)
的駐點時可以得到于是,當
xi(i=1,…,n)足夠小時,上式右端的正負號完全由二次型
xT
2f
(x0)x
決定,從而完全由
Hessian
矩陣
2f
(x)的正(負)定性決定。
注記:微積分中求一元函數(shù)和二元函數(shù)極值的方法,是這個定理的特例。二、無約束優(yōu)化的梯度下降法對于無約束優(yōu)化問題minf(x)(1)
x=(x1,x2,…,xn)T
Rn如果f
(x)
可微,根據(jù)古典分析的方法,可利用
f
(x)=0(2)求駐點,然后再利用
Hessian
矩陣
2f.(x)
來判定這些駐點是否極小值點,從而求出無約束優(yōu)化問題(1)的最優(yōu)解。
但是,用古典分析的方法求解無約束優(yōu)化問題(1)實際上是行不通的,這是由于:
(1)實際應(yīng)用中相當數(shù)量的函數(shù)
f.(x)
不具有解析性,故非線性方程組
f
(x)
=
0
無法形成;
(2)即使形成了方程組
f
(x)
=
0,由于它是一個
n
元非線性方程組,因而求它的解與解決原問題一樣地困難;
(3)即使求得了
f
(x)
=
0
的解
x*,但由于最優(yōu)性條件不被滿足或者難于驗證,因此仍無法確定
x*
是否為(1)的解。
例如,有些曲面有許多甚至無窮多極大值和極小值,則無法驗證最優(yōu)性條件。
鑒于上述種種原因,對于(1)的求解,通常采用一些比較切合實際、行之有效的數(shù)值算法。最常用的是迭代算法(搜索算法)。
迭代算法的基本思想是:從一個選定的初始點
x0
Rn出發(fā),按照某一特定的迭代規(guī)則產(chǎn)生一個點列
{xk},使得當
{xk}
是有窮點列時,其最后一個點是(1)的最優(yōu)解;當
{xk}
是無窮點列時,它有極限點,并且其極限點是(1)的最優(yōu)解。
設(shè)
xk
Rn
是某迭代算法的第
k
輪迭代點,而xk+1
Rn是第
k+1
輪迭代點,記xk+1=xk
+
kpk這里
k
R
稱為步長,pk
Rn
稱為搜索方向。在
k和
pk
確定之后,由
xk
Rn
就可以確定
xk+1
Rn。各種不同迭代算法的差別,在于選擇
k
和
pk(特別是
pk)的方法不同。
使用最廣泛的一類是下降算法,它每迭代一次都是目標函數(shù)值有所下降,即
f
(xk+1)
<f
(xk)。在下降算法中
(1)搜索方向
pk
有多種選擇方式,不同的選擇形成不同的下降算法,如梯度下降法(也叫最速下降法),共軛梯度法,牛頓法,阻尼牛頓法,擬牛頓法等。但無論哪種下降法,pk
的選擇都有一個一般的原則:既要使它盡可能地指向極小值點,又不至于花費太大的使計算代價。
(2)步長的選擇也有多種不同方式,最常用的方式是尋找最優(yōu)步長,即求單變量極值問題的最優(yōu)解
k
R:
梯度下降法(最速下降法)
早在
1847
年,法國數(shù)學(xué)家
Cauchy
就曾提出這樣的問題:從任一給定點
x0
Rn出發(fā),沿著哪個方向
f
(x)
的函數(shù)值下降最快?這個問題從理論上已經(jīng)得到解決,就是沿著在該點的負梯度方向,f
(x)
的函數(shù)值下降最快。這就是梯度下降法的理論依據(jù)。
梯度下降法的迭代步驟
1
給定初始點
x0
Rn,允許誤差
>
0,并令k:=0;
2
計算pk
=
f(xk);
3檢驗是否滿足收斂性判別準則:||
pk||
若滿足判別準則,則停止迭代,得到點
x*
xk,否則進行
4;
4
單變量極值問題的最優(yōu)解
k
R:
5
令xk+1
=xk
+
kpk;k:=k+1返回
2。
例
用梯度下降法求解minf
(x)=2x12+
x22。
解
(1)取初始點
x0
=
(1,
1)T,計算得
p0=
f
(x0)=(4x01,
2x02)T|x1=1,x2=1
=
(4,2)T由于所以f
(x0+
p0)=2(1
4
)2+(1
2
)2。再求解單變量極值問題:得
0
=
5/18,于是x1=
x0+
0
p0=(1/9,4/9)T
(2)計算得
p1=
f(x1)=(4x11
2x12)|x11=1/9,x12=4/9
=(4/9,8/9)T所以故再求解單變量極值問題:得
1
=5/12,于是x2=
x1+
1
p1=(2/27,2/27)T
(3)計算得
p2=
f
(x2)=(8/27,4/27),......
如此繼續(xù)下去,直到滿足收斂準則為止。
該問題的最優(yōu)解為
x*
=
(0,1)T,f
(x*)
=
0,如圖所示。
梯度下降法是求解無約束優(yōu)化問題的最基本的算法,它在最優(yōu)化方法中占有重要地位。梯度下降法的優(yōu)點是計算量小,存儲變量少,對初始點要求不高。缺點是:
f.(x)
僅僅反映了函數(shù)在點
x
處的局部性質(zhì),對局部來說是最速的下降方向,但對整體求解過程并不一定使函數(shù)值下降的最快;另外,梯度下降法收斂速度慢,特別是在極小值點附近。
梯度下降法適用于尋優(yōu)過程的前期迭代或作為間插步驟,當接近極值點時宜選用其它收斂快的算法。在MATLAB上實現(xiàn)的幾個例子屬于解析型的算法有:①梯度法:又稱最速下降法。這是早期的解析法,收斂速度較慢。②牛頓法:收斂速度快,但不穩(wěn)定,計算也較困難。③共軛梯度法:收斂較快,效果較好。④變尺度法:這是一類效率較高的方法。等等BP網(wǎng)絡(luò)的訓(xùn)練函數(shù)
訓(xùn)練方法訓(xùn)練函數(shù)梯度下降法traingd有動量的梯度下降法traingdm自適應(yīng)lr梯度下降法traingda自適應(yīng)lr動量梯度下降法traingdx彈性梯度下降法trainrpFletcher-Reeves共軛梯度法traincgfPloak-Ribiere共軛梯度法traincgpPowell-Beale共軛梯度法traincgb量化共軛梯度法trainscg擬牛頓算法trainbfg一步正割算法trainossLevenberg-Marquardttrainlm例一:利用三層BP神經(jīng)網(wǎng)絡(luò)來完成非線性函數(shù)的逼近任務(wù),其中隱層神經(jīng)元個數(shù)為五個。樣本數(shù)據(jù):輸入X輸出D輸入X輸出D輸入X輸出D-1.0000-0.9602-0.30000.13360.40000.3072-0.9000-0.5770-0.2000-0.20130.50000.3960-0.8000-0.0729-0.1000-0.43440.60000.3449-0.70000.37710-0.50000.70000.1816-0.60000.64050.1000-0.39300.8000-0.3120-0.50000.66000.2000-0.16470.9000-0.2189-0.40000.46090.3000-0.09881.0000-0.3201例二利用三層BP神經(jīng)網(wǎng)絡(luò)來完成非線性函數(shù)的逼近任務(wù),其中隱層神經(jīng)元個數(shù)為五個。樣本數(shù)據(jù):輸入X輸出D輸入X輸出D輸入X輸出D00448211539322621043371些論文對BP神經(jīng)網(wǎng)絡(luò)的訓(xùn)練學(xué)習(xí)過程進行改進用LM(Levenberg-Marquardt
)算法對BP神經(jīng)網(wǎng)絡(luò)的訓(xùn)練學(xué)習(xí)進行改進。它是使用最廣泛的非線性最小二乘算法,它是利用梯度求最小(大)值的算法,形象的說,屬于“爬山”法的一種。它同時具有梯度法和牛頓法的優(yōu)點。當λ很小時,步長等于牛頓法步長,當λ很大時,步長約等于梯度下降法的步長。
這個λ的變動有時候像阻尼運動一樣,所以LM算法又叫阻尼最小二乘法牛頓法的幾何意義xyx*x0x
1x
2牛頓法也稱為切線法基本思想
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
- 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 2025-2030黃斑變性(AMD)和糖尿病視網(wǎng)膜病變(DR)藥物行業(yè)市場現(xiàn)狀供需分析及重點企業(yè)投資評估規(guī)劃分析研究報告
- 2025-2030頸托行業(yè)市場現(xiàn)狀供需分析及投資評估規(guī)劃分析研究報告
- 2025-2030貿(mào)易融資行業(yè)市場發(fā)展前景及發(fā)展趨勢與投資機會研究報告
- 2025-2030液體塑料瓶行業(yè)市場發(fā)展分析及發(fā)展趨勢與投資研究報告
- 2025-2030旅游景區(qū)行業(yè)市場深度調(diào)研及前景趨勢與投資研究報告
- 八年級上學(xué)期地理教學(xué)計劃
- 2025年體外診斷產(chǎn)品項目分析評價報告
- 2025年正常用電申請報告范文
- 中國污水處理MBR技術(shù)行業(yè)市場運行狀況及競爭力分析報告2025-2025年
- 房屋居間合同模板7篇
- GB/T 12412-2024牦牛絨
- 浙教版七年級下冊數(shù)學(xué)期中試卷-2
- T∕HGJ 12400-2021 石油化工儀表線纜選型設(shè)計標準
- T-CBIA 009-2022 飲料濃漿標準
- 大學(xué)生勞動教育(高職版)(深圳職業(yè)技術(shù)大學(xué))知到智慧樹答案
- 2023年四川省遂寧市經(jīng)開區(qū)社區(qū)工作人員(綜合考點共100題)模擬測試練習(xí)題含答案
- 測繪高級工程師答辯題庫
- 化工原理天大版5.1蒸發(fā)
- 獸醫(yī)檢驗練習(xí)題庫含答案
- 中考英語高頻單詞(背誦版)
- 《冷鏈物流管理》教學(xué)大綱
評論
0/150
提交評論