




版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認(rèn)領(lǐng)
文檔簡介
一、感知器神經(jīng)網(wǎng)絡(luò)二、線性神經(jīng)網(wǎng)絡(luò)三、BP傳播網(wǎng)絡(luò)四、Simulink神經(jīng)網(wǎng)絡(luò)仿真模型庫目錄一、感知器神經(jīng)網(wǎng)絡(luò)二、線性神經(jīng)網(wǎng)絡(luò)三、BP傳播網(wǎng)絡(luò)四、Sim一、感知器神經(jīng)網(wǎng)絡(luò)輸入神經(jīng)元感知器神經(jīng)元的一般模型一、感知器神經(jīng)網(wǎng)絡(luò)輸入神經(jīng)元感知器神經(jīng)元的一般模型1.感知器的學(xué)習(xí)
感知器的學(xué)習(xí)是有導(dǎo)師學(xué)習(xí)方式。感知器的訓(xùn)練算法的基本原理來源于著名的Hebb學(xué)習(xí)律?;舅枷耄褐鸩降貙颖炯械妮斎氲骄W(wǎng)絡(luò)中,根據(jù)輸出結(jié)果和理想輸出之間的差別來調(diào)整網(wǎng)絡(luò)中的權(quán)矩陣。最實用的功能:對輸入向量進行分類。1.感知器的學(xué)習(xí)感知器的學(xué)習(xí)是有導(dǎo)師學(xué)習(xí)方式。2.感知器的局限性①感知器神經(jīng)網(wǎng)絡(luò)的傳輸函數(shù)一般采用閾值函數(shù),所以輸出值只能取0或1;②感知器神經(jīng)網(wǎng)絡(luò)只能對線性可分的向量集合進行分類。理論上已經(jīng)證明,只要輸入向量是線性可分的,感知器在有限的時間內(nèi)總能達(dá)到目標(biāo)向量。③當(dāng)感知器神經(jīng)網(wǎng)絡(luò)的所有輸入樣本中存在奇異的樣本時,即該樣本向量同其它所有樣本向量比較起來特別大或特別小時,網(wǎng)絡(luò)訓(xùn)練花費的時間將很長。2.感知器的局限性①感知器神經(jīng)網(wǎng)絡(luò)的傳輸函數(shù)一般采用閾值函數(shù)3.感知器神經(jīng)網(wǎng)絡(luò)仿真設(shè)計分析①newp函數(shù)功能:用于創(chuàng)建一個感知器網(wǎng)絡(luò)。格式:net=newp(PR,S,TF,LF)說明:net為生成的感知器神經(jīng)網(wǎng)絡(luò);PR為一個R×2的矩陣,有R組輸入向量中的最大和最小值組成;S表示神經(jīng)元的個數(shù);TF表示感知器的激活函數(shù),默認(rèn)值為硬限幅激活函數(shù)handlim;
LF表示網(wǎng)絡(luò)的學(xué)習(xí)函數(shù),默認(rèn)值為learnp。3.感知器神經(jīng)網(wǎng)絡(luò)仿真設(shè)計分析①newp函數(shù)3.感知器神經(jīng)網(wǎng)絡(luò)仿真設(shè)計分析②train函數(shù)功能:神經(jīng)網(wǎng)絡(luò)訓(xùn)練函數(shù)。格式:[net,tr,Y,E,Pf,Af]=train(NET,P,T,Pi,Ai,VV,TV)說明:net為訓(xùn)練后的網(wǎng)絡(luò);
tr為訓(xùn)練記錄;
Y為網(wǎng)絡(luò)的輸出向量;
E為誤差向量;
Pf為訓(xùn)練終止時的輸入延遲狀態(tài);
Af為訓(xùn)練終止時的層延遲狀態(tài);
NET為訓(xùn)練前的網(wǎng)絡(luò);
P為網(wǎng)絡(luò)的輸入向量矩陣;
T為網(wǎng)絡(luò)的目標(biāo)矩陣,默認(rèn)值為0;
Pi表示初始輸入延時,默認(rèn)值為0;
Ai表示初始的層延時,默認(rèn)值為0;
VV為驗證矢量(可省略);
TV為測試向量(可省略)。網(wǎng)絡(luò)訓(xùn)練函數(shù)是一種通用的學(xué)習(xí)函數(shù),訓(xùn)練函數(shù)重復(fù)地把一組輸入向量應(yīng)用到一個網(wǎng)絡(luò)上,每次都更新網(wǎng)絡(luò),直到達(dá)到了某種準(zhǔn)則,停止準(zhǔn)則可能是達(dá)到最大的學(xué)習(xí)步數(shù)、最小的誤差梯度或誤差目標(biāo)等。3.感知器神經(jīng)網(wǎng)絡(luò)仿真設(shè)計分析②train函數(shù)網(wǎng)絡(luò)訓(xùn)練函數(shù)是3.感知器神經(jīng)網(wǎng)絡(luò)仿真設(shè)計分析③sim函數(shù)功能:對網(wǎng)絡(luò)進行仿真。格式:[Y,Pf,Af,E,perf]=sim(NET,P,Pi,Ai,T)[Y,Pf,Af,E,perf]=sim(NET,{Q,TS},Pi,Ai,T)[Y,Pf,Af,E,perf]=sim(NET,Q,Pi,Ai,T)說明:Y為網(wǎng)絡(luò)的輸出向量;Pf為訓(xùn)練終止時的輸入延遲狀態(tài);
Af為訓(xùn)練終止時的層延遲狀態(tài);E為誤差向量;perf為網(wǎng)絡(luò)的性能值;NET為要測試的網(wǎng)絡(luò)對象;
P為網(wǎng)絡(luò)的輸入向量矩陣;Pi表示初始輸入延時,默認(rèn)值為0;
Ai表示初始的層延時,默認(rèn)值為0;T為網(wǎng)絡(luò)的目標(biāo)矩陣(可省略)。Q為批處理數(shù)據(jù)的個數(shù);TS為網(wǎng)絡(luò)仿真的時間步數(shù)。
3.感知器神經(jīng)網(wǎng)絡(luò)仿真設(shè)計分析③sim函數(shù)3.感知器神經(jīng)網(wǎng)絡(luò)仿真設(shè)計分析④plotpv函數(shù)功能:繪制樣本點的函數(shù)。格式:plotpv(P,T)plotpv(P,T,V)說明:P定義了n個2或3維的樣本,是一個2xn維或3xn維的矩陣;
T表示個樣本點的類別,是一個n維的向量;
V=[x_miny_minx_maxy_max]為一設(shè)置繪圖坐標(biāo)值范圍的向量;利用plotpv函數(shù)可以在坐標(biāo)圖中會出給定的樣本樣本點及其類別,不同的類別使用不同的符號。例如,如果T只含一元向量,則目標(biāo)為0的輸入向量在坐標(biāo)圖中用“o”表示;目標(biāo)為1的輸入向量在坐標(biāo)圖中用“+”表示。如果T含二元向量,則輸入向量在坐標(biāo)圖中采用的符號分別為:[00]用“o”表示;[01]用“+”表示;[10]用“*”表示;[11]用“×”表示。3.感知器神經(jīng)網(wǎng)絡(luò)仿真設(shè)計分析④plotpv函數(shù)3.感知器神經(jīng)網(wǎng)絡(luò)仿真設(shè)計分析⑤plotpc函數(shù)功能:在存在的圖上繪制出感知器分類線函數(shù)。格式:plotpc(W,B)plotpc(W,B,H)說明:plotpc(W,B)對含權(quán)矩陣W和閾值矩陣B的硬特性神經(jīng)元的兩個或三個輸入畫一個分類線。這一函數(shù)返回分類線的句柄以便以后調(diào)用。plotpc(W,B,H)包含從前的一次調(diào)用中返回的句柄。它在畫新分類線之前,刪除舊線。3.感知器神經(jīng)網(wǎng)絡(luò)仿真設(shè)計分析⑤plotpc函數(shù)3.感知器神經(jīng)網(wǎng)絡(luò)仿真設(shè)計分析⑥mae函數(shù)功能:平均絕對誤差性能函數(shù)。格式:perf=mae(E,X,Y,FP)info=mae(code)說明:perf表示平均絕對誤差和;
E為誤差矩陣或向量(網(wǎng)絡(luò)的目標(biāo)向量和輸出向量之差);
X為所有權(quán)值(可忽略);Y為閾值向量(可忽略);
FP為性能參數(shù)(可忽略)。mae(code)則可根據(jù)code的不同,返回不同信息,包括:deriv:返回導(dǎo)數(shù)函數(shù)的名稱。name:返回函數(shù)全稱。pnames:返回訓(xùn)練函數(shù)的名稱。pdefaults:返回默認(rèn)的訓(xùn)練參數(shù)。3.感知器神經(jīng)網(wǎng)絡(luò)仿真設(shè)計分析⑥mae函數(shù)3.感知器神經(jīng)網(wǎng)絡(luò)仿真設(shè)計分析例1給定樣本輸入向量P,目標(biāo)向量T及需要進行分類的輸入向量組Q,設(shè)計一個單層感知器,對其進行分類。P=[-0.6-0.70.8;0.901];%輸入向量T=[110];%目標(biāo)向量net=newp([-11;-11],1);%初始化感知器網(wǎng)絡(luò)net.trainParam.epochs=15;%設(shè)置訓(xùn)練次數(shù)最大為15net=train(net,P,T);%訓(xùn)練感知器網(wǎng)絡(luò)Q=[0.50.8-0.2;-0.2-0.60.6];%給定輸入向量Y=sim(net,Q);%仿真結(jié)果plotpv(Q,Y);
%繪制分類結(jié)果
h=plotpc(net.iw{1},net.b{1})%繪制分類線可見,經(jīng)過兩次訓(xùn)練后,網(wǎng)絡(luò)目標(biāo)誤差達(dá)到要求。3.感知器神經(jīng)網(wǎng)絡(luò)仿真設(shè)計分析例1給定樣本輸入向量P,目標(biāo)二、線性神經(jīng)網(wǎng)絡(luò)線性神經(jīng)網(wǎng)絡(luò)是最簡單的一種神經(jīng)元網(wǎng)絡(luò),它可以由一個或多個線性神經(jīng)元構(gòu)成,每個神經(jīng)元的激活函數(shù)都是線性函數(shù)(purelin)。線性神經(jīng)元模型如圖輸入線性神經(jīng)元二、線性神經(jīng)網(wǎng)絡(luò)線性神經(jīng)網(wǎng)絡(luò)是最簡單的一種神經(jīng)元網(wǎng)絡(luò),它可以1、線性神經(jīng)網(wǎng)絡(luò)特點線性神經(jīng)網(wǎng)絡(luò)類似于感知器,但是線性神經(jīng)網(wǎng)絡(luò)的激活函數(shù)是線性的,而不是硬性激活函數(shù)(hardlim)。因此,線性神經(jīng)網(wǎng)絡(luò)的輸出可以是任意值,而感知器的輸出不是0就是1。線性神經(jīng)網(wǎng)絡(luò)和感知器一樣只能求解線性可分的問題。因此,線性神經(jīng)網(wǎng)絡(luò)的局限性和感知器相同。線性神經(jīng)網(wǎng)絡(luò)包括單層網(wǎng)絡(luò)和多層網(wǎng)絡(luò),其中以以單層神經(jīng)網(wǎng)絡(luò)應(yīng)用較多。1、線性神經(jīng)網(wǎng)絡(luò)特點線性神經(jīng)網(wǎng)絡(luò)類似于感知器,但是線性神經(jīng)網(wǎng)2、線性神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)對線性神經(jīng)網(wǎng)絡(luò)可以不經(jīng)過訓(xùn)練直接求出網(wǎng)絡(luò)的權(quán)值和閾值,如果網(wǎng)絡(luò)有多個零誤差姐,則取最小的一組權(quán)值和與之;如果網(wǎng)絡(luò)不存在零誤差解,則取網(wǎng)絡(luò)的誤差平方和最小的一組權(quán)值和閾值。另外,當(dāng)不能直接求出網(wǎng)絡(luò)權(quán)值和閾值時,線性神經(jīng)網(wǎng)絡(luò)及自適應(yīng)線性神經(jīng)網(wǎng)絡(luò)可采用使均方誤差最小的學(xué)習(xí)規(guī)則,即LMS算法,或稱之為WH學(xué)習(xí)規(guī)則來調(diào)整網(wǎng)絡(luò)的權(quán)值和閾值,它是一種沿誤差的最陡下降方向?qū)η耙徊綑?quán)值向量進行修正的方法。2、線性神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)對線性神經(jīng)網(wǎng)絡(luò)可以不經(jīng)過訓(xùn)練直接求出網(wǎng)3.線性神經(jīng)網(wǎng)絡(luò)的MATLAB實現(xiàn)線性神經(jīng)網(wǎng)絡(luò)創(chuàng)建函數(shù)和設(shè)計函數(shù)①newlin函數(shù)功能:用于創(chuàng)建一線性層。線性層通常做信號處理和預(yù)測中的自適應(yīng)濾波器。格式:net=newlin(P,S,ID,LR)說明:P是以輸入元素的最大和最小值組成的矩陣;s為輸出向量數(shù)目;ID為輸入延遲向量;LR為學(xué)習(xí)速率;net為創(chuàng)建的線性層。②newlind函數(shù)功能:用于設(shè)計一線性層。格式:net=newlind(P,T,Pi)說明:P為輸入向量組成的矩陣;T為目標(biāo)分類向量組成的矩陣;Pi為初始輸入延遲狀態(tài)的ID個單元矩陣。3.線性神經(jīng)網(wǎng)絡(luò)的MATLAB實現(xiàn)線性神經(jīng)網(wǎng)絡(luò)創(chuàng)建函數(shù)和設(shè)計3.線性神經(jīng)網(wǎng)絡(luò)的MATLAB實現(xiàn)學(xué)習(xí)函數(shù)①learnwh函數(shù)功能:Widrow_Hoff學(xué)習(xí)規(guī)則,實現(xiàn)輸出誤差的平方和最小功能。learnwh函數(shù)沿著誤差平方和下降最快方向修改神經(jīng)元的權(quán)值和閱值.使輸出誤差的平方和最小。格式:[dW,LS]=learnwh(W,P,Z,N,A,T,E,gW,gA,D,LP,LS)[db,LS]=learnwh(b,ones(1,Q),Z,N,A,T,E,gW,gA,D,LP,LS)②maxlinlr函數(shù)功能:計算線性層的最大學(xué)習(xí)速率。格式:lr=maxlinlr(P)lr=maxlinlr(P,'bias')其中,P為由輸入向量組成的矩陣。lr=maxlinlr(P)是針對不帶閾值的線性層得到一個最大學(xué)習(xí)速率;lr=maxlinlr(P,‘bias’)是針對帶閾值的線性層得到一個最大學(xué)習(xí)速率。3.線性神經(jīng)網(wǎng)絡(luò)的MATLAB實現(xiàn)學(xué)習(xí)函數(shù)3.線性神經(jīng)網(wǎng)絡(luò)的MATLAB實現(xiàn)例題:輸入向量P=[1.0-1.2],目標(biāo)向量T=[0.51.0],設(shè)計一個線性神經(jīng)網(wǎng)絡(luò)給出P與T之間的線性關(guān)系。P=[1.0-1.2];%輸入向量T=[0.51.0];%目標(biāo)向量net=newlind(P,T);%設(shè)計函數(shù)newlind設(shè)計一個線性網(wǎng)絡(luò)A=sim(net,P);%用仿真函數(shù)sim對訓(xùn)練后的網(wǎng)絡(luò)進行仿真E=T-A;
%計算神經(jīng)元誤差SSE=sumsqr(E);%用sumsqr函數(shù)來計算平方誤差的和w_range=-1:0.1:1;b_range=-1:0.1:1;ES=errsurf(P,T,w_range,b_range,'purelin');plotes(w_range,b_range,ES);%繪制單獨神經(jīng)元的誤差曲面plotep(net.IW{1,1},net.b{1},SSE);%繪制權(quán)值和閡值在誤差曲面上的位置最好的權(quán)值和閾值是誤差曲面的最低點。3.線性神經(jīng)網(wǎng)絡(luò)的MATLAB實現(xiàn)例題:輸入向量P=[13.線性神經(jīng)網(wǎng)絡(luò)的MATLAB實現(xiàn)法二:用newlin函數(shù)設(shè)計一個線性神經(jīng)網(wǎng)絡(luò),程序如下:P=[1.0-1.2];T=[0.51.0];net=newlin(minmax(P),1,0,0.01);%學(xué)習(xí)速率為0.01net=init(net);%對網(wǎng)絡(luò)的參數(shù)進行初始化net.trainParam.epochs=500;%訓(xùn)練次數(shù)為500次net=train(net,P,T);%訓(xùn)練訓(xùn)練500次后,誤差小于10-8,3.線性神經(jīng)網(wǎng)絡(luò)的MATLAB實現(xiàn)法二:用newlin函數(shù)設(shè)3.線性神經(jīng)網(wǎng)絡(luò)的MATLAB實現(xiàn)應(yīng)用在模式分類中應(yīng)用在噪聲對消中應(yīng)用在信號預(yù)測中線性神經(jīng)網(wǎng)絡(luò)的應(yīng)用完成對胎兒心率的檢測自適應(yīng)濾波方面3.線性神經(jīng)網(wǎng)絡(luò)的MATLAB實現(xiàn)應(yīng)用在模式分類中應(yīng)用在噪聲三、BP傳播網(wǎng)絡(luò)反向傳播網(wǎng)絡(luò)(Back-PropagationNetwork,簡稱BP網(wǎng)絡(luò))是將W-H學(xué)習(xí)規(guī)則一般化,對非線性可微分函數(shù)進行權(quán)值訓(xùn)練的多層網(wǎng)絡(luò);權(quán)值的調(diào)整采用反向傳播(Back-propagation)的學(xué)習(xí)算法;它是一種多層前向反饋神經(jīng)網(wǎng)絡(luò),其神經(jīng)元的變換函數(shù)是S型函數(shù);輸出量為0到1之間的連續(xù)量,它可實現(xiàn)從輸入到輸出的任意的非線性映射。BP神經(jīng)元模型a=f(wx+Θ)三、BP傳播網(wǎng)絡(luò)反向傳播網(wǎng)絡(luò)(Back-Propagatio1.網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu)x1o1輸出層隱藏層輸入層x2o2omxn…………………W(1)W(2)W(3)W(L)W(2)1.網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu)x1o1輸出層隱藏層輸入層x2o2omxn…2.BP網(wǎng)絡(luò)的學(xué)習(xí)BP網(wǎng)絡(luò)的學(xué)習(xí)過程分為兩個階段:①輸入已知學(xué)習(xí)樣本,通過設(shè)置網(wǎng)絡(luò)結(jié)構(gòu)和前一次迭代的權(quán)值和閾值,從網(wǎng)絡(luò)的第一層向后計算各神經(jīng)元的輸出。②對權(quán)值和閾值進行修改,從最后一層向前計算各權(quán)值和閾值對總誤差的影響(梯度),據(jù)此對各權(quán)值和閾值進行修改。以上兩個過程反復(fù)交替,直到達(dá)到收斂為止。2.BP網(wǎng)絡(luò)的學(xué)習(xí)BP網(wǎng)絡(luò)的學(xué)習(xí)過程分為兩個階段:3.BP網(wǎng)絡(luò)的MATLAB實現(xiàn)BP神經(jīng)網(wǎng)絡(luò)創(chuàng)建函數(shù)①newcf函數(shù)功能:用于創(chuàng)建一個級聯(lián)前饋BP網(wǎng)絡(luò)。格式:net=newcf(PR,[S1,S2…SN],TF1TF2…TFN},BTF,BLF,PF)說明:PR—輸入向量的取值范圍,由每組輸入(共有R組輸入)元素的最大和最小值組成的R×2維矩陣。
Si—第i層的神經(jīng)元個數(shù)(長度),總共N層
TFi—第i層的傳遞函數(shù),缺省值為“tansig”BTF—BP網(wǎng)絡(luò)訓(xùn)練函數(shù),缺省值為“tranlm”
BLF—BP網(wǎng)絡(luò)權(quán)值和閾值學(xué)習(xí)函數(shù),缺省值為“l(fā)earngdm”
PF—性能函數(shù),缺省值為“mse”執(zhí)行后,創(chuàng)建一個N層的BP神經(jīng)網(wǎng)絡(luò)。3.BP網(wǎng)絡(luò)的MATLAB實現(xiàn)BP神經(jīng)網(wǎng)絡(luò)創(chuàng)建函數(shù)3.BP網(wǎng)絡(luò)的MATLAB實現(xiàn)②newff函數(shù)功能:用于創(chuàng)建一個前饋BP神經(jīng)網(wǎng)絡(luò)。格式:
net=newff(PR,[S1,S2…SN],{TF1TF2…TFN},BTF,BLF,PF)說明:各參數(shù)含義見net=newcf。3.newfftd函數(shù)功能:由于創(chuàng)建一個輸入延遲的BP神經(jīng)網(wǎng)絡(luò)。格式:
net=newff(PR,ID[S1,S2…SN],{TF1TF2…TFN},BTF,BLF,PF)說明:各參數(shù)含義見net=newcf。3.BP網(wǎng)絡(luò)的MATLAB實現(xiàn)②newff函數(shù)3.BP網(wǎng)絡(luò)的MATLAB實現(xiàn)神經(jīng)元上的傳遞函數(shù)①logsig函數(shù)功能:傳遞函數(shù)為S型對數(shù)函數(shù)。格式:A=logsig(N)inf()=logsig(code)說明:N—Q個S維的輸入列向量;
A—函數(shù)返回值,位于區(qū)間(0,1)中;
info=logsig(code):依據(jù)code值的不同返不同的信息,包括:
deriv——返回微分函數(shù)的名稱。
name——返回函數(shù)全稱。
output——返回輸出值域。
active——返回有效的輸入?yún)^(qū)間。3.BP網(wǎng)絡(luò)的MATLAB實現(xiàn)神經(jīng)元上的傳遞函數(shù)3.BP網(wǎng)絡(luò)的MATLAB實現(xiàn)②dlogsig函數(shù)功能:該函數(shù)為logsig的導(dǎo)函數(shù)。格式:dA_dN=dlogsig(N,A)說明:N—S×Q維網(wǎng)絡(luò)的輸入;
A—S×Q維網(wǎng)絡(luò)的輸出;
dA_dN—函數(shù)返回值,輸出對輸入的導(dǎo)數(shù)。注:MATLAB2007按照此形式的函數(shù)來計算對數(shù)傳遞函數(shù)的值:
y=x*(1-x)3.BP網(wǎng)絡(luò)的MATLAB實現(xiàn)②dlogsig函數(shù)3.BP網(wǎng)絡(luò)的MATLAB實現(xiàn)③tansig函數(shù)功能:該函數(shù)為雙曲正切S型傳遞函數(shù)。格式:A=tansig(N)info=tansig(code)說明:N—Q個S維的輸入列向量;
A—函數(shù)返回值,位于區(qū)間(0,1)中;
info=tansig(code)含義參見info=logsig(code)說明。注:MATLAB2007按照此形式的函數(shù)來計算雙曲正切傳遞函數(shù)的值:n=2/(1+exp(-2n))-13.BP網(wǎng)絡(luò)的MATLAB實現(xiàn)③tansig函數(shù)3.BP網(wǎng)絡(luò)的MATLAB實現(xiàn)④dtansig函數(shù)功能:該函數(shù)是tansig的導(dǎo)函數(shù)。格式:dA_dN=dtansig(N,A)說明:各參數(shù)的意義參見dlogsig,其原型函數(shù)為y=1-x2⑤purelin函數(shù)功能:該函數(shù)是線性傳遞函數(shù)。格式:A=purelin(N)info=purelin(code)說明:N—Q個S維的輸入列向量;A—函數(shù)返回值,A=N;
info=purelin(code)含義參見info=logsig(code)說明,原型函數(shù)為y=x。⑥dpurelin函數(shù)功能:該函數(shù)是purelin的導(dǎo)函數(shù)。調(diào)用格式:dA_dN=dpurelin(N,A)說明:各參數(shù)的意義參見dlogsig,原型函數(shù)為常數(shù)函數(shù):x=1。3.BP網(wǎng)絡(luò)的MATLAB實現(xiàn)④dtansig函數(shù)3.BP網(wǎng)絡(luò)的MATLAB實現(xiàn)BP網(wǎng)絡(luò)學(xué)習(xí)函數(shù)①learngd函數(shù)功能:該函數(shù)為梯度下降權(quán)值/閾值學(xué)習(xí)函數(shù),它通過神經(jīng)元的輸入和誤差,以及權(quán)值和閾值的學(xué)習(xí)速率來計算權(quán)值和閾值的變化率。格式:說明:3.BP網(wǎng)絡(luò)的MATLAB實現(xiàn)BP網(wǎng)絡(luò)學(xué)習(xí)函數(shù)3.BP網(wǎng)絡(luò)的MATLAB實現(xiàn)②learngdm函數(shù)功能:該函數(shù)為梯度下降動量學(xué)習(xí)函數(shù),它利用神經(jīng)元的輸入和誤差、權(quán)值或閾值的學(xué)習(xí)速率和動量常數(shù)來計算權(quán)值或閾值的變化率。格式:說明:各參數(shù)的含義見learngd。注意:動量常數(shù)mc是通過學(xué)習(xí)參數(shù)LP設(shè)置的,格式為:lp.mc=0.8。3.BP網(wǎng)絡(luò)的MATLAB實現(xiàn)②learngdm函數(shù)3.BP網(wǎng)絡(luò)的MATLAB實現(xiàn)BP網(wǎng)絡(luò)訓(xùn)練函數(shù)①trainbfg函數(shù)功能:該函數(shù)為BFGS牛頓BP算法函數(shù)。除了BP網(wǎng)絡(luò)外,該函數(shù)也可以訓(xùn)練任意形式的神經(jīng)網(wǎng)絡(luò),只要他的傳遞函數(shù)對權(quán)值和輸入存在導(dǎo)函數(shù)即可。格式:[net,TR]=trainbfg(NET,Pd,trainV,valV,testV)info=trainbfg(code)說明:NET為待訓(xùn)練的神經(jīng)網(wǎng)絡(luò);Pd為有延遲的輸入向量;trainV為訓(xùn)練向量結(jié)構(gòu)或者為空;valV為確定向量結(jié)構(gòu)或者為空;testV為檢驗向量結(jié)構(gòu)或者為空;net為訓(xùn)練神經(jīng)網(wǎng)絡(luò);TR為每部訓(xùn)練的有關(guān)信息記錄。3.BP網(wǎng)絡(luò)的MATLAB實現(xiàn)BP網(wǎng)絡(luò)訓(xùn)練函數(shù)3.BP網(wǎng)絡(luò)的MATLAB實現(xiàn)②traingd函數(shù)功能:該函數(shù)為梯度下降BP算法函數(shù)。格式:[net,TR]=traingd(NET,Pd,trainV,valV,testV)info=traingd(code)說明:其參數(shù)意義、設(shè)置格式或適用范圍等參加trainbfg函數(shù)。③traingdm函數(shù)功能:該函數(shù)為梯度下降動量BP算法函數(shù)。格式:[net,TR]=traingdm(NET,Pd,trainV,valV,testV)info=traingdm(code)說明:其參數(shù)意義、設(shè)置格式或適用范圍等參加trainbfg函數(shù)。3.BP網(wǎng)絡(luò)的MATLAB實現(xiàn)②traingd函數(shù)3.BP網(wǎng)絡(luò)的MATLAB實現(xiàn)性能函數(shù)①mse函數(shù)功能:該函數(shù)為均方誤差性能函數(shù)。格式:perf=mse(E,Y,X,FP)info=mse(code)說明:perf表示平均絕對誤差和;E為誤差矩陣或向量;
X為所有權(quán)值(可忽略);Y為閾值向量(可忽略);
FP為性能參數(shù)(可忽略)。②msereg函數(shù)功能:該函數(shù)是通過兩個因子的加權(quán)和來評價網(wǎng)絡(luò)的性能,這兩個因子分別是均方誤差、均方權(quán)值和閾值。格式:perf=msereg(E,Y,X,FP)info=msereg(code)說明:各參數(shù)參見mse函數(shù)。3.BP網(wǎng)絡(luò)的MATLAB實現(xiàn)性能函數(shù)3.BP網(wǎng)絡(luò)的MATLAB實現(xiàn)顯示函數(shù)①plotperf函數(shù)功能:該函數(shù)用于繪制網(wǎng)絡(luò)的性能。格式:plotperf(tr,goal,name,epoch)說明:tr為網(wǎng)絡(luò)的訓(xùn)練記錄;goal為性能指標(biāo),默認(rèn)NaN;name為訓(xùn)練函數(shù)名稱,默認(rèn)為空;epoch為訓(xùn)練步數(shù),默認(rèn)為訓(xùn)練記錄的長度。此函數(shù)除了可以繪制網(wǎng)絡(luò)訓(xùn)練性能外,還可以繪制性能指標(biāo)、確認(rèn)性能和檢驗性能。3.BP網(wǎng)絡(luò)的MATLAB實現(xiàn)顯示函數(shù)3.BP網(wǎng)絡(luò)的MATLAB實現(xiàn)②plotes函數(shù)功能:用于繪制一個單獨神經(jīng)元的誤差曲面格式:plotes(WV,BV,ES,V)說明:WV為權(quán)值的N維向量;BV為M維的閾值行向量;ES為誤差向量組成的M×N維矩陣;V為視角,默認(rèn)為[-37.5,30].函數(shù)繪制的誤差曲面圖是由權(quán)值和閾值確定、由函數(shù)errsurf計算得出。3.BP網(wǎng)絡(luò)的MATLAB實現(xiàn)②plotes函數(shù)3.BP網(wǎng)絡(luò)的MATLAB實現(xiàn)③plotep函數(shù)功能:用于繪制權(quán)值和閾值在誤差曲面上的位置。格式:H=plotep(W,B,E)H=plotep(W,B,E,H)說明:W為當(dāng)前權(quán)值;B為當(dāng)前閾值;E為當(dāng)前單輸入神經(jīng)元的誤差;H為權(quán)值和閾值在上一時刻的位置信息向量。④errsurf函數(shù)功能:用于計算單個神經(jīng)元的誤差曲面。格式:errsurf(P,T,WV,BV,F)說明:P為輸入行向量;T為目標(biāo)行向量;WV為權(quán)值列向量;BV為閾值列向量;F為傳遞函數(shù)的名稱。3.BP網(wǎng)絡(luò)的MATLAB實現(xiàn)③plotep函數(shù)3.BP網(wǎng)絡(luò)的MATLAB實現(xiàn)例:利用一個單隱層的BP網(wǎng)絡(luò)來逼近一個函數(shù)編寫M文件p=-1:0.1:1;t=[-0.9602-0.5770-0.07290.37710.64050.66000.46000.1336-0.2013-0.4344-0.5000-0.3930-0.16470.09880.30720.39600.34490.1816-0.0312-0.2189-0.3201];plot(p,t,'.')s=3:8;res=1:6;fori=1:6net=newff(minmax(p),[s(i),1],{'tansig','logsig'},'traingdx');net.trainParam.epochs=2000;net.trainParam.goal=0.001;net=train(net,p,t)y=sim(net,p)error=y-t;res(i)=norm(error);End3.BP網(wǎng)絡(luò)的MATLAB實現(xiàn)例:利用一個單隱層的BP網(wǎng)絡(luò)來3.BP網(wǎng)絡(luò)的MATLAB實現(xiàn)y=sim(net,p)plot(p,t,'rp');holdonplot(p,y,'.');legend(‘原始網(wǎng)絡(luò)’,’訓(xùn)練后的網(wǎng)絡(luò)’)figureplot(1:21,y-t);%繪制網(wǎng)絡(luò)的誤差曲線。運行程序,其中,“藍(lán)點”表示網(wǎng)絡(luò)的輸出結(jié)果,“星號”表示函數(shù)的實際值。3.BP網(wǎng)絡(luò)的MATLAB實現(xiàn)四、SIMULINK神經(jīng)網(wǎng)絡(luò)仿真模型庫1.模塊的設(shè)置在Simulink庫瀏覽窗口的NeuralNetworkBlockset節(jié)點上,通過單擊鼠標(biāo)右鍵后,便可打開如圖所示的NeuralNetworkBlockset模塊集窗口。
四、SIMULINK神經(jīng)網(wǎng)絡(luò)仿真模型庫1.模塊的設(shè)置四、SIMULINK神經(jīng)網(wǎng)絡(luò)仿真模型庫①.傳輸函數(shù)模塊庫(TransferFunctions)傳輸函數(shù)模塊庫中的任意一個模塊都能夠接受一個網(wǎng)絡(luò)輸入向量,并且相應(yīng)地產(chǎn)生一個輸出向量,這個輸出向量的組數(shù)和輸入向量相同。四、SIMULINK神經(jīng)網(wǎng)絡(luò)仿真模型庫①.傳輸函數(shù)模塊庫(T四、SI
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- DB23-T2920-2021-膠結(jié)土應(yīng)用技術(shù)規(guī)范-黑龍江省
- 叉車倉庫出貨管理制度
- 小店設(shè)置分組管理制度
- 發(fā)現(xiàn)王國員工管理制度
- 小學(xué)作業(yè)軌跡管理制度
- 路面消方案模板(3篇)
- 基層專干日常管理制度
- 建材商場續(xù)簽方案(3篇)
- DB62T 4335-2021 景天三七生產(chǎn)技術(shù)規(guī)程
- 環(huán)衛(wèi)招標(biāo)優(yōu)化方案(3篇)
- 中醫(yī)診所管理規(guī)章制度
- 儲能科學(xué)與工程單選題100道及答案解析
- 安徽省2024年普通高校招生普通高職(???提前批院校投檔分?jǐn)?shù)及名次
- DB43-T 2375-2022瓶裝液化石油氣計量規(guī)范
- 特丁基噻二唑項目可行性研究報告
- 核電站建設(shè)工程承包合同
- 漢字與對外漢語教學(xué)知到智慧樹章節(jié)測試課后答案2024年秋西北師范大學(xué)
- APP開發(fā)及運營投資協(xié)議
- 2025屆四川省成都市彭州市重點達(dá)標(biāo)名校中考沖刺卷生物試題含解析
- 成人術(shù)中非計劃低體溫預(yù)防與護理-2024中華護理學(xué)會團體標(biāo)準(zhǔn)
- 砌體及構(gòu)造柱圈梁等二次結(jié)構(gòu)施工方案
評論
0/150
提交評論