




版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
1、 神經(jīng)網(wǎng)絡(luò)緒論 一個(gè)人可以很容易地識(shí)別他人的臉孔,但計(jì)算機(jī)則很難做到這一點(diǎn)。這是因?yàn)槟樋椎淖R(shí)別不能用一個(gè)精確的數(shù)學(xué)模型加以描述,而計(jì)算機(jī)工作則必須有對模型進(jìn)行各種運(yùn)算的指令才行,得不到精確的模型,程序也就無法編制。而大腦是由生物神經(jīng)元構(gòu)成的巨型網(wǎng)絡(luò),它在本質(zhì)上不同于計(jì)算機(jī),是一種大規(guī)模的并行處理系統(tǒng),它具有學(xué)習(xí)、聯(lián)想記憶、綜合等能力,并有巧妙的信息處理方法。 人工神經(jīng)網(wǎng)絡(luò)(簡稱神經(jīng)網(wǎng)絡(luò))也是由大量的、功能比較簡單的形式神經(jīng)元互相連接而構(gòu)成的復(fù)雜網(wǎng)絡(luò)系統(tǒng),用它可以模擬大腦的許多基本功能和簡單的思維方式。盡管它還不是大腦的完美元缺的模型,但它可以通過學(xué)習(xí)來獲取外部的知識(shí)并存貯在網(wǎng)絡(luò)內(nèi),可以解決計(jì)算
2、機(jī)不易處理的難題,特別是語音和圖像的識(shí)別、理解、知識(shí)的處理、組合優(yōu)化計(jì)算和智能控制等一系列本質(zhì)上是非計(jì)算的問題。 因此,神經(jīng)網(wǎng)絡(luò)技術(shù)已成為當(dāng)前人工智能領(lǐng)域中最令人感興趣和最富有魅力的研究課題之一。一,生物神經(jīng)元模型神經(jīng)元是腦組織的基本單元,神經(jīng)元由三部分構(gòu)成:細(xì)胞體,樹突和軸突;每一部分雖具有各自的功能,但相互之間是互補(bǔ)的。樹突是細(xì)胞的輸入端,通過細(xì)胞體間聯(lián)結(jié)的節(jié)點(diǎn)“突觸”接受四周細(xì)胞傳出的神經(jīng)沖動(dòng);軸突相當(dāng)于細(xì)胞的輸出端,其端部的眾多神經(jīng)未梢為信號(hào)的輸出端子,用于傳出神經(jīng)沖動(dòng)。神經(jīng)元具有興奮和抑制兩種工作狀態(tài)。當(dāng)傳入的神經(jīng)沖動(dòng),使細(xì)胞膜電位升高到閥值(約為40mV)時(shí),細(xì)胞進(jìn)入興奮狀態(tài),產(chǎn)生
3、神經(jīng)沖動(dòng),由軸突輸出。相反,若傳入的神經(jīng)沖動(dòng),使細(xì)胞膜電位下降到低于閥值時(shí),細(xì)胞進(jìn)入抑制狀態(tài),沒有神經(jīng)沖動(dòng)輸出。二,人工神經(jīng)網(wǎng)絡(luò) 人工神經(jīng)網(wǎng)絡(luò)(ANNS)常常簡稱為神經(jīng)網(wǎng)絡(luò)(NNS),是以計(jì)算機(jī)網(wǎng)絡(luò)系統(tǒng)模擬生物神經(jīng)網(wǎng)絡(luò)的智能計(jì)算系統(tǒng), 是對人腦或自然神經(jīng)網(wǎng)絡(luò)的若干基本特性的抽象和模擬。網(wǎng)絡(luò)上的每個(gè)結(jié)點(diǎn)相當(dāng)于一個(gè)神經(jīng)元,可以記憶(存儲(chǔ))、處理一定的信息,并與其它結(jié)點(diǎn)并行工作。 人工神經(jīng)元模型是以大腦神經(jīng)細(xì)胞的活動(dòng)規(guī)律為原理的,反映了大腦神經(jīng)細(xì)胞的某些基本特征,但不是也不可能是人腦細(xì)胞的真實(shí)再現(xiàn),從數(shù)學(xué)的角度而言,它是對人腦細(xì)胞的高度抽象和簡化的結(jié)構(gòu)模型。雖然人工神經(jīng)網(wǎng)絡(luò)有許多種類型,但其基本單元
4、人工神經(jīng)元是基本相同的。如圖是一個(gè)典型的人工神經(jīng)元模型:神經(jīng)網(wǎng)絡(luò)的特點(diǎn)及其應(yīng)用神經(jīng)網(wǎng)絡(luò)的應(yīng)用領(lǐng)域 語音識(shí)別語音識(shí)別娃娃圖像識(shí)別與理解人臉檢測2022/9/1510神經(jīng)網(wǎng)絡(luò)的特點(diǎn)及其應(yīng)用神經(jīng)網(wǎng)絡(luò)的應(yīng)用領(lǐng)域機(jī)器人智能故障檢測醫(yī)學(xué)應(yīng)用醫(yī)學(xué)圖像處理2022/9/1511神經(jīng)網(wǎng)絡(luò)的應(yīng)用領(lǐng)域國防軍事應(yīng)用航天器姿態(tài)控制導(dǎo)彈的智能引導(dǎo) 2022/9/1512響應(yīng)函數(shù)的基本作用控制輸入對輸出的激活作用對輸入、輸出進(jìn)行函數(shù)轉(zhuǎn)換將可能無限域的輸入變換成指定的有限范圍內(nèi)的輸出 (a)閾值函數(shù) (b)線性函數(shù)(c)(d)非線性函數(shù):Sigmoid函數(shù) 常見神經(jīng)元響應(yīng)函數(shù)神經(jīng)元的模型確定之后,一個(gè)神經(jīng)網(wǎng)絡(luò)的特性及能力主要
5、取決于網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu)及學(xué)習(xí)方法人工神經(jīng)網(wǎng)絡(luò)連接的幾種基本形式前向網(wǎng)絡(luò) (a) 從輸出到輸入有反饋的前向網(wǎng)絡(luò) (b)用來存儲(chǔ)某種模式序列層內(nèi)互連前向網(wǎng)絡(luò) (c)限制層內(nèi)同時(shí)動(dòng)作的神經(jīng)元;分組功能相互結(jié)合型網(wǎng)絡(luò) (d)人工神經(jīng)網(wǎng)絡(luò)典型結(jié)構(gòu)神經(jīng)網(wǎng)絡(luò)的典型結(jié)構(gòu) 典型網(wǎng)絡(luò)結(jié)構(gòu)簡單單級(jí)網(wǎng)x1x2xno1o2onwnmw11w1mw2mwn1輸出層輸入層多級(jí)網(wǎng)輸出層隱藏層輸入層o1o2omx1x2xn神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí) 通過向環(huán)境學(xué)習(xí)獲取知識(shí)并改進(jìn)自身性能是人工神經(jīng)網(wǎng)絡(luò)的一個(gè)重要特點(diǎn),而性能改進(jìn)是按照某種預(yù)定的度量通過調(diào)節(jié)權(quán)值達(dá)到學(xué)習(xí)目的的。學(xué)習(xí)方式有導(dǎo)師學(xué)習(xí)(有監(jiān)督學(xué)習(xí))無導(dǎo)師學(xué)習(xí)(無監(jiān)督學(xué)習(xí))再勵(lì)學(xué)習(xí)202
6、2/9/1521神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)學(xué)習(xí)算法:學(xué)習(xí)算法是指針對學(xué)習(xí)問題的明確規(guī)則,不同的學(xué)習(xí)算法對神經(jīng)元的權(quán)值調(diào)整的表達(dá)式是不同的。算法分類Hebb學(xué)習(xí)算法 學(xué)習(xí)算法隨機(jī)學(xué)習(xí)算法競爭學(xué)習(xí)算法2022/9/1522神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí) 學(xué)習(xí)算法誤差校正學(xué)習(xí)算法是根據(jù)神經(jīng)網(wǎng)絡(luò)的輸出誤差對神經(jīng)元的連接強(qiáng)度進(jìn)行修正,屬于有導(dǎo)師學(xué)習(xí) 權(quán)值調(diào)整公式:調(diào)整目標(biāo)是使下述公式所表達(dá)的誤差為最小2022/9/1524神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)隨機(jī)學(xué)習(xí)算法誤差學(xué)習(xí)算法通常采用梯度下降法,因此存在局部最小問題,隨機(jī)學(xué)習(xí)算法通過引入不穩(wěn)定因子來處理這種情況。經(jīng)典隨機(jī)學(xué)習(xí)算法模擬退化算法遺傳算法。 2022/9/1525 感知器神經(jīng)網(wǎng)絡(luò)模型與學(xué)
7、習(xí)算法單層感知器單層感知器模型2022/9/15單層感知器單層感知器工作原理 單層感知器可將外部輸入分為兩類。當(dāng)感知器的輸出為+1時(shí),輸入屬于 類,當(dāng)感知器的輸出為-1時(shí),輸入屬于 類,從而實(shí)現(xiàn)兩類目標(biāo)的識(shí)別。單層感知器進(jìn)行模式識(shí)別的判決超平面由下式?jīng)Q定: 2022/9/15單層感知器單層感知器工作原理 對于只有兩個(gè)輸入的判別邊界是直線(如下式所示),選擇合適的學(xué)習(xí)算法可訓(xùn)練出滿意的 和 ,當(dāng)它用于兩類模式的分類時(shí),相當(dāng)于在高維樣本空間中,用一個(gè)超平面將兩類樣本分開。2022/9/15單層感知器的學(xué)習(xí)算法單層感知器學(xué)習(xí)算法思想基于迭代的思想,通常是采用誤差校正學(xué)習(xí)規(guī)則的學(xué)習(xí)算法。輸入向量和權(quán)值
8、向量可分別寫成如下的形式: 2022/9/15單層感知器的學(xué)習(xí)算法單層感知器學(xué)習(xí)算法第一步,設(shè)置變量和參量。 為激活函數(shù), 為網(wǎng)絡(luò)實(shí)際輸出, 為期望輸出, 為學(xué)習(xí)速率, 為迭代次數(shù), 為實(shí)際輸出與期望輸出的誤差。 第二步,初始化 給權(quán)值向量 的各個(gè)分量賦一個(gè)較小的隨機(jī)非零值,置 第三步,輸入一組樣本 并給出 它的期望輸出 。 第四步,計(jì)算實(shí)際輸出:第五步,求出期望輸出和實(shí)際輸出求出差根據(jù)誤差判斷目前輸出是否滿足條件,一般為對所有樣本誤差為零或者均小于預(yù)設(shè)的值,則算法結(jié)束,否則將值增加1,并用下式調(diào)整權(quán)值:然后轉(zhuǎn)到第三步,進(jìn)入下一輪計(jì)算過程 2022/9/15單層感知器的MATLAB實(shí)現(xiàn) MAT
9、LAB中單層感知器常用工具函數(shù)名稱和基本功能 函 數(shù) 名功 能newp()生成一個(gè)感知器hardlim()硬限幅激活函數(shù)learnp()感知器的學(xué)習(xí)函數(shù)train()神經(jīng)網(wǎng)絡(luò)訓(xùn)練函數(shù)sim()神經(jīng)網(wǎng)絡(luò)仿真函數(shù)mae()平均絕對誤差性能函數(shù)plotpv()在坐標(biāo)圖上繪出樣本點(diǎn)plotpc()在已繪制的圖上加分類線2022/9/15單層感知器的MATLAB實(shí)現(xiàn)newp()功能:創(chuàng)建一個(gè)感知器神經(jīng)網(wǎng)絡(luò)的函數(shù)格式:net = newp(PR,S,TF,LF)說明:net為生成的感知機(jī)神經(jīng)網(wǎng)絡(luò);PR為一個(gè)R2的矩陣,由R組輸入向量中的最大值和最小值組成;S表示神經(jīng)元的個(gè)數(shù);TF表示感知器的激活函數(shù),缺省
10、值為硬限幅激活函數(shù)hardlim;LF表示網(wǎng)絡(luò)的學(xué)習(xí)函數(shù),缺省值為learnp hardlim()功能 硬限幅激活函數(shù)格式 A = hardlim(N) 說明 函數(shù)hardlim(N)在給定網(wǎng)絡(luò)的輸入矢量矩陣N時(shí),返回該層的輸出矢量矩陣A。當(dāng)N中的元素大于等于零時(shí),返回的值為l;否則為0。也就是說,如果網(wǎng)絡(luò)的輸入達(dá)到閾值,則硬限幅傳輸函數(shù)的輸出為1;否則,為0。 learnp()功能 感知機(jī)的權(quán)值和閾值學(xué)習(xí)函數(shù) 2022/9/15單層感知器的MATLAB實(shí)現(xiàn)train()功能 神經(jīng)網(wǎng)絡(luò)訓(xùn)練函數(shù)格式 語法: net, tr, Y1, E = train( net, X, Y )參數(shù):X:網(wǎng)絡(luò)實(shí)際
11、輸入Y:網(wǎng)絡(luò)應(yīng)有輸出tr:訓(xùn)練跟蹤信息Y1:網(wǎng)絡(luò)實(shí)際輸出E:誤差矩陣網(wǎng)絡(luò)訓(xùn)練函數(shù)是一種通用的學(xué)習(xí)函數(shù),訓(xùn)練函數(shù)重復(fù)地把一組輸入向量應(yīng)用到一個(gè)網(wǎng)絡(luò)上,每次都更新網(wǎng)絡(luò),直到達(dá)到了某種準(zhǔn)則,停止準(zhǔn)則可能是達(dá)到最大的學(xué)習(xí)步數(shù)、最小的誤差梯度或誤差目標(biāo)等。2022/9/15單層感知器的MATLAB實(shí)現(xiàn)sim()功能 對網(wǎng)絡(luò)進(jìn)行仿真格式 (1) Y,Pf,Af,E,perf = sim(NET,P,Pi,Ai,T) (2) Y,Pf,Af,E,perf = sim(NET,Q TS,Pi,Ai,T) (3) Y,Pf,Af,E,perf = sim(NET,Q,Pi,Ai,T)說明 Y為網(wǎng)絡(luò)的輸出;Pf表
12、示最終的輸入延時(shí)狀態(tài);Af表示最終的層延時(shí)狀態(tài);E為實(shí)際輸出與目標(biāo)矢量之間的誤差;perf為網(wǎng)絡(luò)的性能值;NET為要測試的網(wǎng)絡(luò)對象;P為網(wǎng)絡(luò)的輸入向量矩陣;Pi為初始的輸入延時(shí)狀態(tài)(可省略);Ai為初始的層延時(shí)狀態(tài)(可省略);T為目標(biāo)矢量(可省略)。式(1)、(2)用于沒有輸入的網(wǎng)絡(luò),其中Q為批處理數(shù)據(jù)的個(gè)數(shù),TS為網(wǎng)絡(luò)仿真的時(shí)間步數(shù)。2022/9/15單層感知器的MATLAB實(shí)現(xiàn) mae()功能 平均絕對誤差性能函數(shù)格式 perf=mae(E,w,pp) 說明 perf表示平均絕對誤差和, E為誤差矩陣或向量(網(wǎng)絡(luò)的目標(biāo)向量與輸出向量之差), w為所有權(quán)值和偏值向量(可忽略), pp為性能參
13、數(shù)(可忽略)。 2022/9/15單層感知器的MATLAB實(shí)現(xiàn) plotpv()功能 繪制樣本點(diǎn)的函數(shù)格式 (1) plotpv(P,T) (2) plotpv(P,T,V)說明 P定義了n個(gè)2或3維的樣本,是一個(gè)2n維或3n維的矩陣;T表示各樣本點(diǎn)的類別,是一個(gè)n維的向量;V=x_min x_max y_min y_max,為一設(shè)置繪圖坐標(biāo)值范圍的向量。利用plotpv()函數(shù)可在坐標(biāo)圖中繪出給定的樣本點(diǎn)及其類別,不同的類別使用不同的符號(hào)。如果T只含一元矢量,則目標(biāo)為0的輸入矢量在坐標(biāo)圖中用符號(hào)o表示: 目標(biāo)為1的輸入矢量在坐標(biāo)圖中用符號(hào)+表示。如果T含二元矢量,則輸入矢量在坐標(biāo)圖中所采用的
14、符號(hào)分別如下:0 0用o表示;0 1用+表示:1 0用*表示;1 1用表示。 2022/9/15單層感知器的MATLAB實(shí)現(xiàn)plotpc()功能 在存在的圖上繪制出感知器的分類線函數(shù)格式 (1) plotpc(W,B) (2) plotpc(W,B,H)說明 硬特性神經(jīng)元可將輸入空間用一條直線(如果神經(jīng)元有兩個(gè)輸入),或用一個(gè)平面(如果神經(jīng)元有三個(gè)輸入),或用一個(gè)超平面(如果神經(jīng)元有三個(gè)以上輸入)分成兩個(gè)區(qū)域。plotpc(w,b)對含權(quán)矩陣w和偏差矢量b的硬特性神經(jīng)元的兩個(gè)或三個(gè)輸入畫一個(gè)分類線。這一函數(shù)返回分類線的句柄以便以后調(diào)用。plotpc(W,B,H)包含從前的一次調(diào)用中返回的句柄。
15、它在畫新分類線之前,刪除舊線。2022/9/15單層感知器的MATLAB實(shí)現(xiàn)使用MATLAB實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)的步驟如下:第一步 根據(jù)應(yīng)用創(chuàng)建一個(gè)神經(jīng)網(wǎng)絡(luò);第二步 設(shè)定神經(jīng)網(wǎng)絡(luò)的訓(xùn)練參數(shù),利用給定樣本對創(chuàng)建的神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練;第三步 輸入測試數(shù)據(jù),測試訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)的性能。2022/9/15單層感知器的MATLAB實(shí)現(xiàn)P= -0.4 -0.5 0.6; 0.9 0 0.1; %給定訓(xùn)練樣本數(shù)據(jù)T= 1 1 0; %給定樣本數(shù)據(jù)所對應(yīng)的類別,用1和0來表示兩種類別%創(chuàng)建一個(gè)有兩個(gè)輸入、樣本數(shù)據(jù)的取值范圍都在-1,1之間,并且%網(wǎng)絡(luò)只有一個(gè)神經(jīng)元的感知器神經(jīng)網(wǎng)絡(luò)net=newp(-1 1;-1 1,1
16、);net.trainParam.epochs = 20; %設(shè)置網(wǎng)絡(luò)的最大訓(xùn)練次數(shù)為20次net=train(net,P,T); %使用訓(xùn)練函數(shù)對創(chuàng)建的網(wǎng)絡(luò)進(jìn)行訓(xùn)練Y=sim(net,P) %對訓(xùn)練后的網(wǎng)絡(luò)進(jìn)行仿真E1=mae(Y-T) %計(jì)算網(wǎng)絡(luò)的平均絕對誤差,表示網(wǎng)絡(luò)錯(cuò)誤分類Q=0.6 0.9 -0.1; -0.1 -0.5 0.5; %檢測訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)的性能Y1=sim(net,Q) %對網(wǎng)絡(luò)進(jìn)行仿真,仿真輸出即為分類的結(jié)果figure; %創(chuàng)建一個(gè)新的繪圖窗口plotpv(Q,Y1); %在坐標(biāo)圖中繪制測試數(shù)據(jù)plotpc(net.iw1,net.b1) %在坐標(biāo)圖中繪制分類線2
17、022/9/15單層感知器的MATLAB實(shí)現(xiàn)運(yùn)行后在命令行窗口中得到的結(jié)果如下: TRAINC, Epoch 0/20%使用TRAINC作為神經(jīng)網(wǎng)絡(luò)的訓(xùn)練函數(shù),第0次訓(xùn)練,最%大訓(xùn)練次數(shù)為20TRAINC, Epoch 3/20%達(dá)到目標(biāo)誤差要求,結(jié)束訓(xùn)練TRAINC, Performance goal met.Y = 1 1 0E1 = 0Y1 = 0 0 1 2022/9/15單層感知器的MATLAB實(shí)現(xiàn)訓(xùn)練誤差曲線 2022/9/15單層感知器的MATLAB實(shí)現(xiàn)訓(xùn)練后的分類線 2022/9/15多層感知器 單層感知器的缺點(diǎn)是只能解決線性可分的分類模式問題采用多層網(wǎng)絡(luò)結(jié)構(gòu)可以增強(qiáng)網(wǎng)絡(luò)的分類
18、能力,即在輸入層與輸出層之間增加一個(gè)隱含層,從而構(gòu)成多層感知器(Multilayer Perceprons ,MLP)。由輸入層、隱含層(可以是一層或者多層)和輸出層構(gòu)成的神經(jīng)網(wǎng)絡(luò)稱為多層前向神經(jīng)網(wǎng)絡(luò)。 2022/9/15多層感知器 多層感知器的拓?fù)浣Y(jié)構(gòu) 2022/9/15多層感知器多層感知器的特點(diǎn)含有一層或多層隱單元,從輸入模式中獲得了更多有用的信息,使網(wǎng)絡(luò)可以完成更復(fù)雜的任務(wù)。每個(gè)神經(jīng)元的激活函數(shù)采用可微的函數(shù)sigmoid函數(shù)多個(gè)突觸使得網(wǎng)絡(luò)更具連通性 具有獨(dú)特的學(xué)習(xí)算法 BP算法 2022/9/15神經(jīng)元模型Neuron Model: 多輸入,單輸出,帶偏置輸入:R維列向量權(quán)值:R維行
19、向量閥值:標(biāo)量求和單元傳遞函數(shù)輸出常用傳遞函數(shù)aWp-b1-1閾值函數(shù)MATLAB函數(shù): hardlimMATLAB函數(shù): hardlims線性函數(shù)Purelin Transfer Function :anMATLAB函數(shù): purelinSigmoid函數(shù)Sigmoid Function :特性:值域a(0,1)非線性,單調(diào)性無限次可微|n|較小時(shí)可近似線性函數(shù)|n|較大時(shí)可近似閾值函數(shù)MATLAB函數(shù): logsig(對數(shù)), tansig(正切)對數(shù)Sigmoid函數(shù)正切Sigmoid函數(shù)單層神經(jīng)網(wǎng)絡(luò)模型R維輸入, S個(gè)神經(jīng)元的單層神經(jīng)網(wǎng)絡(luò)模型多層神經(jīng)網(wǎng)絡(luò)模型 前饋神經(jīng)網(wǎng)絡(luò)前饋神經(jīng)網(wǎng)絡(luò)(
20、feed forward NN):各神經(jīng)元接受前級(jí)輸入,并輸出到下一級(jí),無反饋,可用一有向無環(huán)圖表示。前饋網(wǎng)絡(luò)通常分為不同的層(layer),第i層的輸入只與第i-1層的輸出聯(lián)結(jié)??梢妼樱狠斎雽?input layer)和輸出層(output layer)隱藏層(hidden layer) :中間層感知器感知器(perceptron):單層網(wǎng)絡(luò), 傳遞函數(shù)為閥值函數(shù)主要功能是模式分類感知器的生成函數(shù)newp用來生成一個(gè)感知器神經(jīng)網(wǎng)絡(luò)net = newp( pr, s, tf, lf ) net: 函數(shù)返回參數(shù),表示生成的感知器網(wǎng)絡(luò) pr: 一個(gè)R2矩陣, 由R維輸入向量的每維最小值和最 大值組
21、成 s: 神經(jīng)元的個(gè)數(shù) tf: 感知器的傳遞函數(shù), 默認(rèn)為hardlim, 可選hardlims lf: 感知器的學(xué)習(xí)函數(shù),默認(rèn)為learnp, 可選learnpnnet = newp(-2,+2;-2,+2,2) %生成一個(gè)二維輸入,兩個(gè)神經(jīng)元的感知器感知器的權(quán)值和閥值初始化 newp默認(rèn)權(quán)值和閥值為零(零初始化函數(shù)initzero).net = newp(-2,+2;-2,+2,2); W=net.IW1,1 %顯示網(wǎng)絡(luò)的權(quán)值b=net.b1 %顯示網(wǎng)絡(luò)的閥值W =0 00 0b =0 0 改變默認(rèn)初始化函數(shù)為隨機(jī)函數(shù)randsnet.inputweights1,1.InitFcn = r
22、ands;net.biases1.InitFcn = rands;net =init(net); %重新初始化 直接初始化定義權(quán)值和閥值net.IW1,1=1 2; net.b1=1感知器學(xué)習(xí)感知器學(xué)習(xí)算法權(quán)值增量: 閥值增量: 權(quán)值更新: 閥值更新: 算法改進(jìn)輸入樣本歸一化t是導(dǎo)師輸出值a是實(shí)際輸出值權(quán)值和閥值訓(xùn)練與學(xué)習(xí)函數(shù)trainnet=train(net, P, T) 設(shè)計(jì)好的感知器并不能馬上投入使用. 通過樣本訓(xùn)練, 確定感知器的權(quán)值和閥值.輸入向量目標(biāo)向量被訓(xùn)練網(wǎng)絡(luò)net.tranParam.epochs=10 ; %預(yù)定的最大訓(xùn)練次數(shù)為10, 感知器經(jīng)過最多訓(xùn)練10次后停止,ad
23、aptnet=adapt(net, P, T)自適應(yīng)訓(xùn)練函數(shù)權(quán)值和閥值學(xué)習(xí)函數(shù)learnpdW=learnp(W,P,Z,N,A,T,E,D,gW,gA,LP,LS)dW:權(quán)值或閥值的變化矩陣W:權(quán)值矩陣或閥值向量P:輸入向量T:目標(biāo)向量E:誤差向量其他可以忽略,設(shè)為 learnpn歸一化學(xué)習(xí)函數(shù)網(wǎng)絡(luò)仿真函數(shù)sima = sim(net, P)輸入向量網(wǎng)絡(luò)輸出分類結(jié)果顯示繪圖函數(shù)plotpvplotpv(P,T)plotpcplotpc(W,b)畫輸入向量的圖像畫分類線 根據(jù)給定的樣本輸入向量P和目標(biāo)向量T, 以及需分類的向量組Q, 創(chuàng)建一個(gè)感知器, 對其進(jìn)行分類. 例: 創(chuàng)建一個(gè)感知器P=-
24、0.5 -0.6 0.7;0.8 0 0.1; %已知樣本輸入向量T=1 1 0; %已知樣本目標(biāo)向量net=newp(-1 1;-1 1,1); %創(chuàng)建感知器handle=plotpc(net.iw1,net.b1); %返回劃線的句柄net.trainParam.epochs=10; % 設(shè)置訓(xùn)練最大次數(shù)net=train(net,P,T); %訓(xùn)練網(wǎng)絡(luò)Q=0.6 0.9 -0.1;-0.1 -0.5 0.5; %已知待分類向量Y=sim(net,Q); %二元分類仿真結(jié)果 figure; %新建圖形窗口plotpv(Q,Y); %畫輸入向量handle=plotpc(net.iw1,ne
25、t.b1,handle) %畫分類線實(shí)驗(yàn)一 利用感知器進(jìn)行分類(1) 一個(gè)經(jīng)過訓(xùn)練的感知器對5個(gè)輸入向量進(jìn)行分類(2類)。 Step 1 兩個(gè)長度為5的向量構(gòu)成輸入樣本矩陣P,行向量T為目標(biāo)向量。利用PLOTPV畫出這個(gè)向量的圖像。例如:P = -0.5 -0.5 +0.3 -0.1 -4; -0.5 +0.5 -0.5 +1.0 5;T = 1 1 0 0 1;plotpv(P,T); % plotpv函數(shù)利用感知器的輸入向量和目標(biāo)向量來畫輸入向量的圖像Step 2建立神經(jīng)網(wǎng)絡(luò) 畫輸入向量的圖像 MATLAB提供函數(shù)newp來創(chuàng)建一個(gè)指定的感知器。第一個(gè)參數(shù)指定了期望的兩個(gè)輸入向量的取值范圍,第二個(gè)參數(shù)指定了只有一個(gè)神經(jīng)元。net = newp(-40 1;-1 50,1);注意:這個(gè)神經(jīng)元的傳遞函數(shù)是hardlim函數(shù),也就是階躍函數(shù)。取0,1兩個(gè)值。Hardlims函數(shù),取-1,1兩個(gè)值。實(shí)驗(yàn)一 利用感知器進(jìn)行分類(2) 添加神經(jīng)元的初始化值到分類圖 Step3 初始化的權(quán)值被設(shè)為0,因此
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 二零二五年度快遞配送服務(wù)承包合同
- 二零二五年度農(nóng)業(yè)科技項(xiàng)目合作放棄承諾函合同范本
- 二零二五年度安防產(chǎn)品簡易加工制造合同
- 二零二五年度養(yǎng)老產(chǎn)業(yè)擔(dān)保與借款人服務(wù)協(xié)議
- 二零二五年度私人土地租賃與體育設(shè)施建設(shè)合同
- 基于人工智能技術(shù)的智慧城市規(guī)劃合同書
- 服裝設(shè)計(jì)與制作合同
- 科技部技術(shù)服務(wù)合同
- 互聯(lián)網(wǎng)行業(yè)用戶隱私保護(hù)及免責(zé)協(xié)議
- 物流園區(qū)投資建設(shè)協(xié)議
- 2025年湖南工業(yè)職業(yè)技術(shù)學(xué)院單招職業(yè)適應(yīng)性測試題庫完整版
- 作品集合同范本
- 2輸變電工程施工質(zhì)量驗(yàn)收統(tǒng)一表式(變電工程土建專業(yè))-2024年版
- QCT457-2023救護(hù)車技術(shù)規(guī)范
- 剪紙藝術(shù)-認(rèn)識(shí)剪紙
- 駕駛員違規(guī)違章學(xué)習(xí)記錄表
- 簡易瞬態(tài)工況法1
- 中國鐵路總公司環(huán)境保護(hù)管理辦法(鐵總計(jì)統(tǒng)〔2015〕260號(hào))
- 技術(shù)分析介紹教程課件
- 汽車新能源汽車產(chǎn)業(yè)專利趨勢分析
- 故事小羊過橋PPT課件
評論
0/150
提交評論