人工神經(jīng)網(wǎng)絡(luò)第7章競爭神經(jīng)網(wǎng)絡(luò)課件_第1頁
人工神經(jīng)網(wǎng)絡(luò)第7章競爭神經(jīng)網(wǎng)絡(luò)課件_第2頁
人工神經(jīng)網(wǎng)絡(luò)第7章競爭神經(jīng)網(wǎng)絡(luò)課件_第3頁
人工神經(jīng)網(wǎng)絡(luò)第7章競爭神經(jīng)網(wǎng)絡(luò)課件_第4頁
人工神經(jīng)網(wǎng)絡(luò)第7章競爭神經(jīng)網(wǎng)絡(luò)課件_第5頁
已閱讀5頁,還剩67頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

第7章競爭神經(jīng)網(wǎng)絡(luò)概述Hamming網(wǎng)絡(luò)自組織映射網(wǎng)絡(luò)學(xué)習(xí)矢量量化主分量分析仿真實例第7章競爭神經(jīng)網(wǎng)絡(luò)概述概述人腦神經(jīng)系統(tǒng):學(xué)習(xí)的自主性信息存儲的自組織性學(xué)習(xí)和記憶的彈性腦神經(jīng)元的側(cè)抑制性Bottom-Up&Top-Down(視覺、聽覺)概述人腦神經(jīng)系統(tǒng):概述神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu):前向網(wǎng)絡(luò)(BP、RBF、PNN)反饋網(wǎng)絡(luò)(Hopfield、Boltzmann)競爭網(wǎng)絡(luò)(SOM、ART、PCA、SNN)前向網(wǎng)絡(luò)反饋網(wǎng)絡(luò)競爭網(wǎng)絡(luò)結(jié)論:結(jié)構(gòu)上均能反映神經(jīng)元之間的連接特點但競爭網(wǎng)絡(luò)更能體現(xiàn)對環(huán)境的自適應(yīng)性概述神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu):結(jié)論:概述競爭網(wǎng)絡(luò)的特點:網(wǎng)絡(luò)結(jié)構(gòu):輸入與輸出之間采用前向連接,輸出層各單元之間采用側(cè)向連接;學(xué)習(xí)機制:采用自組織學(xué)習(xí)模型,即在無導(dǎo)師指導(dǎo)下尋找輸入數(shù)據(jù)空間中的重要模式或特征。實現(xiàn)方法:利用不同的競爭學(xué)習(xí)算法,使得輸出神經(jīng)元之間相互競爭,以確定最能代表輸入模式的競爭獲勝者。概述競爭網(wǎng)絡(luò)的特點:實現(xiàn)方Hamming網(wǎng)絡(luò)網(wǎng)絡(luò)結(jié)構(gòu):Hamming網(wǎng)絡(luò)網(wǎng)絡(luò)結(jié)構(gòu):Hamming網(wǎng)絡(luò)網(wǎng)絡(luò)參數(shù):前向子網(wǎng)輸入:前向子網(wǎng)輸出:前向子網(wǎng)激勵:其中:為閾值,為飽和值Hamming網(wǎng)絡(luò)網(wǎng)絡(luò)參數(shù):Hamming網(wǎng)絡(luò)競爭子網(wǎng)權(quán)值:

其中:競爭子網(wǎng)輸出:其中:Hamming網(wǎng)絡(luò)Hamming網(wǎng)絡(luò)網(wǎng)絡(luò)的學(xué)習(xí)算法:Step1設(shè)置變量和參量-輸入樣本:X(n)=[x1(n),x2(n),…,xN(n)]T

前向子網(wǎng)權(quán)值:實際輸出:Y(n)=[y1(n),y2(n),…,yM(n)]T

學(xué)習(xí)速率:迭代步數(shù):n代表網(wǎng)絡(luò)的第n次訓(xùn)練,n1代表競爭子網(wǎng)的迭代步數(shù),N為總的訓(xùn)練次數(shù)。Hamming網(wǎng)絡(luò)網(wǎng)絡(luò)的學(xué)習(xí)算法:Hamming網(wǎng)絡(luò)Step2初始化-隨機初始化前向權(quán)值并滿足條件:

,i=1,2,…,M

按前式初始化,、均選取前述的分段線性函數(shù)。Hamming網(wǎng)絡(luò)Step2初始化-Hamming網(wǎng)絡(luò)Step3選取訓(xùn)練樣本X。Step4計算競爭子網(wǎng)的初始輸入-

,i=1,2,…,M

Step5進(jìn)行競爭子網(wǎng)的迭代-,k=1,2,…,M

Hamming網(wǎng)絡(luò)Step3選取訓(xùn)練樣本X。Hamming網(wǎng)絡(luò)Step6觀察競爭子網(wǎng)的輸出,當(dāng)輸出達(dá)到要求(只有一個輸出為正,其余為零)則轉(zhuǎn)到Step7,否則n1等于n1+1,轉(zhuǎn)到Step5繼續(xù)迭代。

Step7將輸出最大的神經(jīng)元c定為獲勝神經(jīng)元,并將其輸出yc(n)置為1,其他神經(jīng)元的輸出置為0。

Step8更新獲勝神經(jīng)元c的權(quán)值向量-Hamming網(wǎng)絡(luò)Step6觀察競爭子網(wǎng)的輸出,當(dāng)Hamming網(wǎng)絡(luò)Step9判斷網(wǎng)絡(luò)當(dāng)前的訓(xùn)練次數(shù)n是否大于N,如果小于,則n等于n+1,回到Step3進(jìn)行新的一次訓(xùn)練,否則結(jié)束網(wǎng)絡(luò)訓(xùn)練過程。注意事項:權(quán)值更新規(guī)則中的p表示輸入向量X(限制為二進(jìn)制輸入)中元素為1的個數(shù),以滿足權(quán)值約束條件;實際的輸入可不限制為二進(jìn)制;只有獲勝神經(jīng)元對應(yīng)的權(quán)值得到調(diào)整;Hamming網(wǎng)絡(luò)Step9判斷網(wǎng)絡(luò)當(dāng)前的訓(xùn)練次數(shù)Hamming網(wǎng)絡(luò)網(wǎng)絡(luò)受初始化的影響較大,易產(chǎn)生“死”神經(jīng)元;網(wǎng)絡(luò)分類的穩(wěn)定性較差;Hamming網(wǎng)是最簡單的競爭網(wǎng)絡(luò),體現(xiàn)了競爭網(wǎng)絡(luò)的基本思想。Hamming網(wǎng)絡(luò)網(wǎng)絡(luò)受初始化的影響較大,易產(chǎn)生“死”神經(jīng)元自組織映射網(wǎng)絡(luò)自組織現(xiàn)象-“加強中心而抑制周圍”,即生物神經(jīng)元不僅加強自身,而且加強周圍鄰近的神經(jīng)元,同時抑制離它距離較遠(yuǎn)的神經(jīng)元;模型函數(shù)-“墨西哥草帽”函數(shù);自組織映射網(wǎng)絡(luò)自組織現(xiàn)象-“加強中心而抑制周圍”,即生物神經(jīng)自組織映射網(wǎng)絡(luò)Kohonen于1982年引入了網(wǎng)格狀的拓?fù)浣Y(jié)構(gòu),并引入變化鄰域概念,從微觀上模擬生物神經(jīng)元之間的側(cè)抑制特性,從而提出自組織映射網(wǎng)絡(luò)模型。自組織映射網(wǎng)絡(luò)模型:自組織映射網(wǎng)絡(luò)Kohonen于1982年引入了網(wǎng)格狀的拓?fù)浣Y(jié)自組織映射網(wǎng)絡(luò)網(wǎng)絡(luò)參數(shù):輸入層:X=[x1,x2,…,xN]T;

網(wǎng)絡(luò)權(quán)值:(i=1,2,…,M;j=1,2,…,N);

輸出層:,

其中:為線性激勵函數(shù)自組織映射網(wǎng)絡(luò)網(wǎng)絡(luò)參數(shù):自組織映射網(wǎng)絡(luò)網(wǎng)絡(luò)的學(xué)習(xí)算法:競爭合作更新Step1設(shè)置變量和參量-輸入樣本:X(n)=[x1(n),x2(n),…,xN(n)]T;權(quán)值向量:Wi(n)=[wi1(n),wi2(n),…,wiN(n)]T

i=1,…,M;迭代步數(shù):N;自組織映射網(wǎng)絡(luò)網(wǎng)絡(luò)的學(xué)習(xí)算法:自組織映射網(wǎng)絡(luò)Step2初始化-初始學(xué)習(xí)速率:;初始權(quán)值:Wi(0);歸一化:,

其中:,自組織映射網(wǎng)絡(luò)Step2初始化-自組織映射網(wǎng)絡(luò)Step3輸入訓(xùn)練樣本;Step4競爭(獲勝神經(jīng)元為c):,i=1,2,…,M

Step5合作與更新:對獲勝神經(jīng)元拓?fù)溧徲騈c(n)內(nèi)的興奮神經(jīng)元,采用Hebb更新規(guī)則自組織映射網(wǎng)絡(luò)Step3輸入訓(xùn)練樣本;自組織映射網(wǎng)絡(luò)Step6修改學(xué)習(xí)速率、拓?fù)溧徲騈c(n)以及歸一化權(quán)值:

自組織映射網(wǎng)絡(luò)Step6修改學(xué)習(xí)速率自組織映射網(wǎng)絡(luò)Step7判斷迭代次數(shù)n是否超過N,如果n<=N就轉(zhuǎn)到step3,否則結(jié)束迭代過程。注意事項:采用歐式距離測度實現(xiàn)競爭;學(xué)習(xí)速率和拓?fù)溧徲蛐薷囊?guī)則的選取;對輸入空間的近似;拓?fù)渑判?;非線性特征選擇。自組織映射網(wǎng)絡(luò)Step7判斷迭代次數(shù)n是否超過N,學(xué)習(xí)矢量量化Kohonen在1989年提出學(xué)習(xí)矢量量化,實現(xiàn)競爭網(wǎng)絡(luò)結(jié)構(gòu)的有監(jiān)督學(xué)習(xí)。學(xué)習(xí)矢量量化=競爭學(xué)習(xí)+有監(jiān)督學(xué)習(xí)網(wǎng)絡(luò)模型:學(xué)習(xí)矢量量化Kohonen在1989年提出學(xué)習(xí)矢量量化學(xué)習(xí)矢量量化學(xué)習(xí)算法:Step1設(shè)置變量和參量-訓(xùn)練樣本:X(n)=[x1(n),x2(n),…,xN(n)]T;權(quán)值矢量:Wi(n)=[wi1(n),wi2(n),…,wiN(n)]T

i=1,2,…,M;學(xué)習(xí)速率:;迭代步數(shù):n為迭代次數(shù),N為迭代總次數(shù)。學(xué)習(xí)矢量量化學(xué)習(xí)算法:學(xué)習(xí)矢量量化Step2隨機初始化權(quán)值向量Wi(0)及學(xué)習(xí)速率;

Step3輸入訓(xùn)練樣本X;Step4計算距離,求獲勝神經(jīng)元c:,i=1,2,…,M

Step5根據(jù)分類的正確性調(diào)整權(quán)值:用代表與獲勝神經(jīng)元權(quán)值向量相聯(lián)系的類,用代表與輸入向量相聯(lián)系的類

學(xué)習(xí)矢量量化Step2隨機初始化權(quán)值向量Wi(0)學(xué)習(xí)矢量量化Step5如果=,則否則,當(dāng),有其他神經(jīng)元保持權(quán)值向量不變;

Step6學(xué)習(xí)速率調(diào)整:

學(xué)習(xí)矢量量化Step5如果=,學(xué)習(xí)矢量量化Step7判斷迭代次數(shù)n是否超過N,如果n<=N就轉(zhuǎn)到Step3,否則結(jié)束迭代過程。注意事項:網(wǎng)絡(luò)中加入分類信息指導(dǎo)學(xué)習(xí);隨機初始化的權(quán)值導(dǎo)致學(xué)習(xí)的不穩(wěn)定;作為自組織映射系統(tǒng)的性能提升方法。學(xué)習(xí)矢量量化Step7判斷迭代次數(shù)n是否超過N,如主分量分析特征提?。€性關(guān)系---→二階矩PCA可以提取數(shù)據(jù)中的二階線性關(guān)系,通過主分量的形式表現(xiàn);利用主分量提取網(wǎng)絡(luò)降低主分量提取中矩陣運算的復(fù)雜度。主分量分析方法(PCA、K-L變換):在均方誤差最優(yōu)意義下:原數(shù)據(jù)空間特征空間可逆變換T逆變換T-1主分量分析特征提?。€性關(guān)系---→二階矩可逆主分量分析

對m維隨機矢量X=[x1,x2,

…,xm]T求協(xié)方差CX

當(dāng)E[X]=0時,

計算CX的特征值和對應(yīng)的歸一化特征向量U1,U2,…,Um:

由特征向量U1,U2,…,Um

構(gòu)成特征空間(m維)

主分量分析對m維隨機矢量X=[x1,x2,…,x主分量分析設(shè)特征值輸入空間特征空間(投影):

yi=UiTX(i=1,2,…,m),yi即為X的第i個主分量;特征空間輸入空間(重構(gòu)):主分量分析設(shè)特征值主分量分析特征向量所對應(yīng)的特征值越大,它在重構(gòu)時的貢獻(xiàn)就越大,而特征值越小,該特征向量在重構(gòu)時的貢獻(xiàn)就越小。重構(gòu)時只考慮前L個最大的特征值,則實際上,由前L個特征向量構(gòu)成的空間是一個低維空間(),大大降低了數(shù)據(jù)維數(shù)主分量分析特征向量所對應(yīng)的特征值越大,它在主分量分析矩陣運算的復(fù)雜度?+神經(jīng)網(wǎng)絡(luò)解決的優(yōu)勢?Oja網(wǎng)絡(luò)模型:主分量分析矩陣運算的復(fù)雜度?+神經(jīng)網(wǎng)絡(luò)解決的優(yōu)勢?主分量分析網(wǎng)絡(luò)參數(shù):網(wǎng)絡(luò)輸出:權(quán)值更新規(guī)則:主分量分析網(wǎng)絡(luò)參數(shù):主分量分析網(wǎng)絡(luò)收斂后的性質(zhì):;W位于CX的最大特征向量的方向上;輸出方差最大:當(dāng)W位于CX的最大特征向量的方向上時,方差E[y2]將達(dá)到最大值。主分量分析網(wǎng)絡(luò)收斂后的性質(zhì):主分量分析預(yù)期效果:網(wǎng)絡(luò)實現(xiàn)對輸入集合的第1主分量的提取,而訓(xùn)練后的權(quán)值向量W就是輸入數(shù)據(jù)分布的自相關(guān)矩陣CX的具有最大特征值的特征矢量?;赟anger算法的網(wǎng)絡(luò)模型:

主分量分析預(yù)期效果:主分量分析網(wǎng)絡(luò)參數(shù):網(wǎng)絡(luò)輸出:

(i=1,2,…,M)

權(quán)值更新規(guī)則:(i=1,2,…,M)主分量分析網(wǎng)絡(luò)參數(shù):主分量分析預(yù)期效果:網(wǎng)絡(luò)收斂后M個輸出神經(jīng)元對應(yīng)的權(quán)值向量將位于CX的前M個主分量方向上,而網(wǎng)絡(luò)的輸出對應(yīng)于輸入向量X的前M個主分量,即網(wǎng)絡(luò)實現(xiàn)了對輸入數(shù)據(jù)分布的前M個主分量的提取。

主分量分析預(yù)期效果:第7章競爭神經(jīng)網(wǎng)絡(luò)概述Hamming網(wǎng)絡(luò)自組織映射網(wǎng)絡(luò)學(xué)習(xí)矢量量化主分量分析仿真實例第7章競爭神經(jīng)網(wǎng)絡(luò)概述概述人腦神經(jīng)系統(tǒng):學(xué)習(xí)的自主性信息存儲的自組織性學(xué)習(xí)和記憶的彈性腦神經(jīng)元的側(cè)抑制性Bottom-Up&Top-Down(視覺、聽覺)概述人腦神經(jīng)系統(tǒng):概述神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu):前向網(wǎng)絡(luò)(BP、RBF、PNN)反饋網(wǎng)絡(luò)(Hopfield、Boltzmann)競爭網(wǎng)絡(luò)(SOM、ART、PCA、SNN)前向網(wǎng)絡(luò)反饋網(wǎng)絡(luò)競爭網(wǎng)絡(luò)結(jié)論:結(jié)構(gòu)上均能反映神經(jīng)元之間的連接特點但競爭網(wǎng)絡(luò)更能體現(xiàn)對環(huán)境的自適應(yīng)性概述神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu):結(jié)論:概述競爭網(wǎng)絡(luò)的特點:網(wǎng)絡(luò)結(jié)構(gòu):輸入與輸出之間采用前向連接,輸出層各單元之間采用側(cè)向連接;學(xué)習(xí)機制:采用自組織學(xué)習(xí)模型,即在無導(dǎo)師指導(dǎo)下尋找輸入數(shù)據(jù)空間中的重要模式或特征。實現(xiàn)方法:利用不同的競爭學(xué)習(xí)算法,使得輸出神經(jīng)元之間相互競爭,以確定最能代表輸入模式的競爭獲勝者。概述競爭網(wǎng)絡(luò)的特點:實現(xiàn)方Hamming網(wǎng)絡(luò)網(wǎng)絡(luò)結(jié)構(gòu):Hamming網(wǎng)絡(luò)網(wǎng)絡(luò)結(jié)構(gòu):Hamming網(wǎng)絡(luò)網(wǎng)絡(luò)參數(shù):前向子網(wǎng)輸入:前向子網(wǎng)輸出:前向子網(wǎng)激勵:其中:為閾值,為飽和值Hamming網(wǎng)絡(luò)網(wǎng)絡(luò)參數(shù):Hamming網(wǎng)絡(luò)競爭子網(wǎng)權(quán)值:

其中:競爭子網(wǎng)輸出:其中:Hamming網(wǎng)絡(luò)Hamming網(wǎng)絡(luò)網(wǎng)絡(luò)的學(xué)習(xí)算法:Step1設(shè)置變量和參量-輸入樣本:X(n)=[x1(n),x2(n),…,xN(n)]T

前向子網(wǎng)權(quán)值:實際輸出:Y(n)=[y1(n),y2(n),…,yM(n)]T

學(xué)習(xí)速率:迭代步數(shù):n代表網(wǎng)絡(luò)的第n次訓(xùn)練,n1代表競爭子網(wǎng)的迭代步數(shù),N為總的訓(xùn)練次數(shù)。Hamming網(wǎng)絡(luò)網(wǎng)絡(luò)的學(xué)習(xí)算法:Hamming網(wǎng)絡(luò)Step2初始化-隨機初始化前向權(quán)值并滿足條件:

,i=1,2,…,M

按前式初始化,、均選取前述的分段線性函數(shù)。Hamming網(wǎng)絡(luò)Step2初始化-Hamming網(wǎng)絡(luò)Step3選取訓(xùn)練樣本X。Step4計算競爭子網(wǎng)的初始輸入-

,i=1,2,…,M

Step5進(jìn)行競爭子網(wǎng)的迭代-,k=1,2,…,M

Hamming網(wǎng)絡(luò)Step3選取訓(xùn)練樣本X。Hamming網(wǎng)絡(luò)Step6觀察競爭子網(wǎng)的輸出,當(dāng)輸出達(dá)到要求(只有一個輸出為正,其余為零)則轉(zhuǎn)到Step7,否則n1等于n1+1,轉(zhuǎn)到Step5繼續(xù)迭代。

Step7將輸出最大的神經(jīng)元c定為獲勝神經(jīng)元,并將其輸出yc(n)置為1,其他神經(jīng)元的輸出置為0。

Step8更新獲勝神經(jīng)元c的權(quán)值向量-Hamming網(wǎng)絡(luò)Step6觀察競爭子網(wǎng)的輸出,當(dāng)Hamming網(wǎng)絡(luò)Step9判斷網(wǎng)絡(luò)當(dāng)前的訓(xùn)練次數(shù)n是否大于N,如果小于,則n等于n+1,回到Step3進(jìn)行新的一次訓(xùn)練,否則結(jié)束網(wǎng)絡(luò)訓(xùn)練過程。注意事項:權(quán)值更新規(guī)則中的p表示輸入向量X(限制為二進(jìn)制輸入)中元素為1的個數(shù),以滿足權(quán)值約束條件;實際的輸入可不限制為二進(jìn)制;只有獲勝神經(jīng)元對應(yīng)的權(quán)值得到調(diào)整;Hamming網(wǎng)絡(luò)Step9判斷網(wǎng)絡(luò)當(dāng)前的訓(xùn)練次數(shù)Hamming網(wǎng)絡(luò)網(wǎng)絡(luò)受初始化的影響較大,易產(chǎn)生“死”神經(jīng)元;網(wǎng)絡(luò)分類的穩(wěn)定性較差;Hamming網(wǎng)是最簡單的競爭網(wǎng)絡(luò),體現(xiàn)了競爭網(wǎng)絡(luò)的基本思想。Hamming網(wǎng)絡(luò)網(wǎng)絡(luò)受初始化的影響較大,易產(chǎn)生“死”神經(jīng)元自組織映射網(wǎng)絡(luò)自組織現(xiàn)象-“加強中心而抑制周圍”,即生物神經(jīng)元不僅加強自身,而且加強周圍鄰近的神經(jīng)元,同時抑制離它距離較遠(yuǎn)的神經(jīng)元;模型函數(shù)-“墨西哥草帽”函數(shù);自組織映射網(wǎng)絡(luò)自組織現(xiàn)象-“加強中心而抑制周圍”,即生物神經(jīng)自組織映射網(wǎng)絡(luò)Kohonen于1982年引入了網(wǎng)格狀的拓?fù)浣Y(jié)構(gòu),并引入變化鄰域概念,從微觀上模擬生物神經(jīng)元之間的側(cè)抑制特性,從而提出自組織映射網(wǎng)絡(luò)模型。自組織映射網(wǎng)絡(luò)模型:自組織映射網(wǎng)絡(luò)Kohonen于1982年引入了網(wǎng)格狀的拓?fù)浣Y(jié)自組織映射網(wǎng)絡(luò)網(wǎng)絡(luò)參數(shù):輸入層:X=[x1,x2,…,xN]T;

網(wǎng)絡(luò)權(quán)值:(i=1,2,…,M;j=1,2,…,N);

輸出層:,

其中:為線性激勵函數(shù)自組織映射網(wǎng)絡(luò)網(wǎng)絡(luò)參數(shù):自組織映射網(wǎng)絡(luò)網(wǎng)絡(luò)的學(xué)習(xí)算法:競爭合作更新Step1設(shè)置變量和參量-輸入樣本:X(n)=[x1(n),x2(n),…,xN(n)]T;權(quán)值向量:Wi(n)=[wi1(n),wi2(n),…,wiN(n)]T

i=1,…,M;迭代步數(shù):N;自組織映射網(wǎng)絡(luò)網(wǎng)絡(luò)的學(xué)習(xí)算法:自組織映射網(wǎng)絡(luò)Step2初始化-初始學(xué)習(xí)速率:;初始權(quán)值:Wi(0);歸一化:,

其中:,自組織映射網(wǎng)絡(luò)Step2初始化-自組織映射網(wǎng)絡(luò)Step3輸入訓(xùn)練樣本;Step4競爭(獲勝神經(jīng)元為c):,i=1,2,…,M

Step5合作與更新:對獲勝神經(jīng)元拓?fù)溧徲騈c(n)內(nèi)的興奮神經(jīng)元,采用Hebb更新規(guī)則自組織映射網(wǎng)絡(luò)Step3輸入訓(xùn)練樣本;自組織映射網(wǎng)絡(luò)Step6修改學(xué)習(xí)速率、拓?fù)溧徲騈c(n)以及歸一化權(quán)值:

自組織映射網(wǎng)絡(luò)Step6修改學(xué)習(xí)速率自組織映射網(wǎng)絡(luò)Step7判斷迭代次數(shù)n是否超過N,如果n<=N就轉(zhuǎn)到step3,否則結(jié)束迭代過程。注意事項:采用歐式距離測度實現(xiàn)競爭;學(xué)習(xí)速率和拓?fù)溧徲蛐薷囊?guī)則的選??;對輸入空間的近似;拓?fù)渑判?;非線性特征選擇。自組織映射網(wǎng)絡(luò)Step7判斷迭代次數(shù)n是否超過N,學(xué)習(xí)矢量量化Kohonen在1989年提出學(xué)習(xí)矢量量化,實現(xiàn)競爭網(wǎng)絡(luò)結(jié)構(gòu)的有監(jiān)督學(xué)習(xí)。學(xué)習(xí)矢量量化=競爭學(xué)習(xí)+有監(jiān)督學(xué)習(xí)網(wǎng)絡(luò)模型:學(xué)習(xí)矢量量化Kohonen在1989年提出學(xué)習(xí)矢量量化學(xué)習(xí)矢量量化學(xué)習(xí)算法:Step1設(shè)置變量和參量-訓(xùn)練樣本:X(n)=[x1(n),x2(n),…,xN(n)]T;權(quán)值矢量:Wi(n)=[wi1(n),wi2(n),…,wiN(n)]T

i=1,2,…,M;學(xué)習(xí)速率:;迭代步數(shù):n為迭代次數(shù),N為迭代總次數(shù)。學(xué)習(xí)矢量量化學(xué)習(xí)算法:學(xué)習(xí)矢量量化Step2隨機初始化權(quán)值向量Wi(0)及學(xué)習(xí)速率;

Step3輸入訓(xùn)練樣本X;Step4計算距離,求獲勝神經(jīng)元c:,i=1,2,…,M

Step5根據(jù)分類的正確性調(diào)整權(quán)值:用代表與獲勝神經(jīng)元權(quán)值向量相聯(lián)系的類,用代表與輸入向量相聯(lián)系的類

學(xué)習(xí)矢量量化Step2隨機初始化權(quán)值向量Wi(0)學(xué)習(xí)矢量量化Step5如果=,則否則,當(dāng),有其他神經(jīng)元保持權(quán)值向量不變;

Step6學(xué)習(xí)速率調(diào)整:

學(xué)習(xí)矢量量化Step5如果=,學(xué)習(xí)矢量量化Step7判斷迭代次數(shù)n是否超過N,如果n<=N就轉(zhuǎn)到Step3,否則結(jié)束迭代過程。注意事項:網(wǎng)絡(luò)中加入分類信息指導(dǎo)學(xué)習(xí);隨機初始化的權(quán)值導(dǎo)致學(xué)習(xí)的不穩(wěn)定;作為自組織映射系統(tǒng)的性能提升方法。學(xué)習(xí)矢量量化Step7判斷迭代次數(shù)n是否超過N,如主分量分析特征提?。€性關(guān)系---→二階矩PCA可以提取數(shù)據(jù)中的二階線性關(guān)系,通過主分量的形式表現(xiàn);利用主分量提取網(wǎng)絡(luò)降低主分量提取中矩陣運算的復(fù)雜度。主分量分析方法(PCA、K-L變換):在均方誤差最優(yōu)意義下:原數(shù)據(jù)空間特征空間可逆變換T逆變換T-1主分量分析特征提?。€性關(guān)系---→二階矩可逆主分量分析

對m維隨機矢量X=[x

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論