




版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)
文檔簡介
第7章競爭神經(jīng)網(wǎng)絡(luò)概述Hamming網(wǎng)絡(luò)自組織映射網(wǎng)絡(luò)學(xué)習(xí)矢量量化主分量分析仿真實例第7章競爭神經(jīng)網(wǎng)絡(luò)概述概述人腦神經(jīng)系統(tǒng):學(xué)習(xí)的自主性信息存儲的自組織性學(xué)習(xí)和記憶的彈性腦神經(jīng)元的側(cè)抑制性Bottom-Up&Top-Down(視覺、聽覺)概述人腦神經(jīng)系統(tǒng):概述神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu):前向網(wǎng)絡(luò)(BP、RBF、PNN)反饋網(wǎng)絡(luò)(Hopfield、Boltzmann)競爭網(wǎng)絡(luò)(SOM、ART、PCA、SNN)前向網(wǎng)絡(luò)反饋網(wǎng)絡(luò)競爭網(wǎng)絡(luò)結(jié)論:結(jié)構(gòu)上均能反映神經(jīng)元之間的連接特點但競爭網(wǎng)絡(luò)更能體現(xiàn)對環(huán)境的自適應(yīng)性概述神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu):結(jié)論:概述競爭網(wǎng)絡(luò)的特點:網(wǎng)絡(luò)結(jié)構(gòu):輸入與輸出之間采用前向連接,輸出層各單元之間采用側(cè)向連接;學(xué)習(xí)機制:采用自組織學(xué)習(xí)模型,即在無導(dǎo)師指導(dǎo)下尋找輸入數(shù)據(jù)空間中的重要模式或特征。實現(xiàn)方法:利用不同的競爭學(xué)習(xí)算法,使得輸出神經(jīng)元之間相互競爭,以確定最能代表輸入模式的競爭獲勝者。概述競爭網(wǎng)絡(luò)的特點:實現(xiàn)方Hamming網(wǎng)絡(luò)網(wǎng)絡(luò)結(jié)構(gòu):Hamming網(wǎng)絡(luò)網(wǎng)絡(luò)結(jié)構(gòu):Hamming網(wǎng)絡(luò)網(wǎng)絡(luò)參數(shù):前向子網(wǎng)輸入:前向子網(wǎng)輸出:前向子網(wǎng)激勵:其中:為閾值,為飽和值Hamming網(wǎng)絡(luò)網(wǎng)絡(luò)參數(shù):Hamming網(wǎng)絡(luò)競爭子網(wǎng)權(quán)值:
其中:競爭子網(wǎng)輸出:其中:Hamming網(wǎng)絡(luò)Hamming網(wǎng)絡(luò)網(wǎng)絡(luò)的學(xué)習(xí)算法:Step1設(shè)置變量和參量-輸入樣本:X(n)=[x1(n),x2(n),…,xN(n)]T
前向子網(wǎng)權(quán)值:實際輸出:Y(n)=[y1(n),y2(n),…,yM(n)]T
學(xué)習(xí)速率:迭代步數(shù):n代表網(wǎng)絡(luò)的第n次訓(xùn)練,n1代表競爭子網(wǎng)的迭代步數(shù),N為總的訓(xùn)練次數(shù)。Hamming網(wǎng)絡(luò)網(wǎng)絡(luò)的學(xué)習(xí)算法:Hamming網(wǎng)絡(luò)Step2初始化-隨機初始化前向權(quán)值并滿足條件:
,i=1,2,…,M
按前式初始化,、均選取前述的分段線性函數(shù)。Hamming網(wǎng)絡(luò)Step2初始化-Hamming網(wǎng)絡(luò)Step3選取訓(xùn)練樣本X。Step4計算競爭子網(wǎng)的初始輸入-
,i=1,2,…,M
Step5進(jìn)行競爭子網(wǎng)的迭代-,k=1,2,…,M
Hamming網(wǎng)絡(luò)Step3選取訓(xùn)練樣本X。Hamming網(wǎng)絡(luò)Step6觀察競爭子網(wǎng)的輸出,當(dāng)輸出達(dá)到要求(只有一個輸出為正,其余為零)則轉(zhuǎn)到Step7,否則n1等于n1+1,轉(zhuǎn)到Step5繼續(xù)迭代。
Step7將輸出最大的神經(jīng)元c定為獲勝神經(jīng)元,并將其輸出yc(n)置為1,其他神經(jīng)元的輸出置為0。
Step8更新獲勝神經(jīng)元c的權(quán)值向量-Hamming網(wǎng)絡(luò)Step6觀察競爭子網(wǎng)的輸出,當(dāng)Hamming網(wǎng)絡(luò)Step9判斷網(wǎng)絡(luò)當(dāng)前的訓(xùn)練次數(shù)n是否大于N,如果小于,則n等于n+1,回到Step3進(jìn)行新的一次訓(xùn)練,否則結(jié)束網(wǎng)絡(luò)訓(xùn)練過程。注意事項:權(quán)值更新規(guī)則中的p表示輸入向量X(限制為二進(jìn)制輸入)中元素為1的個數(shù),以滿足權(quán)值約束條件;實際的輸入可不限制為二進(jìn)制;只有獲勝神經(jīng)元對應(yīng)的權(quán)值得到調(diào)整;Hamming網(wǎng)絡(luò)Step9判斷網(wǎng)絡(luò)當(dāng)前的訓(xùn)練次數(shù)Hamming網(wǎng)絡(luò)網(wǎng)絡(luò)受初始化的影響較大,易產(chǎn)生“死”神經(jīng)元;網(wǎng)絡(luò)分類的穩(wěn)定性較差;Hamming網(wǎng)是最簡單的競爭網(wǎng)絡(luò),體現(xiàn)了競爭網(wǎng)絡(luò)的基本思想。Hamming網(wǎng)絡(luò)網(wǎng)絡(luò)受初始化的影響較大,易產(chǎn)生“死”神經(jīng)元自組織映射網(wǎng)絡(luò)自組織現(xiàn)象-“加強中心而抑制周圍”,即生物神經(jīng)元不僅加強自身,而且加強周圍鄰近的神經(jīng)元,同時抑制離它距離較遠(yuǎn)的神經(jīng)元;模型函數(shù)-“墨西哥草帽”函數(shù);自組織映射網(wǎng)絡(luò)自組織現(xiàn)象-“加強中心而抑制周圍”,即生物神經(jīng)自組織映射網(wǎng)絡(luò)Kohonen于1982年引入了網(wǎng)格狀的拓?fù)浣Y(jié)構(gòu),并引入變化鄰域概念,從微觀上模擬生物神經(jīng)元之間的側(cè)抑制特性,從而提出自組織映射網(wǎng)絡(luò)模型。自組織映射網(wǎng)絡(luò)模型:自組織映射網(wǎng)絡(luò)Kohonen于1982年引入了網(wǎng)格狀的拓?fù)浣Y(jié)自組織映射網(wǎng)絡(luò)網(wǎng)絡(luò)參數(shù):輸入層:X=[x1,x2,…,xN]T;
網(wǎng)絡(luò)權(quán)值:(i=1,2,…,M;j=1,2,…,N);
輸出層:,
其中:為線性激勵函數(shù)自組織映射網(wǎng)絡(luò)網(wǎng)絡(luò)參數(shù):自組織映射網(wǎng)絡(luò)網(wǎng)絡(luò)的學(xué)習(xí)算法:競爭合作更新Step1設(shè)置變量和參量-輸入樣本:X(n)=[x1(n),x2(n),…,xN(n)]T;權(quán)值向量:Wi(n)=[wi1(n),wi2(n),…,wiN(n)]T
i=1,…,M;迭代步數(shù):N;自組織映射網(wǎng)絡(luò)網(wǎng)絡(luò)的學(xué)習(xí)算法:自組織映射網(wǎng)絡(luò)Step2初始化-初始學(xué)習(xí)速率:;初始權(quán)值:Wi(0);歸一化:,
其中:,自組織映射網(wǎng)絡(luò)Step2初始化-自組織映射網(wǎng)絡(luò)Step3輸入訓(xùn)練樣本;Step4競爭(獲勝神經(jīng)元為c):,i=1,2,…,M
Step5合作與更新:對獲勝神經(jīng)元拓?fù)溧徲騈c(n)內(nèi)的興奮神經(jīng)元,采用Hebb更新規(guī)則自組織映射網(wǎng)絡(luò)Step3輸入訓(xùn)練樣本;自組織映射網(wǎng)絡(luò)Step6修改學(xué)習(xí)速率、拓?fù)溧徲騈c(n)以及歸一化權(quán)值:
自組織映射網(wǎng)絡(luò)Step6修改學(xué)習(xí)速率自組織映射網(wǎng)絡(luò)Step7判斷迭代次數(shù)n是否超過N,如果n<=N就轉(zhuǎn)到step3,否則結(jié)束迭代過程。注意事項:采用歐式距離測度實現(xiàn)競爭;學(xué)習(xí)速率和拓?fù)溧徲蛐薷囊?guī)則的選取;對輸入空間的近似;拓?fù)渑判?;非線性特征選擇。自組織映射網(wǎng)絡(luò)Step7判斷迭代次數(shù)n是否超過N,學(xué)習(xí)矢量量化Kohonen在1989年提出學(xué)習(xí)矢量量化,實現(xiàn)競爭網(wǎng)絡(luò)結(jié)構(gòu)的有監(jiān)督學(xué)習(xí)。學(xué)習(xí)矢量量化=競爭學(xué)習(xí)+有監(jiān)督學(xué)習(xí)網(wǎng)絡(luò)模型:學(xué)習(xí)矢量量化Kohonen在1989年提出學(xué)習(xí)矢量量化學(xué)習(xí)矢量量化學(xué)習(xí)算法:Step1設(shè)置變量和參量-訓(xùn)練樣本:X(n)=[x1(n),x2(n),…,xN(n)]T;權(quán)值矢量:Wi(n)=[wi1(n),wi2(n),…,wiN(n)]T
i=1,2,…,M;學(xué)習(xí)速率:;迭代步數(shù):n為迭代次數(shù),N為迭代總次數(shù)。學(xué)習(xí)矢量量化學(xué)習(xí)算法:學(xué)習(xí)矢量量化Step2隨機初始化權(quán)值向量Wi(0)及學(xué)習(xí)速率;
Step3輸入訓(xùn)練樣本X;Step4計算距離,求獲勝神經(jīng)元c:,i=1,2,…,M
Step5根據(jù)分類的正確性調(diào)整權(quán)值:用代表與獲勝神經(jīng)元權(quán)值向量相聯(lián)系的類,用代表與輸入向量相聯(lián)系的類
學(xué)習(xí)矢量量化Step2隨機初始化權(quán)值向量Wi(0)學(xué)習(xí)矢量量化Step5如果=,則否則,當(dāng),有其他神經(jīng)元保持權(quán)值向量不變;
Step6學(xué)習(xí)速率調(diào)整:
學(xué)習(xí)矢量量化Step5如果=,學(xué)習(xí)矢量量化Step7判斷迭代次數(shù)n是否超過N,如果n<=N就轉(zhuǎn)到Step3,否則結(jié)束迭代過程。注意事項:網(wǎng)絡(luò)中加入分類信息指導(dǎo)學(xué)習(xí);隨機初始化的權(quán)值導(dǎo)致學(xué)習(xí)的不穩(wěn)定;作為自組織映射系統(tǒng)的性能提升方法。學(xué)習(xí)矢量量化Step7判斷迭代次數(shù)n是否超過N,如主分量分析特征提?。€性關(guān)系---→二階矩PCA可以提取數(shù)據(jù)中的二階線性關(guān)系,通過主分量的形式表現(xiàn);利用主分量提取網(wǎng)絡(luò)降低主分量提取中矩陣運算的復(fù)雜度。主分量分析方法(PCA、K-L變換):在均方誤差最優(yōu)意義下:原數(shù)據(jù)空間特征空間可逆變換T逆變換T-1主分量分析特征提?。€性關(guān)系---→二階矩可逆主分量分析
對m維隨機矢量X=[x1,x2,
…,xm]T求協(xié)方差CX
當(dāng)E[X]=0時,
計算CX的特征值和對應(yīng)的歸一化特征向量U1,U2,…,Um:
由特征向量U1,U2,…,Um
構(gòu)成特征空間(m維)
主分量分析對m維隨機矢量X=[x1,x2,…,x主分量分析設(shè)特征值輸入空間特征空間(投影):
yi=UiTX(i=1,2,…,m),yi即為X的第i個主分量;特征空間輸入空間(重構(gòu)):主分量分析設(shè)特征值主分量分析特征向量所對應(yīng)的特征值越大,它在重構(gòu)時的貢獻(xiàn)就越大,而特征值越小,該特征向量在重構(gòu)時的貢獻(xiàn)就越小。重構(gòu)時只考慮前L個最大的特征值,則實際上,由前L個特征向量構(gòu)成的空間是一個低維空間(),大大降低了數(shù)據(jù)維數(shù)主分量分析特征向量所對應(yīng)的特征值越大,它在主分量分析矩陣運算的復(fù)雜度?+神經(jīng)網(wǎng)絡(luò)解決的優(yōu)勢?Oja網(wǎng)絡(luò)模型:主分量分析矩陣運算的復(fù)雜度?+神經(jīng)網(wǎng)絡(luò)解決的優(yōu)勢?主分量分析網(wǎng)絡(luò)參數(shù):網(wǎng)絡(luò)輸出:權(quán)值更新規(guī)則:主分量分析網(wǎng)絡(luò)參數(shù):主分量分析網(wǎng)絡(luò)收斂后的性質(zhì):;W位于CX的最大特征向量的方向上;輸出方差最大:當(dāng)W位于CX的最大特征向量的方向上時,方差E[y2]將達(dá)到最大值。主分量分析網(wǎng)絡(luò)收斂后的性質(zhì):主分量分析預(yù)期效果:網(wǎng)絡(luò)實現(xiàn)對輸入集合的第1主分量的提取,而訓(xùn)練后的權(quán)值向量W就是輸入數(shù)據(jù)分布的自相關(guān)矩陣CX的具有最大特征值的特征矢量?;赟anger算法的網(wǎng)絡(luò)模型:
主分量分析預(yù)期效果:主分量分析網(wǎng)絡(luò)參數(shù):網(wǎng)絡(luò)輸出:
(i=1,2,…,M)
權(quán)值更新規(guī)則:(i=1,2,…,M)主分量分析網(wǎng)絡(luò)參數(shù):主分量分析預(yù)期效果:網(wǎng)絡(luò)收斂后M個輸出神經(jīng)元對應(yīng)的權(quán)值向量將位于CX的前M個主分量方向上,而網(wǎng)絡(luò)的輸出對應(yīng)于輸入向量X的前M個主分量,即網(wǎng)絡(luò)實現(xiàn)了對輸入數(shù)據(jù)分布的前M個主分量的提取。
主分量分析預(yù)期效果:第7章競爭神經(jīng)網(wǎng)絡(luò)概述Hamming網(wǎng)絡(luò)自組織映射網(wǎng)絡(luò)學(xué)習(xí)矢量量化主分量分析仿真實例第7章競爭神經(jīng)網(wǎng)絡(luò)概述概述人腦神經(jīng)系統(tǒng):學(xué)習(xí)的自主性信息存儲的自組織性學(xué)習(xí)和記憶的彈性腦神經(jīng)元的側(cè)抑制性Bottom-Up&Top-Down(視覺、聽覺)概述人腦神經(jīng)系統(tǒng):概述神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu):前向網(wǎng)絡(luò)(BP、RBF、PNN)反饋網(wǎng)絡(luò)(Hopfield、Boltzmann)競爭網(wǎng)絡(luò)(SOM、ART、PCA、SNN)前向網(wǎng)絡(luò)反饋網(wǎng)絡(luò)競爭網(wǎng)絡(luò)結(jié)論:結(jié)構(gòu)上均能反映神經(jīng)元之間的連接特點但競爭網(wǎng)絡(luò)更能體現(xiàn)對環(huán)境的自適應(yīng)性概述神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu):結(jié)論:概述競爭網(wǎng)絡(luò)的特點:網(wǎng)絡(luò)結(jié)構(gòu):輸入與輸出之間采用前向連接,輸出層各單元之間采用側(cè)向連接;學(xué)習(xí)機制:采用自組織學(xué)習(xí)模型,即在無導(dǎo)師指導(dǎo)下尋找輸入數(shù)據(jù)空間中的重要模式或特征。實現(xiàn)方法:利用不同的競爭學(xué)習(xí)算法,使得輸出神經(jīng)元之間相互競爭,以確定最能代表輸入模式的競爭獲勝者。概述競爭網(wǎng)絡(luò)的特點:實現(xiàn)方Hamming網(wǎng)絡(luò)網(wǎng)絡(luò)結(jié)構(gòu):Hamming網(wǎng)絡(luò)網(wǎng)絡(luò)結(jié)構(gòu):Hamming網(wǎng)絡(luò)網(wǎng)絡(luò)參數(shù):前向子網(wǎng)輸入:前向子網(wǎng)輸出:前向子網(wǎng)激勵:其中:為閾值,為飽和值Hamming網(wǎng)絡(luò)網(wǎng)絡(luò)參數(shù):Hamming網(wǎng)絡(luò)競爭子網(wǎng)權(quán)值:
其中:競爭子網(wǎng)輸出:其中:Hamming網(wǎng)絡(luò)Hamming網(wǎng)絡(luò)網(wǎng)絡(luò)的學(xué)習(xí)算法:Step1設(shè)置變量和參量-輸入樣本:X(n)=[x1(n),x2(n),…,xN(n)]T
前向子網(wǎng)權(quán)值:實際輸出:Y(n)=[y1(n),y2(n),…,yM(n)]T
學(xué)習(xí)速率:迭代步數(shù):n代表網(wǎng)絡(luò)的第n次訓(xùn)練,n1代表競爭子網(wǎng)的迭代步數(shù),N為總的訓(xùn)練次數(shù)。Hamming網(wǎng)絡(luò)網(wǎng)絡(luò)的學(xué)習(xí)算法:Hamming網(wǎng)絡(luò)Step2初始化-隨機初始化前向權(quán)值并滿足條件:
,i=1,2,…,M
按前式初始化,、均選取前述的分段線性函數(shù)。Hamming網(wǎng)絡(luò)Step2初始化-Hamming網(wǎng)絡(luò)Step3選取訓(xùn)練樣本X。Step4計算競爭子網(wǎng)的初始輸入-
,i=1,2,…,M
Step5進(jìn)行競爭子網(wǎng)的迭代-,k=1,2,…,M
Hamming網(wǎng)絡(luò)Step3選取訓(xùn)練樣本X。Hamming網(wǎng)絡(luò)Step6觀察競爭子網(wǎng)的輸出,當(dāng)輸出達(dá)到要求(只有一個輸出為正,其余為零)則轉(zhuǎn)到Step7,否則n1等于n1+1,轉(zhuǎn)到Step5繼續(xù)迭代。
Step7將輸出最大的神經(jīng)元c定為獲勝神經(jīng)元,并將其輸出yc(n)置為1,其他神經(jīng)元的輸出置為0。
Step8更新獲勝神經(jīng)元c的權(quán)值向量-Hamming網(wǎng)絡(luò)Step6觀察競爭子網(wǎng)的輸出,當(dāng)Hamming網(wǎng)絡(luò)Step9判斷網(wǎng)絡(luò)當(dāng)前的訓(xùn)練次數(shù)n是否大于N,如果小于,則n等于n+1,回到Step3進(jìn)行新的一次訓(xùn)練,否則結(jié)束網(wǎng)絡(luò)訓(xùn)練過程。注意事項:權(quán)值更新規(guī)則中的p表示輸入向量X(限制為二進(jìn)制輸入)中元素為1的個數(shù),以滿足權(quán)值約束條件;實際的輸入可不限制為二進(jìn)制;只有獲勝神經(jīng)元對應(yīng)的權(quán)值得到調(diào)整;Hamming網(wǎng)絡(luò)Step9判斷網(wǎng)絡(luò)當(dāng)前的訓(xùn)練次數(shù)Hamming網(wǎng)絡(luò)網(wǎng)絡(luò)受初始化的影響較大,易產(chǎn)生“死”神經(jīng)元;網(wǎng)絡(luò)分類的穩(wěn)定性較差;Hamming網(wǎng)是最簡單的競爭網(wǎng)絡(luò),體現(xiàn)了競爭網(wǎng)絡(luò)的基本思想。Hamming網(wǎng)絡(luò)網(wǎng)絡(luò)受初始化的影響較大,易產(chǎn)生“死”神經(jīng)元自組織映射網(wǎng)絡(luò)自組織現(xiàn)象-“加強中心而抑制周圍”,即生物神經(jīng)元不僅加強自身,而且加強周圍鄰近的神經(jīng)元,同時抑制離它距離較遠(yuǎn)的神經(jīng)元;模型函數(shù)-“墨西哥草帽”函數(shù);自組織映射網(wǎng)絡(luò)自組織現(xiàn)象-“加強中心而抑制周圍”,即生物神經(jīng)自組織映射網(wǎng)絡(luò)Kohonen于1982年引入了網(wǎng)格狀的拓?fù)浣Y(jié)構(gòu),并引入變化鄰域概念,從微觀上模擬生物神經(jīng)元之間的側(cè)抑制特性,從而提出自組織映射網(wǎng)絡(luò)模型。自組織映射網(wǎng)絡(luò)模型:自組織映射網(wǎng)絡(luò)Kohonen于1982年引入了網(wǎng)格狀的拓?fù)浣Y(jié)自組織映射網(wǎng)絡(luò)網(wǎng)絡(luò)參數(shù):輸入層:X=[x1,x2,…,xN]T;
網(wǎng)絡(luò)權(quán)值:(i=1,2,…,M;j=1,2,…,N);
輸出層:,
其中:為線性激勵函數(shù)自組織映射網(wǎng)絡(luò)網(wǎng)絡(luò)參數(shù):自組織映射網(wǎng)絡(luò)網(wǎng)絡(luò)的學(xué)習(xí)算法:競爭合作更新Step1設(shè)置變量和參量-輸入樣本:X(n)=[x1(n),x2(n),…,xN(n)]T;權(quán)值向量:Wi(n)=[wi1(n),wi2(n),…,wiN(n)]T
i=1,…,M;迭代步數(shù):N;自組織映射網(wǎng)絡(luò)網(wǎng)絡(luò)的學(xué)習(xí)算法:自組織映射網(wǎng)絡(luò)Step2初始化-初始學(xué)習(xí)速率:;初始權(quán)值:Wi(0);歸一化:,
其中:,自組織映射網(wǎng)絡(luò)Step2初始化-自組織映射網(wǎng)絡(luò)Step3輸入訓(xùn)練樣本;Step4競爭(獲勝神經(jīng)元為c):,i=1,2,…,M
Step5合作與更新:對獲勝神經(jīng)元拓?fù)溧徲騈c(n)內(nèi)的興奮神經(jīng)元,采用Hebb更新規(guī)則自組織映射網(wǎng)絡(luò)Step3輸入訓(xùn)練樣本;自組織映射網(wǎng)絡(luò)Step6修改學(xué)習(xí)速率、拓?fù)溧徲騈c(n)以及歸一化權(quán)值:
自組織映射網(wǎng)絡(luò)Step6修改學(xué)習(xí)速率自組織映射網(wǎng)絡(luò)Step7判斷迭代次數(shù)n是否超過N,如果n<=N就轉(zhuǎn)到step3,否則結(jié)束迭代過程。注意事項:采用歐式距離測度實現(xiàn)競爭;學(xué)習(xí)速率和拓?fù)溧徲蛐薷囊?guī)則的選??;對輸入空間的近似;拓?fù)渑判?;非線性特征選擇。自組織映射網(wǎng)絡(luò)Step7判斷迭代次數(shù)n是否超過N,學(xué)習(xí)矢量量化Kohonen在1989年提出學(xué)習(xí)矢量量化,實現(xiàn)競爭網(wǎng)絡(luò)結(jié)構(gòu)的有監(jiān)督學(xué)習(xí)。學(xué)習(xí)矢量量化=競爭學(xué)習(xí)+有監(jiān)督學(xué)習(xí)網(wǎng)絡(luò)模型:學(xué)習(xí)矢量量化Kohonen在1989年提出學(xué)習(xí)矢量量化學(xué)習(xí)矢量量化學(xué)習(xí)算法:Step1設(shè)置變量和參量-訓(xùn)練樣本:X(n)=[x1(n),x2(n),…,xN(n)]T;權(quán)值矢量:Wi(n)=[wi1(n),wi2(n),…,wiN(n)]T
i=1,2,…,M;學(xué)習(xí)速率:;迭代步數(shù):n為迭代次數(shù),N為迭代總次數(shù)。學(xué)習(xí)矢量量化學(xué)習(xí)算法:學(xué)習(xí)矢量量化Step2隨機初始化權(quán)值向量Wi(0)及學(xué)習(xí)速率;
Step3輸入訓(xùn)練樣本X;Step4計算距離,求獲勝神經(jīng)元c:,i=1,2,…,M
Step5根據(jù)分類的正確性調(diào)整權(quán)值:用代表與獲勝神經(jīng)元權(quán)值向量相聯(lián)系的類,用代表與輸入向量相聯(lián)系的類
學(xué)習(xí)矢量量化Step2隨機初始化權(quán)值向量Wi(0)學(xué)習(xí)矢量量化Step5如果=,則否則,當(dāng),有其他神經(jīng)元保持權(quán)值向量不變;
Step6學(xué)習(xí)速率調(diào)整:
學(xué)習(xí)矢量量化Step5如果=,學(xué)習(xí)矢量量化Step7判斷迭代次數(shù)n是否超過N,如果n<=N就轉(zhuǎn)到Step3,否則結(jié)束迭代過程。注意事項:網(wǎng)絡(luò)中加入分類信息指導(dǎo)學(xué)習(xí);隨機初始化的權(quán)值導(dǎo)致學(xué)習(xí)的不穩(wěn)定;作為自組織映射系統(tǒng)的性能提升方法。學(xué)習(xí)矢量量化Step7判斷迭代次數(shù)n是否超過N,如主分量分析特征提?。€性關(guān)系---→二階矩PCA可以提取數(shù)據(jù)中的二階線性關(guān)系,通過主分量的形式表現(xiàn);利用主分量提取網(wǎng)絡(luò)降低主分量提取中矩陣運算的復(fù)雜度。主分量分析方法(PCA、K-L變換):在均方誤差最優(yōu)意義下:原數(shù)據(jù)空間特征空間可逆變換T逆變換T-1主分量分析特征提?。€性關(guān)系---→二階矩可逆主分量分析
對m維隨機矢量X=[x
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 三年級下冊數(shù)學(xué)教案-3.1 解決問題的策略-從條件想起丨蘇教版
- 一年級下冊數(shù)學(xué)教案-7.2 變葫蘆| 青島版(五四學(xué)制)
- Unit 3 Section A (1a-1c)教學(xué)設(shè)計 2024-2025學(xué)年人教版八年級英語上冊
- 2025年貴州機電職業(yè)技術(shù)學(xué)院單招職業(yè)傾向性測試題庫必考題
- 2025年嘉興南湖學(xué)院單招職業(yè)傾向性測試題庫完整版
- 物理-云南省三校2025屆高三2月高考備考聯(lián)考卷(六)試題和答案
- 2025年哈爾濱鐵道職業(yè)技術(shù)學(xué)院單招職業(yè)傾向性測試題庫必考題
- 2025屆黑龍江佳木斯一中高三上學(xué)期五調(diào)政治試題及答案
- 2025年度工傷賠償協(xié)議范本(房地產(chǎn)行業(yè))
- 2025年湖南都市職業(yè)學(xué)院單招職業(yè)技能測試題庫帶答案
- DBJ50-T-100-2022 建筑邊坡工程施工質(zhì)量驗收標(biāo)準(zhǔn)
- 2025年中考語文模擬試卷(含答案解析)
- 2025年寧夏工商職業(yè)技術(shù)學(xué)院高職單招職業(yè)適應(yīng)性測試近5年??及鎱⒖碱}庫含答案解析
- 2025版校園樂器銷售代理與服務(wù)協(xié)議3篇
- DB11-T 1004-2023 房屋建筑使用安全檢查評定技術(shù)規(guī)程
- 2024-2025年天津河西區(qū)七年級上學(xué)期期末道德與法治試題(含答案)
- 《藝術(shù)與傳播》課件
- 烹飪安全知識培訓(xùn)課件
- 預(yù)制板粘貼碳纖維加固計算表格
- 《智慧旅游認(rèn)知與實踐》課件-第九章 智慧旅行社
評論
0/150
提交評論