第4講計算智能_第1頁
第4講計算智能_第2頁
第4講計算智能_第3頁
第4講計算智能_第4頁
第4講計算智能_第5頁
已閱讀5頁,還剩17頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

第4講計算智能2023/1/122人工神經(jīng)網(wǎng)絡(luò)學習概述人工神經(jīng)網(wǎng)絡(luò)提供了一種普遍且實用的方法從樣例中學習值為實數(shù)、離散值或向量的函數(shù)。人工神經(jīng)網(wǎng)絡(luò)對于訓練數(shù)據(jù)中的錯誤健壯性很好。人工神經(jīng)網(wǎng)絡(luò)已被成功應用到很多領(lǐng)域,例如視覺場景分析,語音識別,機器人控制。其中,最流行的網(wǎng)絡(luò)和算法是20世紀80年代提出的BP網(wǎng)絡(luò)和BP算法,BP算法使用梯度下降法來調(diào)節(jié)BP網(wǎng)絡(luò)的參數(shù)以最佳擬合由輸入-輸出對組成的訓練集合。2023/1/123BP算法概述1、BP算法的出現(xiàn)非循環(huán)多級網(wǎng)絡(luò)的訓練算法UCSDPDP小組的Rumelhart、Hinton和Williams1986年獨立地給出了BP算法清楚而簡單的描述1982年,Paker就完成了相似的工作1974年,Werbos已提出了該方法2、弱點:訓練速度非常慢、局部極小點的逃離問題、 算法不一定收斂。3、優(yōu)點:廣泛的適應性和有效性。2023/1/124BP網(wǎng)絡(luò)的基本結(jié)構(gòu)2023/1/125確定BP網(wǎng)絡(luò)的拓撲結(jié)構(gòu)在開始訓練之前,需要確定網(wǎng)絡(luò)的拓撲結(jié)構(gòu):出入層神經(jīng)元的個數(shù)、隱含層神經(jīng)元的層數(shù)及每一層神經(jīng)元的個數(shù)、輸出層神經(jīng)元的個數(shù)。對訓練樣本中的每一屬性的值進行歸一化,使其值落在(0,1)區(qū)間,有助于加快學習過程。對于離散的屬性值,要進行合適的編碼。BP網(wǎng)一般都選用二級網(wǎng)絡(luò)。實驗表明:增加隱藏層的層數(shù)和隱藏層神經(jīng)元個數(shù)不一定總能夠提高網(wǎng)絡(luò)精度和表達能力。2023/1/126神經(jīng)元的M-P模型2023/1/127激活函數(shù)(ActivationFunction)

激活函數(shù)——執(zhí)行對該神經(jīng)元所獲得的網(wǎng)絡(luò)輸入的變換,也可以稱為激勵函數(shù)、活化函數(shù):o=f(net)

1、線性函數(shù)(LinerFunction)

f(net)=k*net+c

netooc2023/1/1282、非線性斜面函數(shù)(RampFunction)

γ ifnet≥θf(net)=k*net if|net|<θ -γ ifnet≤-θ

γ>0為一常數(shù),被稱為飽和值,為該神經(jīng)元的最大輸出。

2023/1/1292、非線性斜面函數(shù)(RampFunction)γ-γθ

net

o

2023/1/12103、閾值函數(shù)(ThresholdFunction)階躍函數(shù)

β ifnet>θf(net)= -γ ifnet≤θβ、γ、θ均為非負實數(shù),θ為閾值二值形式:

1 ifnet>θf(net)= 0 ifnet≤θ雙極形式:

1 ifnet>θf(net)= -1 ifnet≤θ

2023/1/12113、閾值函數(shù)(ThresholdFunction)階躍函數(shù)β

-γθonet02023/1/12124、S形函數(shù)

壓縮函數(shù)(SquashingFunction)和邏輯斯特函數(shù)(LogisticFunction)。f(net)=a+b/(1+exp(-d*net))a,b,d為常數(shù)。它的飽和值為a和a+b。最簡單形式為:f(net)=1/(1+exp(-d*net))

函數(shù)的飽和值為0和1。S形函數(shù)有較好的增益控制

2023/1/12134、S形函數(shù)

a+bo(0,c)netac=a+b/22023/1/1214BP算法2023/1/1215BP算法的基本思想BP算法的基本工作過程大概可以分為兩個階段:1)信號的向前傳播,在這個階段,要求計算出隱含層和輸出層中每一神經(jīng)元的凈輸入和輸出。

2)誤差的向后傳播,在這個階段,要求計算出輸出層和隱含層中每一神經(jīng)元的誤差。2023/1/1216初始化問題在BP算法中,權(quán)和偏置在網(wǎng)絡(luò)學習之前,都將其初始化為不同的小隨機數(shù)。“不同”保證網(wǎng)絡(luò)可以學習;“小隨機數(shù)”防止其值過大而提前進入飽和狀態(tài)。2023/1/1217更新問題基本的BP算法采用的是實例更新,即每處理一個實例就更新一次權(quán)和偏置。實例更新的缺陷:實例的順序?qū)τ柧毥Y(jié)果有較大影響。它更“偏愛”較后出現(xiàn)的實例。而給其中的實例安排一個適當?shù)捻樞?,是非常困難的。解決的辦法就是采用周期更新,即每處理一遍所有的實例才更新一次權(quán)和偏置。周期更新的好處是:可以消除實例順序?qū)Y(jié)果的影響。2023/1/1218收斂速度問題BP算法的訓練速度是非常慢的,尤其是當訓練達到一定的程度后,甚至有時是發(fā)散的。2023/1/1219局部極小點問題避免——修改初始值:并不是總有效。逃離——統(tǒng)計方法:[Wasserman,1986]將Cauchy訓練與BP算法結(jié)合起來,可以在保證訓練速度不被降低的情況下,找到全局極小點。2023/1/1220網(wǎng)絡(luò)癱瘓問題在訓練中,權(quán)可能變得很大,這會使神經(jīng)元的網(wǎng)絡(luò)輸入變得很大,從而又使得其激活函數(shù)的導函數(shù)在此點上的取值很小。根據(jù)相應式子,此時的訓練步長會變得非常小,進而將導致訓練速度降得非常低,最終導致網(wǎng)絡(luò)停止收斂。2023/1/1221步長問題BP網(wǎng)絡(luò)的收斂是基于無窮小的權(quán)修改量步長太小,收斂就非常慢步長太大,可能會導致網(wǎng)絡(luò)的癱瘓和不穩(wěn)定自適應步長,使得權(quán)修改量能隨著網(wǎng)絡(luò)的訓練而不斷變化。[1988年,Wasserman]2023/1/1222BP

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論