第66節(jié)神經(jīng)網(wǎng)絡學習_第1頁
第66節(jié)神經(jīng)網(wǎng)絡學習_第2頁
第66節(jié)神經(jīng)網(wǎng)絡學習_第3頁
第66節(jié)神經(jīng)網(wǎng)絡學習_第4頁
第66節(jié)神經(jīng)網(wǎng)絡學習_第5頁
已閱讀5頁,還剩45頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

摘自《TalkingNets:AnOralHistoryofNeuralNetworks》封面2008-2009學年第1學期神經(jīng)網(wǎng)絡學習本文檔共50頁;當前第1頁;編輯于星期三\8點37分6.6.1神經(jīng)網(wǎng)絡基礎公元前400年左右,柏拉圖和亞里士多德就曾對人類認知、記憶、思維進行過研究;19世紀末,出現(xiàn)了神經(jīng)元學說;美國生物學家W.James在《Physiology》一書中提到,“人腦中兩個基本單元靠得較近時,一個單元的興奮會傳到另一個單元;20世紀40年代,神經(jīng)解剖學、神經(jīng)生理學、神經(jīng)元的電生理過程等有了突破性進展。2008-2009學年第1學期神經(jīng)網(wǎng)絡學習本文檔共50頁;當前第2頁;編輯于星期三\8點37分人腦中神經(jīng)元(神經(jīng)細胞)的結構Nucleus:核

Cellbody:細胞體

Dentrite:樹突

Axon:軸突2008-2009學年第1學期神經(jīng)網(wǎng)絡學習本文檔共50頁;當前第3頁;編輯于星期三\8點37分神經(jīng)元之間的電信號傳遞軸突后部裂出許多分枝,分枝末端有突觸,突觸與樹突連接;軸突中的信號經(jīng)突觸轉換為“阻止”或“激活”信號;當神經(jīng)元的“凈輸入”超過閾值時,其沿軸突發(fā)出信號;改變突觸的效能,神經(jīng)元之間的影響隨之改變,學習就發(fā)生了。突觸(神經(jīng)鍵)2008-2009學年第1學期神經(jīng)網(wǎng)絡學習本文檔共50頁;當前第4頁;編輯于星期三\8點37分生物神經(jīng)元的結構摘自張仰森《人工智能原理與應用》隨書課件2008-2009學年第1學期神經(jīng)網(wǎng)絡學習本文檔共50頁;當前第5頁;編輯于星期三\8點37分1943年,W.S.McCulloch和W.A.Pitts合作提出了第一個人工神經(jīng)元模型(M-P模型);Sumy0T1f是閾值為T的階躍函數(shù)∑I1I2IN…W1W2WNyM-P模型中輸入、輸出的關系摘自.eg/rehan/ann/2_3_1%20The%20McCulloch-Pitts%20Model%20of%20Neuron.htm2008-2009學年第1學期神經(jīng)網(wǎng)絡學習本文檔共50頁;當前第6頁;編輯于星期三\8點37分M-P神經(jīng)元模型樹突加和細胞體閾值軸突參考:http://www.doc.ic.ac.uk/~nd/surprise_96/journal/vol4/cs11/report.html#What%20is%20a%20Neural%20Network突觸2008-2009學年第1學期神經(jīng)網(wǎng)絡學習本文檔共50頁;當前第7頁;編輯于星期三\8點37分1949年,DonalaU.Hebb在“TheOrganizationofBehavior”一書中認為學習的過程最終發(fā)生在神經(jīng)元之間的突觸部位,突觸的連接強度隨著突觸前后神經(jīng)元的活動而變化;連接權的學習律正比于突觸前后兩個神經(jīng)元的活動狀態(tài)值的乘積;可假設權是對稱的,細胞的互連結構是通過改變彼此的連接權創(chuàng)造出來的。突觸連接強度的可變性是學習和記憶的基礎2008-2009學年第1學期神經(jīng)網(wǎng)絡學習本文檔共50頁;當前第8頁;編輯于星期三\8點37分Hebb規(guī)則這是神經(jīng)網(wǎng)絡的第1個學習算法;神經(jīng)元的輸出連接權值的調整公式學習率凈輸入2008-2009學年第1學期神經(jīng)網(wǎng)絡學習本文檔共50頁;當前第9頁;編輯于星期三\8點37分1957年,F(xiàn)rankRosenblatt在M-P模型基礎上,定義了一個具有單層計算單元的神經(jīng)網(wǎng)絡結構,取名為“感知器”。輸入層計算層(輸出層)…………x1x2xixny1yjymw1jwnj2008-2009學年第1學期神經(jīng)網(wǎng)絡學習本文檔共50頁;當前第10頁;編輯于星期三\8點37分設計一個神經(jīng)網(wǎng)絡模型,除了明確網(wǎng)絡的結構、神經(jīng)元的傳輸函數(shù)(f);還要給出學習算法。學習算法用于得出神經(jīng)網(wǎng)絡中的各個參數(shù)。學習算法通常是迭代算法,對應神經(jīng)網(wǎng)絡的演變過程;算法收斂到一個穩(wěn)定狀態(tài)時,神經(jīng)網(wǎng)絡的各參數(shù)(連接權值、閾值等)就基本不變了;這個過程稱為神經(jīng)網(wǎng)絡的學習或訓練。2008-2009學年第1學期神經(jīng)網(wǎng)絡學習本文檔共50頁;當前第11頁;編輯于星期三\8點37分人工神經(jīng)網(wǎng)絡的兩個操作模式訓練模式(trainingmode)準備大量的有教師指導的(或無教師指導的)的訓練樣本(即實例),對ANN進行訓練,確定ANN的內部參數(shù)(甚至結構)。使用模式(usingmode)輸入一個實際例子,讓ANN分析并給出結果。2008-2009學年第1學期神經(jīng)網(wǎng)絡學習本文檔共50頁;當前第12頁;編輯于星期三\8點37分“感知器”是怎么訓練的呢?假設每個樣本含n個屬性,用向量(x1,x2,…,xn)表示;若X為樣本變量,X∈Rn;wij是xi到神經(jīng)元j

的連接權值,Wj是神經(jīng)元j

的輸入連接的權值向量,即Wj=(w1j,w2j,…,

wnj);先隨機設置{wij}和{θj

},θj

是神經(jīng)元

j

的閾值;不同神經(jīng)元的參數(shù)(包括連接權值和閾值)的學習是相互獨立的,故只需給出一個神經(jīng)元的學習算法。2008-2009學年第1學期神經(jīng)網(wǎng)絡學習本文檔共50頁;當前第13頁;編輯于星期三\8點37分神經(jīng)元j的參數(shù)怎么學習呢?樣本必須是有教師指導的,即預先知道其分類;輸入(x1,x2,…,xn)時,神經(jīng)元j的輸出應為dj。對于離散感知器,yj按下式計算。

則wij的調整規(guī)則是

wij(t+1)=wij(t)+η(dj-yj)xiη為調整步幅系數(shù),η>02008-2009學年第1學期神經(jīng)網(wǎng)絡學習本文檔共50頁;當前第14頁;編輯于星期三\8點37分“感知器”對線性可分問題具有分類能力若樣本空間為Rn,存在n-1維的超平面可將樣本分為兩類,則稱線性可分。線性可分的二維樣本空間存在至少一組wij和θj

,使得對應兩個子空間的神經(jīng)元輸出分別為0和1。2008-2009學年第1學期神經(jīng)網(wǎng)絡學習本文檔共50頁;當前第15頁;編輯于星期三\8點37分t樣本X期望輸出dW(t)實際輸出y=W(t)TXW(t+1)=W(t)+η(d-y)X0(1,-1,-1)-1(0,0,0)0(-0.4,0.4,0.4)1(1,1,-1)1(-0.4,0.4,0.4)-0.4(0.16,0.96,-0.16)2(1,-1,-1)-1(0.16,0.96,-0.16)-0.64(0.016,1.104,-0.016)3(1,1,-1)1(0.016,1.104,-0.016)1.136(0.038,1.050,-0.038)∞…………(0,1,0)例:連接強度W的學習過程(η=0.4)驗證:

(0,1,0)T(1,-1,-1)=-1(0,1,0)T(1,1,-1)=12008-2009學年第1學期神經(jīng)網(wǎng)絡學習本文檔共50頁;當前第16頁;編輯于星期三\8點37分“感知器”無法解決線性不可分問題;1969年,Minsky和Papert指出了“感知器”的這種局限性,例如,“感知器”無法實現(xiàn)“異或”邏輯。邏輯“與”邏輯“異或”x1x2yx1x2y0000000100111001011111102008-2009學年第1學期神經(jīng)網(wǎng)絡學習本文檔共50頁;當前第17頁;編輯于星期三\8點37分設輸入向量X=(x1,x2),神經(jīng)元j的輸出為:學習邏輯“與”時,有至少存在一組w1j、w2j和θ滿足上述方程組,即單結點感知器對2輸入的邏輯“與”

問題有分類能力。2008-2009學年第1學期神經(jīng)網(wǎng)絡學習本文檔共50頁;當前第18頁;編輯于星期三\8點37分學習邏輯“異或”時,有不存在任何一組w1j、w2j和θ滿足上述方程組,即單結點感知器不能對2輸入的邏輯“異或”

問題求解。011x1x2線性可分011x1x2線性不可分2008-2009學年第1學期神經(jīng)網(wǎng)絡學習本文檔共50頁;當前第19頁;編輯于星期三\8點37分多層感知器采用二層或多層感知器;只允許某一層的連接權值可調,因為無法知道網(wǎng)絡隱層的神經(jīng)元的理想輸出;要允許各層的連接權值可調,需要用1986年提出的誤差反向傳播(即BP)學習算法。多層感知器可解決單層感知器無法解決的某些問題,例如,用二層感知器就可解決異或問題。2008-2009學年第1學期神經(jīng)網(wǎng)絡學習本文檔共50頁;當前第20頁;編輯于星期三\8點37分70年代,集成電路使計算機快速發(fā)展;在“感知器”局限性的困擾下,機器學習的熱點由連接主義(即神經(jīng)網(wǎng)絡)轉向符號主義;70年代被認為是ANN的研究低潮期,但仍有ANN的一些重要成果出現(xiàn)。72年,芬蘭T.Kohonen教授提出了無教師學習網(wǎng)絡SOM(Self-OrganizingfeatureMap);76年,美國Grossberg教授提出了ART(AdaptiveResonnanceTheory)。自組織競爭網(wǎng)絡模型2008-2009學年第1學期神經(jīng)網(wǎng)絡學習本文檔共50頁;當前第21頁;編輯于星期三\8點37分自組織競爭神經(jīng)網(wǎng)絡模型生物神經(jīng)網(wǎng)絡中,有側抑制現(xiàn)象;一個神經(jīng)元興奮,通過突觸抑制相鄰神經(jīng)元;它越興奮,對周圍神經(jīng)元的抑制作用越強。抑制現(xiàn)象使神經(jīng)元之間出現(xiàn)競爭;起初,各神經(jīng)元都處于(不同程度)興奮狀態(tài),最后“勝者為王”。自組織特征映射(SOM)和自適應共振理論(ART)都屬于這類神經(jīng)網(wǎng)絡模型。2008-2009學年第1學期神經(jīng)網(wǎng)絡學習本文檔共50頁;當前第22頁;編輯于星期三\8點37分SOM的典型結構輸入層競爭層(輸出層)…………x1x2xixny1yjymw1jwnj2008-2009學年第1學期神經(jīng)網(wǎng)絡學習本文檔共50頁;當前第23頁;編輯于星期三\8點37分SOM可實現(xiàn)聚類分析聚類在沒有教師指導的情況下,自動尋找樣本的屬性關系,將相似的樣本劃歸為一類。分類已知各樣本的類別,在類別知識(即教師信號)的指導下,形成分類規(guī)則,將各樣本分到各自的類中。共同點:尋找樣本-類的映射函數(shù)。2008-2009學年第1學期神經(jīng)網(wǎng)絡學習本文檔共50頁;當前第24頁;編輯于星期三\8點37分樣本相似度的測量設X1和X2是表示兩個樣本的向量;歐式距離法余弦法(向量夾角法)X1X2X1-

X22008-2009學年第1學期神經(jīng)網(wǎng)絡學習本文檔共50頁;當前第25頁;編輯于星期三\8點37分SOM中的競爭學習算法對樣本X

和各神經(jīng)元的連接權值向量Wj規(guī)一化尋找獲勝的神經(jīng)元jX1XiXnw1jwijwnj……yj輸入到神經(jīng)元j的連接2008-2009學年第1學期神經(jīng)網(wǎng)絡學習本文檔共50頁;當前第26頁;編輯于星期三\8點37分SOM中的競爭學習算法網(wǎng)絡輸出與權值調整對Wj*(t+1)進行歸一化如果α足夠小則退出;否則衰減α,轉①2008-2009學年第1學期神經(jīng)網(wǎng)絡學習本文檔共50頁;當前第27頁;編輯于星期三\8點37分1982年,美國物理學家JohnJ.Hopfield提出了一種全連接神經(jīng)網(wǎng)絡模型(即Hopfield模型);這是一種離散型反饋式神經(jīng)網(wǎng)絡(英縮寫DHNN);引入了“能量函數(shù)”概念,支持對神經(jīng)網(wǎng)絡運行穩(wěn)定性進行判定;成功求解旅行商問題(TravelingSalesmanProblems)。1984年,他又提出了連續(xù)型Hopfield網(wǎng)絡(英縮寫CHNN)。2008-2009學年第1學期神經(jīng)網(wǎng)絡學習本文檔共50頁;當前第28頁;編輯于星期三\8點37分離散型Hopfield神經(jīng)網(wǎng)絡的結構模型一般有wii=0,wij=wjiy1y2yjynθ1θ2θjθnw2jx1x2xjxnwj2…………2008-2009學年第1學期神經(jīng)網(wǎng)絡學習本文檔共50頁;當前第29頁;編輯于星期三\8點37分神經(jīng)元的輸出也稱神經(jīng)元的狀態(tài);所有神經(jīng)元的狀態(tài)構成反饋網(wǎng)絡的狀態(tài)Y;

Y=(y1,y2,…,yn)網(wǎng)絡輸入就是網(wǎng)絡狀態(tài)的初始值Y(0);

Y(0)=(x1(0),x2(0),…,xn(0))由初始狀態(tài),網(wǎng)絡開始演化。

yj(t+1)=f(netj)

這里,netj為神經(jīng)元j的凈輸入,f(·)為神經(jīng)元的特性函數(shù)(也稱作用、傳遞或轉移函數(shù))。y1y2yjynθnx1x2xjxn…………2008-2009學年第1學期神經(jīng)網(wǎng)絡學習本文檔共50頁;當前第30頁;編輯于星期三\8點37分常見的特性函數(shù)10fu10fu10fuuk閾值型S狀(如sigmoid函數(shù))分段線性(飽和線性)2008-2009學年第1學期神經(jīng)網(wǎng)絡學習本文檔共50頁;當前第31頁;編輯于星期三\8點37分對于DHNN,特性函數(shù)f可以是閾值型也可以是分段線性型凈輸入netj的計算2008-2009學年第1學期神經(jīng)網(wǎng)絡學習本文檔共50頁;當前第32頁;編輯于星期三\8點37分DHNN的兩種學習方式串行方式(也稱異步方式)每次調整,只有一個神經(jīng)元按其凈輸入調整輸出(即狀態(tài)),而其他神經(jīng)元保持狀態(tài)不變;神經(jīng)元狀態(tài)的調整次序可按某種規(guī)定次序進行,也可隨機選定。并行方式(也稱同步方式)每次調整,各神經(jīng)元都按其凈輸入調整各自的狀態(tài)。

y1y2yjynθnx1x2xjxn…………2008-2009學年第1學期神經(jīng)網(wǎng)絡學習本文檔共50頁;當前第33頁;編輯于星期三\8點37分DHNN可能收斂于某個穩(wěn)定狀態(tài),也可能產(chǎn)生振蕩構成極限環(huán);在串行方式下,為使網(wǎng)絡收斂,W應為對稱陣;在并行方式下,為使網(wǎng)絡收斂,W應為非負定對稱陣;保證給定的樣本是網(wǎng)絡的吸引子,且有一定的吸引域。參考:朱大奇,史慧.人工神經(jīng)網(wǎng)絡原理及應用.第3章.科學出版社,2006年3月第1版.y1y2yjynθnx1x2xjxn…………2008-2009學年第1學期神經(jīng)網(wǎng)絡學習本文檔共50頁;當前第34頁;編輯于星期三\8點37分連續(xù)型Hopfield神經(jīng)網(wǎng)絡模型該模型可表示為下列的非線性微分方程組:ui是神經(jīng)元i的膜電位,Ci和Ri分別是輸入電容和電阻,Ii是電路外的輸入電流,wij是神經(jīng)元i到神經(jīng)元j的連接強度,f(u)是u的非線性函數(shù)。這是一個N輸入、N輸出的有N組運算放大器的電路,每個運放輸出有到各運放輸入的反饋通路。2008-2009學年第1學期神經(jīng)網(wǎng)絡學習本文檔共50頁;當前第35頁;編輯于星期三\8點37分連續(xù)型Hopfield神經(jīng)網(wǎng)絡的神經(jīng)元模型VjVjujCj…ViRij

=1/wijRjVj可對應0至1之間的任意實數(shù)2008-2009學年第1學期神經(jīng)網(wǎng)絡學習本文檔共50頁;當前第36頁;編輯于星期三\8點37分Hopfield網(wǎng)絡是一種非線性的動力網(wǎng)絡;可通過反復的網(wǎng)絡動態(tài)迭代來求解問題,這是符號邏輯方法所不具有的特性;在求解某些問題時,其求解方法與人類的求解方法很相似;所求得的解可能不是最佳解,但其求解速度快。2008-2009學年第1學期神經(jīng)網(wǎng)絡學習本文檔共50頁;當前第37頁;編輯于星期三\8點37分1986年,MIT出版社(Cambridge)出版了J.L.Rumelhart和D.E.McClelland主編的“ParallelDistributedProcessing:ExplorationintheMicrostructuresofCognition”一書;其中,詳細分析了多層前饋網(wǎng)絡中的誤差反向傳播(ErrorBackPropagation)算法,即BP算法,它很好地解決了感知器局限性問題。2008-2009學年第1學期神經(jīng)網(wǎng)絡學習本文檔共50頁;當前第38頁;編輯于星期三\8點37分前饋型神經(jīng)網(wǎng)絡輸入層輸出層隱層…x1xixN1……………y1yiyNm……2008-2009學年第1學期神經(jīng)網(wǎng)絡學習本文檔共50頁;當前第39頁;編輯于星期三\8點37分BP算法正向傳播從輸入層到輸出層,逐層計算結點狀態(tài);每一層結點的狀態(tài)只影響下一層結點的狀態(tài)。如輸出層沒有得到期望輸出(即有誤差),轉入反向傳播過程。反向傳播將誤差信號沿原路返回,通過修改各層的連接權值,使誤差信號遞減直到最小。2008-2009學年第1學期神經(jīng)網(wǎng)絡學習本文檔共50頁;當前第40頁;編輯于星期三\8點37分是還有樣本嗎BP算法的流程圖初始化給定輸入向量和期望輸出求隱層、輸出層各結點輸出求輸出與期望輸出的誤差e求誤差梯度權值學習計算隱層結點誤差否設置連接權和閾的初值有e足夠小結束無2008-2009學年第1學期神經(jīng)網(wǎng)絡學習本文檔共50頁;當前第41頁;編輯于星期三\8點37分多層前饋網(wǎng)絡中的符號xi:樣本的第i個屬性yi:輸出層神經(jīng)元i的輸出di:輸出層神經(jīng)元i的期望輸出wijk:第i層神經(jīng)元

j

到第i+1層神經(jīng)元k的連接權值oij:第i層神經(jīng)元j的輸出θij:第

i

層神經(jīng)元

j

的閾值netij:第i層神經(jīng)元j的凈輸入Ni:第

i

層神經(jīng)元的數(shù)目2008-2009學年第1學期神經(jīng)網(wǎng)絡學習本文檔共50頁;當前第42頁;編輯于星期三\8點37分BP算法中的前向計算特征函數(shù)必須是有界連續(xù)可微的,如sigmoid函數(shù)2008-2009學年第1學期神經(jīng)網(wǎng)絡學習本文檔共50頁;當前第43頁;編輯于星期三\8點37分BP算法中的反向計算輸出層神經(jīng)元j的狀態(tài)誤差網(wǎng)絡學習的目標函數(shù)wijk的調整量2008-2009學年第1學期神經(jīng)網(wǎng)絡學習本文檔共50頁;當前第44頁;編輯于星期三\8點37分BP算法中的反向計算(續(xù))

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論