西安科技大學2014年神經(jīng)網(wǎng)絡期末試卷_第1頁
西安科技大學2014年神經(jīng)網(wǎng)絡期末試卷_第2頁
西安科技大學2014年神經(jīng)網(wǎng)絡期末試卷_第3頁
西安科技大學2014年神經(jīng)網(wǎng)絡期末試卷_第4頁
西安科技大學2014年神經(jīng)網(wǎng)絡期末試卷_第5頁
全文預覽已結束

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

1、神經(jīng)網(wǎng)絡原理一、填空題1、從系統(tǒng)的觀點講,人工神經(jīng)元網(wǎng)絡是由大量神經(jīng)元通過極其豐富和完善的連接而構成的自適應、非線性、動力學系統(tǒng)。2、神經(jīng)網(wǎng)絡的基本特性有拓撲性、學習性和穩(wěn)定收斂性。3、神經(jīng)網(wǎng)絡按結構可分為前饋網(wǎng)絡和反饋網(wǎng)絡,按性能可分為離散型和連續(xù)型,按學習方式可分為有導師和無導師。4、神經(jīng)網(wǎng)絡研究的發(fā)展大致經(jīng)過了四個階段。5、網(wǎng)絡穩(wěn)定性指從t=0時刻初態(tài)開始,到t時刻后v(t+t)=v(t),(t>0),稱網(wǎng)絡穩(wěn)定。6、聯(lián)想的形式有兩種,它們分是自聯(lián)想和異聯(lián)想。7、存儲容量指網(wǎng)絡穩(wěn)定點的個數(shù),提高存儲容量的途徑一是改進網(wǎng)絡的拓撲結構,二是改進學習方法。8、非穩(wěn)定吸引子有兩種狀態(tài),一是

2、有限環(huán)狀態(tài),二是混沌狀態(tài)。9、神經(jīng)元分興奮性神經(jīng)元和抑制性神經(jīng)元。10、漢明距離指兩個向量中對應元素不同的個數(shù)。二、簡答題1、人工神經(jīng)元網(wǎng)絡的特點?答:(1)、信息分布存儲和容錯性。(2)、大規(guī)模并行協(xié)同處理。(3)、自學習、自組織和自適應。(4)、人工神經(jīng)元網(wǎng)絡是大量的神經(jīng)元的集體行為,表現(xiàn)為復雜的非線性動力學特性。(5)人式神經(jīng)元網(wǎng)絡具有不適合高精度計算、學習算法和網(wǎng)絡設計沒有統(tǒng)一標準等局限性。2、單個神經(jīng)元的動作特征有哪些?答:單個神經(jīng)元的動作特征有:(1)、空間相加性;(2)、時間相加性;(3)、閾值作用;(4)、不應期;(5)、可塑性;(6)疲勞。3、怎樣描述動力學系統(tǒng)?答:對于離散

3、時間系統(tǒng),用一組一階差分方程來描述:X(t+1)=FX(t);對于連續(xù)時間系統(tǒng),用一階微分方程來描述:dU(t)/dt=FU(t)。4、F(x)與x的關系如下圖,試述它們分別有幾個平衡狀態(tài),是否為穩(wěn)定的平衡狀態(tài)?XF(X)0ab(1) XF(X)0a(2) 答:在圖(1)中,有兩個平衡狀態(tài)a、b,其中,在a點曲線斜率|F(X)|>1,為非穩(wěn)定平穩(wěn)狀態(tài);在b點曲線斜率|F(X)|<1,為穩(wěn)定平穩(wěn)狀態(tài)。在圖(2)中,有一個平穩(wěn)狀態(tài)a,且在該點曲線斜率|F(X)|>1,為非穩(wěn)定平穩(wěn)狀態(tài)。5、對于單個神經(jīng)元的離散模型,Hebb學習假設是什么,基本學習方程是什么?答:對于單個神經(jīng)元的離

4、散模型,Hebb學習假設是:只有當神經(jīng)元興奮時,與其連接的突觸結合權才被強化而增大;當兩個神經(jīng)元同時處于興奮狀態(tài)時,它們之間的連接權應該加強?;緦W習方程是:6、聯(lián)想形式中的自聯(lián)想和異聯(lián)想有何區(qū)別?答:自聯(lián)想指的是由某種代表事物(或該事物的主要特征或可能是部分主在特征)聯(lián)想到其所表示的實際事物。其數(shù)學模型為:當輸入XX0+V時,輸出Y=X0。異聯(lián)想指的是由某一事物(或該事物的主要特征或可能是部分主在特征)聯(lián)想到與其相關的另一事物。其數(shù)學模型為:在映射X0Y0下,當輸入XX0+V時,輸出Y=Y0。7、網(wǎng)絡的穩(wěn)定吸引子和吸引子的吸引域分別指什么?答:當t=0時,對網(wǎng)絡輸入模式x,網(wǎng)絡處于狀態(tài)v(0

5、),到時刻t網(wǎng)絡達到狀態(tài)v(t),若v(t)穩(wěn)定,則稱v(t)為網(wǎng)絡的穩(wěn)定吸引子。吸引子的吸引域是指所有經(jīng)過一定時間能夠穩(wěn)定在吸引子v(t)上的所有初始狀態(tài)的集合。三、論述題1、 前饋式神經(jīng)元網(wǎng)絡與反饋式神經(jīng)元網(wǎng)絡有何不同?答:(1)、前饋型神經(jīng)元網(wǎng)絡取連續(xù)或離散變量,一般不考慮輸出與輸入在時間上的滯后效應,只表達輸出與輸入的映射關系。反饋式神經(jīng)元網(wǎng)絡可以用離散變量也可以用連續(xù)取值,考慮輸出與輸入之間在時間上和延遲,需要用動態(tài)方程來描述系統(tǒng)的模型。(2)、前饋型網(wǎng)絡的學習主要采用誤差修正法(如BP算法),計算過程一般比較慢,收斂速度也比較慢。而反饋型網(wǎng)絡主要采用Hebb學習規(guī)則,一般情況下計算

6、的收斂速度很快。反饋網(wǎng)絡也有類似于前饋網(wǎng)絡的應用,例如用作聯(lián)想記憶或分類,而在優(yōu)化計算方面的應用更能顯出反饋網(wǎng)絡的特點。2、 試述離散型Hopfield神經(jīng)元網(wǎng)絡的結構及工作原理。(1) Hopfield神經(jīng)元網(wǎng)絡的結構如下: 這種網(wǎng)絡是一種單層網(wǎng)絡,由n個單元組成。每個神精元既是輸入單元,又是輸出單元;各節(jié)點一般選用相同的轉移函數(shù),且為符號函數(shù),即: 為網(wǎng)絡的輸入; 為網(wǎng)絡的輸出; 為網(wǎng)絡在時刻t 的狀態(tài),其中t0,1,2,··· 為離散時間變量。Wij為從Ni到Nj的連接權值,Hopfield網(wǎng)絡為對稱的即有Wij = Wji 。N1N2Nn-1Nnx1x2xn-1xny1y2Yn-1ynV1(t)V2(t)Vn-1(t)Vn(t)w21Wn-1 2(2)、工作原理:、網(wǎng)絡經(jīng)過訓練后,可以認為網(wǎng)絡處于等待工作狀態(tài),對網(wǎng)絡給定初始輸入x時,網(wǎng)絡就處于特定的初始狀態(tài),由此初始狀態(tài)開始運行,可以得到網(wǎng)絡的下一個輸出狀態(tài)。、這個輸出狀態(tài)通過反饋回送到網(wǎng)絡的輸入端,作為網(wǎng)絡下一

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論