卷積神經(jīng)網(wǎng)絡(luò)_第1頁
卷積神經(jīng)網(wǎng)絡(luò)_第2頁
卷積神經(jīng)網(wǎng)絡(luò)_第3頁
卷積神經(jīng)網(wǎng)絡(luò)_第4頁
卷積神經(jīng)網(wǎng)絡(luò)_第5頁
已閱讀5頁,還剩19頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

卷積神經(jīng)網(wǎng)絡(luò)初步解析

陳遙單層感知器感知器可謂是最早的人工神經(jīng)網(wǎng)絡(luò)。單層感知器是一個具有一層神經(jīng)元、采用閾值激活函數(shù)的前向網(wǎng)絡(luò)。通過對網(wǎng)絡(luò)權(quán)值的訓(xùn)練,可以使感知器對一組輸人矢量的響應(yīng)達(dá)到元素為0或1的目標(biāo)輸出,從而實現(xiàn)對輸人矢量分類的目的。單層感知器作用范圍感知器是一個簡單的二類分類的線性分類模型,要求我們的樣本是線性可分的。多層感知器多層感知器的思路是,盡管原始數(shù)據(jù)是非線性可分的,但是可以通過某種方法將其映射到一個線性可分的高維空間中,從而使用線性分類器完成分類。圖1中,從X到O這幾層,正展示了多層感知器的一個典型結(jié)構(gòu),即輸入層-隱層-輸出層。輸入層-隱層是全連接的網(wǎng)絡(luò),即每個輸入節(jié)點(diǎn)都連接到所有的隱層節(jié)點(diǎn)上。更詳細(xì)地說,可以把輸入層視為一個向量

x

,而隱層節(jié)點(diǎn)

j

有一個權(quán)值向量

θj

以及偏置

bj

,激活函數(shù)使用

sigmoid

tanh

,那么這個隱層節(jié)點(diǎn)的輸出應(yīng)該是若輸入層有

m

個節(jié)點(diǎn),隱層有

n

個節(jié)點(diǎn),那么

Θ

=

[θT]

n×m

的矩陣,x

為長為

m

的向量,b

為長為

n

的向量,激活函數(shù)作用在向量的每個分量上,

f(x)

返回一個向量隱層-輸出層可以視為級聯(lián)在隱層上的一個感知器。若為二分類,則常用LogisticRegression;若為多分類,則常用Softmax

Regression。核心!權(quán)值、偏置估計(結(jié)論如下,推導(dǎo)見“卷積神經(jīng)網(wǎng)絡(luò)全面解析”)殘差定義:假設(shè)有層

p,

q,

r

,分別有

l,

m,

n

個節(jié)點(diǎn),依序前者輸出全連接到后者作為輸入。t為標(biāo)簽,y為輸出,E為損失函數(shù),為p層輸出向量,Φ表示激活函數(shù),層

q

有權(quán)重矩陣

[Θq]m×l

,偏置向量

[bq]m×1

,層

r有權(quán)重矩陣

[Θr]n×m

,偏置向量

[br]n×1

。那么其中,運(yùn)算

w

=

u○v

表示

wi

=

uivi

。函數(shù)作用在向量或者矩陣上,表示作用在其每個分量上。卷積神經(jīng)網(wǎng)絡(luò)的三大優(yōu)點(diǎn)局部感受野權(quán)值共享:在卷積神經(jīng)網(wǎng)中,同一個卷積核內(nèi),所有的神經(jīng)元的權(quán)值是相同的,從而大大減少需要訓(xùn)練的參數(shù)。作為補(bǔ)充,在CNN中的每個隱層,一般會有多個卷積核。池化:在卷積神經(jīng)網(wǎng)絡(luò)中,沒有必要一定就要對原圖像做處理,而是可以使用某種“壓縮”方法,這就是池化,也就是每次將原圖像卷積后,都通過一個池化的過程,來減小圖像的規(guī)模。卷積神經(jīng)網(wǎng)絡(luò)的正向過程卷積下采樣光柵化多層感知器預(yù)測。卷積考慮一個大小為5×5的圖像,和一個3×3的卷積核。這里的卷積核共有9個參數(shù),記為

Θ

=[θij]3×3

f(x)=act()卷積總結(jié)公式:如果卷積層

c

中的一個卷積核j連接到輸入圖

X1,

X2,

...,

Xi

,且這個卷積核的權(quán)重矩陣為

,那么這個卷積核的輸出為這個輸出矩陣大小為(m-p+1)(n-q+1).下采樣(池化)下采樣,即池化,目的是減小特征圖,池化規(guī)模一般為2×2。常用的池化方法有:最大池化(Max

Pooling):取4個點(diǎn)的最大值。這是最常用的池化方法。均值池化(Mean

Pooling):取4個點(diǎn)的均值。高斯池化可訓(xùn)練池化:訓(xùn)練函數(shù)

f

,接受4個點(diǎn)為輸入,輸出1個點(diǎn)。不常用。由于特征圖的變長不一定是2的倍數(shù),所以在邊緣處理上也有兩種方案:忽略邊緣。即將多出來的邊緣直接省去。保留邊緣。即將特征圖的變長用0填充為2的倍數(shù),然后再池化。一般使用這種方式。對神經(jīng)中樞

j

的輸出

Oj

,使用池化函數(shù)

downsample

,池化后的結(jié)果為光柵化圖像經(jīng)過池化-下采樣后,得到的是一系列的特征圖,而多層感知器接受的輸入是一個向量。因此需要將這些特征圖中的像素依次取出,排列成一個向量。具體說,對特征圖

X1,

X2,

...,

Xj

,光柵化后得到的向量多層感知器預(yù)測

將光柵化后的向量連接到多層感知器CNN參數(shù)更新多層感知器層殘差定義使用多層感知器的參數(shù)估計方法,得到其最低的一個隱層

s

的殘差向量

δs

?,F(xiàn)在需要將這個殘差傳播到光柵化層

r

,光柵化的時候并沒有對向量的值做修改,因此其激活函數(shù)為恒等函數(shù),其導(dǎo)數(shù)為單位向量。光柵化層從上一層傳過來的殘差為重新整理成為一系列的矩陣即可,若上一層

Q

q

個池化核,則傳播到池化層的殘差池化層對應(yīng)池化過程中常用的兩種池化方案,這里反傳殘差的時候也有兩種上采樣方案:最大池化:將1個點(diǎn)的殘差直接拷貝到4個點(diǎn)上。均值池化:將1個點(diǎn)的殘差平均到4個點(diǎn)上。即傳播到卷積層的殘差卷積層對權(quán)值和偏置的更新:其中,rot180

是將一個矩陣旋轉(zhuǎn)180度;

Oq'是連接到該卷積層前的池化層的輸出。

卷積層的殘差反傳?整體思路以層為單位,分別實現(xiàn)卷積層、池化層、光柵化層、MLP隱層、分類層這五個層的類。其中每個類都有output和backpro

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論