版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
10.5AlexNet網(wǎng)絡(luò)模型CONTENTS目錄AlexNet模型簡(jiǎn)介01AlexNet模型結(jié)構(gòu)02Tensorflow實(shí)現(xiàn)AlexNet03CONTENTS目錄AlexNet模型簡(jiǎn)介01AlexNet模型結(jié)構(gòu)02Tensorflow實(shí)現(xiàn)AlexNet03Alex在2012年提出的AlexNet網(wǎng)絡(luò)結(jié)構(gòu)模型引爆了神經(jīng)網(wǎng)絡(luò)的應(yīng)用熱潮,使得CNN成為在圖像分類上的核心算法模型。如圖所示,采用是兩臺(tái)GPU服務(wù)器,該模型一共分為八層,5個(gè)卷基層,以及3個(gè)全連接層,在每一個(gè)卷積層中包含了激勵(lì)函數(shù)RELU以及局部響應(yīng)歸一化(LRN)處理,然后在經(jīng)過降采樣(pool處理)AlexNet模型簡(jiǎn)介CONTENTS目錄AlexNet模型簡(jiǎn)介01AlexNet模型結(jié)構(gòu)02Tensorflow實(shí)現(xiàn)AlexNet03AlexNet網(wǎng)絡(luò)模型結(jié)構(gòu)如圖10-5-1所示。AlexNet模型結(jié)構(gòu)(1)conv1階段DFD(dataflowdiagram)第一層輸入數(shù)據(jù)為原始的227×227×3的圖像,這個(gè)圖像被11×11×3的卷積核進(jìn)行卷積運(yùn)算,卷積核對(duì)原始圖像的每次卷積都生成一個(gè)新的像素。卷積核沿原始圖像的x軸方向和y軸方向兩個(gè)方向移動(dòng),移動(dòng)的步長(zhǎng)是4個(gè)像素。因此,卷積核在移動(dòng)的過程中會(huì)生成(227-11)/4+1=55個(gè)像素,行和列的55×55個(gè)像素形成對(duì)原始圖像卷積之后的像素層。共有96個(gè)卷積核,會(huì)生成55×55×96個(gè)卷積后的像素層。96個(gè)卷積核分成2組,每組48個(gè)卷積核。對(duì)應(yīng)生成2組55×55×48的卷積后的像素層數(shù)據(jù)。這些像素層經(jīng)過relu1單元的處理,生成激活像素層,尺寸仍為2組55×55×48的像素層數(shù)據(jù)。這些像素層經(jīng)過pool運(yùn)算(池化運(yùn)算)的處理,池化運(yùn)算的尺度為3×3,運(yùn)算的步長(zhǎng)為2,則池化后圖像的尺寸為(55-3)/2+1=27。即池化后像素的規(guī)模為27×27×96;然后經(jīng)過歸一化處理,歸一化運(yùn)算的尺度為5×5;第一卷積層運(yùn)算結(jié)束后形成的像素層的規(guī)模為27×27×96。分別對(duì)應(yīng)96個(gè)卷積核所運(yùn)算形成。這96層像素層分為2組,每組48個(gè)像素層,每組在一個(gè)獨(dú)立的GPU上進(jìn)行運(yùn)算。AlexNet模型結(jié)構(gòu)反向傳播時(shí),每個(gè)卷積核對(duì)應(yīng)一個(gè)偏差值。即第一層的96個(gè)卷積核對(duì)應(yīng)上層輸入的96個(gè)偏差值。conv1階段DFD如圖10-5-2所示。AlexNet模型結(jié)構(gòu)(2)conv2階段DFD(dataflowdiagram)第二層輸入數(shù)據(jù)為第一層輸出的27×27×96的像素層,為便于后續(xù)處理,每幅像素層的左右兩邊和上下兩邊都要填充2個(gè)像素;27×27×96的像素?cái)?shù)據(jù)分成27×27×48的兩組像素?cái)?shù)據(jù),兩組數(shù)據(jù)分別再兩個(gè)不同的GPU中進(jìn)行運(yùn)算。每組像素?cái)?shù)據(jù)被5×5×48的卷積核進(jìn)行卷積運(yùn)算,卷積核對(duì)每組數(shù)據(jù)的每次卷積都生成一個(gè)新的像素。卷積核沿原始圖像的x軸方向和y軸方向兩個(gè)方向移動(dòng),移動(dòng)的步長(zhǎng)是1個(gè)像素。因此,卷積核在移動(dòng)的過程中會(huì)生成(27-5+2×2)/1+1=27個(gè)像素。行和列的27×27個(gè)像素形成對(duì)原始圖像卷積之后的像素層。共有256個(gè)5×5×48卷積核;這256個(gè)卷積核分成兩組,每組針對(duì)一個(gè)GPU中的27×27×48的像素進(jìn)行卷積運(yùn)算。會(huì)生成兩組27×27×128個(gè)卷積后的像素層。這些像素層經(jīng)過relu2單元的處理,生成激活像素層,尺寸仍為兩組27×27×128的像素層。這些像素層經(jīng)過pool運(yùn)算(池化運(yùn)算)的處理,池化運(yùn)算的尺度為3×3,運(yùn)算的步長(zhǎng)為2,則池化后圖像的尺寸為(57-3)/2+1=13。即池化后像素的規(guī)模為2組13×13×128的像素層;然后經(jīng)過歸一化處理,歸一化運(yùn)算的尺度為5×5;第二卷積層運(yùn)算結(jié)束后形成的像素層的規(guī)模為2組13×13×128的像素層。分別對(duì)應(yīng)2組128個(gè)卷積核所運(yùn)算形成。每組在一個(gè)GPU上進(jìn)行運(yùn)算。即共256個(gè)卷積核,共2個(gè)GPU進(jìn)行運(yùn)算。AlexNet模型結(jié)構(gòu)反向傳播時(shí),每個(gè)卷積核對(duì)應(yīng)一個(gè)偏差值。即第一層的96個(gè)卷積核對(duì)應(yīng)上層輸入的256個(gè)偏差值。conv2階段DFD如圖10-5-3所示。AlexNet模型結(jié)構(gòu)(3)conv3階段DFD(dataflowdiagram)第三層輸入數(shù)據(jù)為第二層輸出的2組13×13×128的像素層;為便于后續(xù)處理,每幅像素層的左右兩邊和上下兩邊都要填充1個(gè)像素;2組像素層數(shù)據(jù)都被送至2個(gè)不同的GPU中進(jìn)行運(yùn)算。每個(gè)GPU中都有192個(gè)卷積核,每個(gè)卷積核的尺寸是3×3×256。因此,每個(gè)GPU中的卷積核都能對(duì)2組13×13×128的像素層的所有數(shù)據(jù)進(jìn)行卷積運(yùn)算。卷積核對(duì)每組數(shù)據(jù)的每次卷積都生成一個(gè)新的像素。卷積核沿像素層數(shù)據(jù)的x軸方向和y軸方向兩個(gè)方向移動(dòng),移動(dòng)的步長(zhǎng)是1個(gè)像素。因此,運(yùn)算后的卷積核的尺寸為(13-3+1×2)/1+1=13,每個(gè)GPU中共13×13×192個(gè)卷積核。2個(gè)GPU中共13×13×384個(gè)卷積后的像素層。這些像素層經(jīng)過relu3單元的處理,生成激活像素層,尺寸仍為2組13×13×192像素層,共13×13×384個(gè)像素層。conv2階段DFD如圖10-5-4所示。AlexNet模型結(jié)構(gòu)(4)conv4階段DFD(dataflowdiagram)第四層輸入數(shù)據(jù)為第三層輸出的2組13×13×192的像素層;為便于后續(xù)處理,每幅像素層的左右兩邊和上下兩邊都要填充1個(gè)像素;2組像素層數(shù)據(jù)都被送至2個(gè)不同的GPU中進(jìn)行運(yùn)算。每個(gè)GPU中都有192個(gè)卷積核,每個(gè)卷積核的尺寸是3×3×192。因此,每個(gè)GPU中的卷積核能對(duì)1組13×13×192的像素層的數(shù)據(jù)進(jìn)行卷積運(yùn)算。卷積核對(duì)每組數(shù)據(jù)的每次卷積都生成一個(gè)新的像素。卷積核沿像素層數(shù)據(jù)的x軸方向和y軸方向兩個(gè)方向移動(dòng),移動(dòng)的步長(zhǎng)是1個(gè)像素。因此,運(yùn)算后的卷積核的尺寸為(13-3+1×2)/1+1=13,每個(gè)GPU中共13×13×192個(gè)卷積核。2個(gè)GPU中共13×13×384個(gè)卷積后的像素層。這些像素層經(jīng)過relu4單元的處理,生成激活像素層,尺寸仍為2組13×13×192像素層,共13×13×384個(gè)像素層。conv4階段DFD如圖10-5-5所示。AlexNet模型結(jié)構(gòu)(5)conv5階段DFD(dataflowdiagram)第五層輸入數(shù)據(jù)為第四層輸出的2組13×13×192的像素層;為便于后續(xù)處理,每幅像素層的左右兩邊和上下兩邊都要填充1個(gè)像素;2組像素層數(shù)據(jù)都被送至2個(gè)不同的GPU中進(jìn)行運(yùn)算。每個(gè)GPU中都有128個(gè)卷積核,每個(gè)卷積核的尺寸是3×3×192。因此,每個(gè)GPU中的卷積核能對(duì)1組13×13×192的像素層的數(shù)據(jù)進(jìn)行卷積運(yùn)算。卷積核對(duì)每組數(shù)據(jù)的每次卷積都生成一個(gè)新的像素。卷積核沿像素層數(shù)據(jù)的x軸方向和y軸方向兩個(gè)方向移動(dòng),移動(dòng)的步長(zhǎng)是1個(gè)像素。因此,運(yùn)算后的卷積核的尺寸為(13-3+1×2)/1+1=13(13個(gè)像素減去3,正好是10,在加上上下、左右各填充的1個(gè)像素,即生成12個(gè)像素,再加上被減去的3也對(duì)應(yīng)生成一個(gè)像素),每個(gè)GPU中共13×13×128個(gè)卷積核。2個(gè)GPU中共13×13×256個(gè)卷積后的像素層。這些像素層經(jīng)過relu5單元的處理,生成激活像素層,尺寸仍為2組13×13×128像素層,共13×13×256個(gè)像素層。AlexNet模型結(jié)構(gòu)2組13×13×128像素層分別在2個(gè)不同GPU中進(jìn)行池化(pool)運(yùn)算處理。池化運(yùn)算的尺度為3×3,運(yùn)算的步長(zhǎng)為2,則池化后圖像的尺寸為(13-3)/2+1=6。即池化后像素的規(guī)模為兩組6×6×128的像素層數(shù)據(jù),共6×6×256規(guī)模的像素層數(shù)據(jù)。conv5階段DFD如圖10-5-6所示。AlexNet模型結(jié)構(gòu)(6)fc6階段DFD(dataflowdiagram)第六層輸入數(shù)據(jù)的尺寸是6×6×256,采用6×6×256尺寸的濾波器對(duì)第六層的輸入數(shù)據(jù)進(jìn)行卷積運(yùn)算;每個(gè)6×6×256尺寸的濾波器對(duì)第六層的輸入數(shù)據(jù)進(jìn)行卷積運(yùn)算生成一個(gè)運(yùn)算結(jié)果,通過一個(gè)神經(jīng)元輸出這個(gè)運(yùn)算結(jié)果;共有4096個(gè)6×6×256尺寸的濾波器對(duì)輸入數(shù)據(jù)進(jìn)行卷積運(yùn)算,通過4096個(gè)神經(jīng)元輸出運(yùn)算結(jié)果;這4096個(gè)運(yùn)算結(jié)果通過relu激活函數(shù)生成4096個(gè)值;并通過drop運(yùn)算后輸出4096個(gè)本層的輸出結(jié)果值。由于第六層的運(yùn)算過程中,采用的濾波器的尺寸(6×6×256)與待處理的featuremap的尺寸(6×6×256)相同,即濾波器中的每個(gè)系數(shù)只與featuremap中的一個(gè)像素值相乘;而其它卷積層中,每個(gè)濾波器的系數(shù)都會(huì)與多個(gè)featuremap中像素值相乘;因此,將第六層稱為全連接層。AlexNet模型結(jié)構(gòu)第五層輸出的6×6×256規(guī)模的像素層數(shù)據(jù)與第六層的4096個(gè)神經(jīng)元進(jìn)行全連接,然后經(jīng)由relu6進(jìn)行處理后生成4096個(gè)數(shù)據(jù),再經(jīng)過dropout6處理后輸出4096個(gè)數(shù)據(jù)。fc6階段DFD如圖10-5-7所示。AlexNet模型結(jié)構(gòu)(7)fc7階段DFD(dataflowdiagram)第六層輸出的4096個(gè)數(shù)據(jù)與第七層的4096個(gè)神經(jīng)元進(jìn)行全連接,然后經(jīng)由relu7進(jìn)行處理后生成4096個(gè)數(shù)據(jù),再經(jīng)過dropout7處理后輸出4096個(gè)數(shù)據(jù)。fc7階段DFD如圖10-5-8所示。AlexNet模型結(jié)構(gòu)(8)fc8階段DFD(dataflowdiagram)第七層輸出的4096個(gè)數(shù)據(jù)與第八層的1000個(gè)神經(jīng)元進(jìn)行全連接,經(jīng)過訓(xùn)練后輸出被訓(xùn)練的數(shù)值。fc8階段DFD如圖10-5-9所示。AlexNet模型結(jié)構(gòu)CONTENTS目錄AlexNet模型簡(jiǎn)介01AlexNet模型結(jié)構(gòu)02Tensorflow實(shí)現(xiàn)AlexNet03fromdatetimeimportdatetimeimportmathimporttimeimporttensorflowastfbatch_size=32num_batch=100defprint_activation(t):print(,'\n',t.get_shape().as_list())defAlexnet_structure(images):parameters=[]Tensorflow實(shí)現(xiàn)AlexNet
#定義第一層卷積層
with_scope('conv1')asscope:kernel=tf.Variable(pat.v1.truncated_normal([11,11,3,64],dtype=tf.float32,stddev=1e-1),name='weigths')conv=tf.nn.conv2d(images,kernel,[1,4,4,1],padding='SAME')biases=tf.Variable(tf.constant(0.0,shape=[64],dtype=tf.float32),trainable=True,name='biases')W_x_plus_b=tf.nn.bias_add(conv,biases)conv1=tf.nn.relu(W_x_plus_b,name=scope)print_activation(conv1)parameters+=[kernel,biases]pool1=tf.nn.max_pool(conv1,ksize=[1,3,3,1],strides=[1,2,2,1],padding='VALID',name='pool1')print_activation(pool1)Tensorflow實(shí)現(xiàn)AlexNet
#定義第二個(gè)網(wǎng)絡(luò)層
with_scope('conv2')asscope:kernel=tf.Variable(pat.v1.truncated_normal([5,5,64,192],dtype=tf.float32,stddev=1e-1),name='weigtths')conv=tf.nn.conv2d(pool1,kernel,[1,1,1,1],padding='SAME')biases=tf.Variable(tf.constant(0.0,shape=[192],dtype=tf.float32),trainable=True,name='biases')W_x_plus_b=tf.nn.bias_add(conv,biases)conv2=tf.nn.relu(W_x_plus_b,name=scope)parameters+=[kernel,biases]print_activation(conv2)pool2=tf.nn.max_pool(conv2,ksize=[1,3,3,1],strides=[1,2,2,1],padding='VALID',name='pool2')print_activation(pool2)Tensorflow實(shí)現(xiàn)AlexNet#定義第三層卷積層
with_scope('conv3')asscope:kernel=tf.Variable(pat.v1.truncated_normal([3,3,192,384],dtype=tf.float32,stddev=1e-1),name='weigtths')conv=tf.nn.conv2d(pool2,kernel,[1,1,1,1],padding='SAME')biases=tf.Variable(tf.constant(0.0,shape=[384],dtype=tf.float32),trainable=True,name='biases')W_x_plus_b=tf.nn.bias_add(conv,biases)conv3=tf.nn.relu(W_x_plus_b,name=scope)parameters+=[kernel,biases]print_activation(conv3)Tensorflow實(shí)現(xiàn)AlexNet#定義第四層卷積層
with_scope('conv4')asscope:kernel=tf.Variable(pat.v1.truncated_normal([3,3,384,256],dtype=tf.float32,stddev=1e-1),name='weigtths')conv=tf.nn.conv2d(conv3,kernel,[1,1,1,1],padding='SAME')biases=tf.Variable(tf.constant(0.0,shape=[256],dtype=tf.float32),trainable=True,name='biases')W_x_plus_b=tf.nn.bias_add(conv,biases)conv4=tf.nn.relu(W_x_plus_b,name=scope)parameters+=[kernel,biases]print_activation(conv4)Tensorflow實(shí)現(xiàn)AlexNet#定義第五層卷積層
with_scope('conv5')asscope:kernel=tf.Variable(pat.v1.truncated_normal([3,3,256,256],dtype=tf.float32,stddev=1e-1),name='weigtths')conv=tf.nn.conv2d(conv4,kernel,[1,1,1,1],padding='SAME')biases=tf.Variable(tf.constant(0.0,shape=[256],dtype=tf.float32),trainable=True,name='biases')W_x_plus_b=tf.nn.bias_add(conv,biases)conv5=tf.nn.relu(W_x_plus_b,name=scope)parameters+=[kernel,biases]print_activation(conv5)pool5=tf.nn.max_pool(conv5,ksize=[1,3,3,1],strides=[1,2,2,1],padding='VALID',name='pool5')print_activation(pool5)returnpool5,parametersTensorflow實(shí)現(xiàn)AlexNet#定義評(píng)估Alexnet每輪計(jì)算時(shí)間的函數(shù)deftime_Alexnet_run(session,target,info_string):num_steps_burn_in=10total_duration=0.0total_duration_squared=0.0foriinrange(num_batch+num_steps_burn_in):start_time=time.time()tar=session.run(target)duration=time.time()-start_timeifi>=num_steps_burn_in:ifnoti%10:print('%s:step%d,duration=%.3f'%(datetime.now(),i-num_steps_burn_in,duration))
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 2025年度農(nóng)業(yè)科技項(xiàng)目可行性研究合同
- 二零二五年度養(yǎng)老機(jī)構(gòu)聘用護(hù)工服務(wù)合同標(biāo)準(zhǔn)范本4篇
- 2025至2030年小兒七珍丹項(xiàng)目投資價(jià)值分析報(bào)告
- 2025至2030年剎車燈線項(xiàng)目投資價(jià)值分析報(bào)告
- 2025至2030年光面浸塑啞鈴項(xiàng)目投資價(jià)值分析報(bào)告
- 2025至2030年五味寶飲料項(xiàng)目投資價(jià)值分析報(bào)告
- 2025年中國(guó)多功能側(cè)掛式收割機(jī)市場(chǎng)調(diào)查研究報(bào)告
- 2025至2030年棕剛玉砂布項(xiàng)目投資價(jià)值分析報(bào)告
- 2025至2030年太陽帽圈項(xiàng)目投資價(jià)值分析報(bào)告
- 2025年全球及中國(guó)數(shù)字集中病人監(jiān)護(hù)系統(tǒng)行業(yè)頭部企業(yè)市場(chǎng)占有率及排名調(diào)研報(bào)告
- 2025年湖南高速鐵路職業(yè)技術(shù)學(xué)院高職單招高職單招英語2016-2024年參考題庫(kù)含答案解析
- 2025江蘇太倉(cāng)水務(wù)集團(tuán)招聘18人高頻重點(diǎn)提升(共500題)附帶答案詳解
- 2024-2025學(xué)年人教新版高二(上)英語寒假作業(yè)(五)
- 2025脫貧攻堅(jiān)工作計(jì)劃
- 借款人解除合同通知書(2024年版)
- 江蘇省泰州市靖江市2024屆九年級(jí)下學(xué)期中考一模數(shù)學(xué)試卷(含答案)
- 沐足店長(zhǎng)合同范例
- 上海高考英語詞匯手冊(cè)
- 2021年江蘇省淮安市淮陰中學(xué)高一政治下學(xué)期期末試題含解析
- 公共政策工具-課件
- 石油化工、煤化工、天然氣化工優(yōu)劣勢(shì)分析
評(píng)論
0/150
提交評(píng)論