計(jì)算機(jī)視覺(jué)與應(yīng)用 課件 10.4 VGG16模型分解_第1頁(yè)
計(jì)算機(jī)視覺(jué)與應(yīng)用 課件 10.4 VGG16模型分解_第2頁(yè)
計(jì)算機(jī)視覺(jué)與應(yīng)用 課件 10.4 VGG16模型分解_第3頁(yè)
計(jì)算機(jī)視覺(jué)與應(yīng)用 課件 10.4 VGG16模型分解_第4頁(yè)
計(jì)算機(jī)視覺(jué)與應(yīng)用 課件 10.4 VGG16模型分解_第5頁(yè)
已閱讀5頁(yè),還剩15頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

10.4VGG16模型分解CONTENTS目錄VGG16模型簡(jiǎn)介01VGG16模型結(jié)構(gòu)02Tensorflow實(shí)現(xiàn)VGG1603CONTENTS目錄VGG16模型簡(jiǎn)介01VGG16模型結(jié)構(gòu)02Tensorflow實(shí)現(xiàn)VGG1603VGG是由Simonyan和Zisserman在文獻(xiàn)《VeryDeepConvolutionalNetworksforLargeScaleImageRecognition》中提出卷積神經(jīng)網(wǎng)絡(luò)模型,其名稱(chēng)來(lái)源于作者所在的牛津大學(xué)視覺(jué)幾何組(VisualGeometryGroup)的縮寫(xiě)。該模型參加2014年的ImageNet圖像分類(lèi)與定位挑戰(zhàn)賽,取得了優(yōu)異成績(jī):在分類(lèi)任務(wù)上排名第二,在定位任務(wù)上排名第一。模型可以達(dá)到92.7%的測(cè)試準(zhǔn)確度,在ImageNet的前5位。它的數(shù)據(jù)集包括1400萬(wàn)張圖像,1000個(gè)類(lèi)別。VGG16模型簡(jiǎn)介CONTENTS目錄VGG16模型簡(jiǎn)介01VGG16模型結(jié)構(gòu)02Tensorflow實(shí)現(xiàn)VGG1603VGG16深度卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)VGG16模型結(jié)構(gòu)上圖中,每一列對(duì)應(yīng)一種結(jié)構(gòu)配置。例如,圖中綠色部分即指明了VGG16所采用的結(jié)構(gòu)。VGG16共包含:13個(gè)卷積層(ConvolutionalLayer),分別用conv3-XXX表示3個(gè)全連接層(FullyconnectedLayer),分別用FC-XXXX表示5個(gè)池化層(Poollayer),分別用maxpool表示其中,卷積層和全連接層具有權(quán)重系數(shù),因此也被稱(chēng)為權(quán)重層,總數(shù)目為13+3=16,這即是VGG16中16的來(lái)源。(池化層不涉及權(quán)重,因此不屬于權(quán)重層,不被計(jì)數(shù))。VGG16模型結(jié)構(gòu)按照塊劃分的VGG16結(jié)構(gòu)圖VGG16模型結(jié)構(gòu)CONTENTS目錄VGG16模型簡(jiǎn)介01VGG16模型結(jié)構(gòu)02Tensorflow實(shí)現(xiàn)VGG1603(1)構(gòu)建VGG的16層網(wǎng)絡(luò)(包含5段(2+2+3+3+3=13)卷積,3層全連接)1)構(gòu)建2個(gè)卷積層+最大池化層self.conv1_1=self.conv_layer(bgr,"conv1_1")self.conv1_2=self.conv_layer(self.conv1_1,"conv1_2")self.pool1=self.max_pool_2x2(self.conv1_2,"pool1")2)構(gòu)建2個(gè)卷積層+最大池化層self.conv2_1=self.conv_layer(self.pool1,"conv2_1")self.conv2_2=self.conv_layer(self.conv2_1,"conv2_2")self.pool2=self.max_pool_2x2(self.conv2_2,"pool2")Tensorflow實(shí)現(xiàn)VGG163)構(gòu)建3個(gè)卷積層+最大池化層self.conv3_1=self.conv_layer(self.pool2,"conv3_1")self.conv3_2=self.conv_layer(self.conv3_1,"conv3_2")self.conv3_3=self.conv_layer(self.conv3_2,"conv3_3")self.pool3=self.max_pool_2x2(self.conv3_3,"pool3")4)構(gòu)建3個(gè)卷積層+最大池化層self.conv4_1=self.conv_layer(self.pool3,"conv4_1")self.conv4_2=self.conv_layer(self.conv4_1,"conv4_2")self.conv4_3=self.conv_layer(self.conv4_2,"conv4_3")self.pool4=self.max_pool_2x2(self.conv4_3,"pool4")Tensorflow實(shí)現(xiàn)VGG165)構(gòu)建3個(gè)卷積層+最大池化層self.conv5_1=self.conv_layer(self.pool4,"conv5_1")self.conv5_2=self.conv_layer(self.conv5_1,"conv5_2")self.conv5_3=self.conv_layer(self.conv5_2,"conv5_3")self.pool5=self.max_pool_2x2(self.conv5_3,"pool5")Tensorflow實(shí)現(xiàn)VGG166)構(gòu)建3層全連接層self.fc6=self.fc_layer(self.pool5,"fc6")assertself.fc6.get_shape().as_list()[1:]==[4096]self.relu6=tf.nn.relu(self.fc6)self.fc7=self.fc_layer(self.relu6,"fc7")self.relu7=tf.nn.relu(self.fc7)self.fc8=self.fc_layer(self.relu7,"fc8")Tensorflow實(shí)現(xiàn)VGG167)實(shí)現(xiàn)Softmax分類(lèi),輸出類(lèi)別的概率b=tf.nn.softmax(self.fc8,name="prob")end_time=time.time()print(("forwardtimeconsuming:%f"%(end_time-start_time)))self.data_dict=NoneTensorflow實(shí)現(xiàn)VGG16(2)定義卷積運(yùn)算defconv_layer(self,x,name):withtf.variable_scope(name):w=self.get_conv_filter(name)conv=tf.nn.conv2d(x,w,[1,1,1,1],padding='SAME')conv_biases=self.get_bias(name)result=tf.nn.relu(tf.nn.bias_add(conv,conv_biases))returnresultTensorflow實(shí)現(xiàn)VGG16(3)定義獲取卷積核大小的函數(shù)defget_conv_filter(self,name):returntf.constant(self.data_dict[name][0],name="filter")(4)定義獲取偏置的函數(shù)defget_bias(self,name):returntf.constant(self.data_dict[name][1],name="biases")Tensorflow實(shí)現(xiàn)VGG16(5)定義2x2最大池化操作defmax_pool_2x2(self,x,name):returntf.nn.max_pool(x,ksize=[1,2,2,1],strides=[1,2,2,1],padding='SAME',name=name)Tensorflow實(shí)現(xiàn)VGG16(6)定義全連接層的前向傳播計(jì)算deffc_layer(self,x,name):withtf.variable_scope(name):shape=x.get_shape().as_list()print("fc_layershape:",shape)dim=1foriinshape[1:]:dim*=ix=tf.reshape(x,[-1,dim])w=self.get_fc_weight(name)b=self.get_bias(name)result=tf.nn.bias_add(tf.matmu

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論