![深度學(xué)習(xí)與卷積神經(jīng)網(wǎng)絡(luò)基礎(chǔ)理論與實(shí)例分析課件_第1頁](http://file4.renrendoc.com/view/bc11eeaff4acb70715a4225e7c9d0ae7/bc11eeaff4acb70715a4225e7c9d0ae71.gif)
![深度學(xué)習(xí)與卷積神經(jīng)網(wǎng)絡(luò)基礎(chǔ)理論與實(shí)例分析課件_第2頁](http://file4.renrendoc.com/view/bc11eeaff4acb70715a4225e7c9d0ae7/bc11eeaff4acb70715a4225e7c9d0ae72.gif)
![深度學(xué)習(xí)與卷積神經(jīng)網(wǎng)絡(luò)基礎(chǔ)理論與實(shí)例分析課件_第3頁](http://file4.renrendoc.com/view/bc11eeaff4acb70715a4225e7c9d0ae7/bc11eeaff4acb70715a4225e7c9d0ae73.gif)
![深度學(xué)習(xí)與卷積神經(jīng)網(wǎng)絡(luò)基礎(chǔ)理論與實(shí)例分析課件_第4頁](http://file4.renrendoc.com/view/bc11eeaff4acb70715a4225e7c9d0ae7/bc11eeaff4acb70715a4225e7c9d0ae74.gif)
![深度學(xué)習(xí)與卷積神經(jīng)網(wǎng)絡(luò)基礎(chǔ)理論與實(shí)例分析課件_第5頁](http://file4.renrendoc.com/view/bc11eeaff4acb70715a4225e7c9d0ae7/bc11eeaff4acb70715a4225e7c9d0ae75.gif)
版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
1、(最新整理)深度學(xué)習(xí)與卷積神經(jīng)網(wǎng)絡(luò)基礎(chǔ)理論與實(shí)例分析2021/7/261目 錄010203概述與背景人腦視覺機(jī)理與特征表示卷積神經(jīng)網(wǎng)絡(luò)04TensorFlow的相關(guān)介紹2021/7/2621.概述與背景1.1 人工智能、機(jī)器學(xué)習(xí)、深度學(xué)習(xí)、數(shù)據(jù)挖掘之間的關(guān)系人工智能機(jī)器學(xué)習(xí)深度學(xué)習(xí)數(shù)據(jù)挖掘2021/7/2631.概述與背景1.2 神經(jīng)網(wǎng)絡(luò)興衰史第一次興起(1958年):感知機(jī),由于沒有引入非線性,不能求解異或問題。第二次興起(1986年):將BP(Back Propagation)神經(jīng)網(wǎng)絡(luò)的提出。第三次興起(2012年):深度學(xué)習(xí)的興起,一直到現(xiàn)在。發(fā)展基礎(chǔ):數(shù)據(jù)爆炸:圖像數(shù)據(jù)、文本數(shù)據(jù)、語音
2、數(shù)據(jù)、社交網(wǎng)絡(luò)數(shù)據(jù)、科學(xué)計(jì)算等計(jì)算性能大幅提高2021/7/264目 錄020103人腦視覺機(jī)理與特征表示概述與背景卷積神經(jīng)網(wǎng)絡(luò)04TensorFlow的相關(guān)介紹2021/7/2652.人腦視覺機(jī)理與特征表示2.1 人腦視覺機(jī)理-大腦神經(jīng)元的信號傳輸神經(jīng)元樹突輸入神經(jīng)元接收信號隱含層輸入神經(jīng)元激活軸突發(fā)出信號隱含層輸出人工神經(jīng)網(wǎng)絡(luò)大腦神經(jīng)元信號傳輸?shù)哪M2021/7/2662.人腦視覺機(jī)理與特征表示2.1 人腦視覺機(jī)理-大腦識別物體過程從原始信號攝入開始(瞳孔攝入像素 Pixels);接著做初步處理(大腦皮層某些細(xì)胞發(fā)現(xiàn)邊緣和方向);然后抽象(大腦判定,眼前的物體的形狀);然后進(jìn)一步抽象(大腦
3、進(jìn)一步判定該物體)。Low-level sensingPreprocessingFeatureextractionFeatureselectionInference:prediction,recognition2021/7/2672.人腦視覺機(jī)理與特征表示2.2 特征表示手工地選取特征是一件非常費(fèi)力、啟發(fā)式(需要專業(yè)知識)的方法,而且它的調(diào)節(jié)需要大量的時(shí)間。既然手工選取特征不太好,那么能不能自動(dòng)地學(xué)習(xí)一些特征?學(xué)習(xí)出特征能否很好的表征目標(biāo)?2021/7/2682.人腦視覺機(jī)理與特征表示2.2 特征表示在不同對象上做訓(xùn)練時(shí),所得的邊緣基底 是非常相似的,但對象部分和模型 就會完全不同了。初級(淺
4、層)特征表示結(jié)構(gòu)性特征抽象層面越高,存在的可能猜測就越少,就越利于分類特征表示也可以分層2021/7/2692.人腦視覺機(jī)理與特征表示 神經(jīng)元的模型 分層處理信息 特征的分層表達(dá)2021/7/2610訓(xùn)練: during the training phase, a neural network is fed thousands of labeled images of various animals, learning to classify them 輸入: An unlabeled image is shown to the pre-trained networkFirst Layer:
5、the neurons respond to different simple shapes, like edgesHigh Layer: the neurons respond to more complex structuresTop Layer: the neurons respond to highly complex, abstract concepts that we would identify as different animals輸出: The network predicts what the object most likely is, based on its tra
6、ining2021/7/26112.人腦視覺機(jī)理與特征表示2.3淺層學(xué)習(xí)和深度學(xué)習(xí)深度學(xué)習(xí)的實(shí)質(zhì),是通過構(gòu)建具有很多隱層的機(jī)器學(xué)習(xí)模型和海量的訓(xùn)練數(shù)據(jù),來學(xué)習(xí)更有用的特征,從而最終提升分類或預(yù)測的準(zhǔn)確性。因此,“深度模型”是手段,“特征學(xué)習(xí)”是目的。區(qū)別于傳統(tǒng)的淺層學(xué)習(xí),深度學(xué)習(xí)的不同在于:1)強(qiáng)調(diào)了模型結(jié)構(gòu)的深度,通常有5層、6層,甚至幾十層的隱層節(jié)點(diǎn);2)明確突出了特征學(xué)習(xí)的重要性,也就是說,通過逐層特征變換,將樣本在原空間的特征表示變換到一個(gè)新特征空間,從而使分類或預(yù)測更加容易。這種分層結(jié)構(gòu),是比較接近人類大腦的結(jié)構(gòu)的。與人工規(guī)則構(gòu)造特征的方法相比,利用大數(shù)據(jù)來學(xué)習(xí)特征,更能夠刻畫數(shù)據(jù)的
7、豐富內(nèi)在信息。2021/7/2612目 錄030201概述與背景人腦視覺機(jī)理與特征表示卷積神經(jīng)網(wǎng)絡(luò)04TensorFlow的相關(guān)介紹2021/7/26133.卷積神經(jīng)網(wǎng)絡(luò)-CNNLeCun1998年,LeCun提出LeNet,并成功應(yīng)用于美國手寫數(shù)字識別。測試誤差小于1%。麻雀雖小,但五臟俱全,卷積層、pooling層、全連接層,這些都是現(xiàn)代CNN網(wǎng)絡(luò)的基本組件。卷積層-convolution池化層-pooling全連接層fully connected3.1 初探-LeNet框架2021/7/26143.卷積神經(jīng)網(wǎng)絡(luò)-CNN3.1 初探-完整的CNN把圖片分入四個(gè)類別:狗,貓,船,鳥當(dāng)獲得一張
8、船圖作為輸入的時(shí)候,網(wǎng)絡(luò)正確的給船的分類賦予了最高的概率(0.94)。輸出層的各個(gè)概率相加應(yīng)為1.卷積神經(jīng)網(wǎng)絡(luò)主要執(zhí)行了四個(gè)操作:卷積非線性(ReLU)池化或下采樣分類(全連接層)2021/7/26153.卷積神經(jīng)網(wǎng)絡(luò)-CNNCNN的應(yīng)用也很廣泛,其中包括圖像分類,目標(biāo)檢測,目標(biāo)識別,目標(biāo)跟蹤,文本檢測和識別以及位置估計(jì)等。3.1 初探-CNN結(jié)構(gòu)演變2021/7/26163.卷積神經(jīng)網(wǎng)絡(luò)-CNN如上圖是LeNet-5,它的第一個(gè)卷積層含有6的feature map,每一個(gè)feature map對應(yīng)一個(gè)卷積核,也就對應(yīng)提取了圖像的一種特征。這里注意最終的feature map并不是做完卷積后的
9、結(jié)果,然后還要加一個(gè)非線性激活的操作,一般用ReLU函數(shù),這個(gè)過程一般叫做detector stage。3.2 基本單元-卷積層2021/7/26173.卷積神經(jīng)網(wǎng)絡(luò)-CNN3.2 基本單元-卷積層深度(Depth) 深度就是卷積操作中用到的濾波器個(gè)數(shù)。這里對圖片用了兩個(gè)不同的濾波器,從而產(chǎn)生了兩個(gè)特征映射。你可以認(rèn)為這兩個(gè)特征映射也是堆疊的2d矩陣,所以這里特征映射的“深度”就是2。步幅(Stride)步幅是每次滑過的像素?cái)?shù)。當(dāng)Stride=2的時(shí)候每次就會滑過2個(gè)像素。步幅越大,特征映射越小。補(bǔ)零(Zero-padding)邊緣補(bǔ)零,對圖像矩陣的邊緣像素也施加濾波器。補(bǔ)零的好處是讓我們可以
10、控制特征映射的尺寸。補(bǔ)零也叫寬卷積,不補(bǔ)零就叫窄卷積。2021/7/26183.卷積神經(jīng)網(wǎng)絡(luò)-CNN3.2 基本單元-非線性(激勵(lì)層)Sigmoid梯度消失問題激活函數(shù)一般用于卷積層和全連接層之后激活函數(shù)是深度網(wǎng)絡(luò)非線性的主要來源ReLU解決梯度消失問題收斂速度非常快神經(jīng)元死亡問題2021/7/26193.卷積神經(jīng)網(wǎng)絡(luò)-CNN3.2 基本單元-池化層空間池化,也叫亞采樣或下采樣降低了每個(gè)特征映射的維度,但是保留了最重要的信息。空間池化可以有很多種形式:最大(Max),平均(Average),求和(Sum)等等。最大池化成效最好。池化層的功能減少網(wǎng)絡(luò)中的參數(shù)計(jì)算數(shù)量,從而遏制過擬合增強(qiáng)網(wǎng)絡(luò)對輸入
11、圖像中的小變形、扭曲、平移的魯棒性(輸入里的微小扭曲不會改變池化輸出因?yàn)槲覀冊诰植苦徲蛞呀?jīng)取了最大值/平均值)。幫助我們獲得不因尺寸而改變的等效圖片表征。這非常有用,因?yàn)檫@樣我們就可以探測到圖片里的物體,不論那個(gè)物體在哪。2021/7/26203.卷積神經(jīng)網(wǎng)絡(luò)-CNN3.2 基本單元-全連接層使用softmax激勵(lì)函數(shù)作為輸出層。全連接表示上一層的每一個(gè)神經(jīng)元,都和下一層的每一個(gè)神經(jīng)元是相互連接的。卷積層和池化層的輸出代表了輸入圖像的高級特征,全連接層的目的就是利用這些特征進(jìn)行分類。2021/7/26213.卷積神經(jīng)網(wǎng)絡(luò)-CNN3.3 前向傳播與反向傳播卷積+池化 = 特征提取器全連接層= 分
12、類器前向傳播反向傳播2021/7/26223.卷積神經(jīng)網(wǎng)絡(luò)-CNN3.3 前向傳播與反向傳播幾個(gè)人站成一排,第一個(gè)人看一幅畫(輸入數(shù)據(jù)),描述給第二個(gè)人(隱層)依此類推,到最后一個(gè)人(輸出)的時(shí)候,畫出來的畫肯定不能看了(誤差較大)。反向傳播就是,把畫拿給最后一個(gè)人看(求取誤差),然后最后一個(gè)人就會告訴前面的人下次描述時(shí)需要注意哪里(權(quán)值修正)。梯度下降法。2021/7/26233.卷積神經(jīng)網(wǎng)絡(luò)-CNN3.4 反向傳播訓(xùn)練Step 1: 用隨機(jī)數(shù)初始化所有的濾波器和參數(shù)/權(quán)重Step 2: 網(wǎng)絡(luò)將訓(xùn)練圖片作為輸入,執(zhí)行前向步驟(卷積,ReLU,池化以及全連接層的前向傳播)并計(jì)算每個(gè)類別的對應(yīng)輸
13、出概率。假設(shè)船圖的輸出概率是0.2, 0.4, 0.1, 0.3因?yàn)榈谝粋€(gè)訓(xùn)練樣本的權(quán)重都是隨機(jī)的,所以這個(gè)輸出概率也跟隨機(jī)的差不多Step 3: 計(jì)算輸出層的總誤差總誤差=1/2 (目標(biāo)概率輸出概率)2Step 4: 反向傳播算法計(jì)算誤差相對于所有權(quán)重的梯度,并用梯度下降法更新所有的濾波器/權(quán)重和參數(shù)的值,以使輸出誤差最小化。 其中wj是要更新的權(quán)重,稱為學(xué)習(xí)率,Etotal是總的誤差權(quán)重的調(diào)整程度與其對總誤差的貢獻(xiàn)成正比。如濾波器個(gè)數(shù)、濾波器尺寸、網(wǎng)絡(luò)架構(gòu)這些參數(shù),是在Step 1之前就已經(jīng)固定的,且不會在訓(xùn)練過程中改變只有濾波矩陣和神經(jīng)元權(quán)重會更新。2021/7/2624目 錄04020
14、3概述與背景人腦視覺機(jī)理與特征表示卷積神經(jīng)網(wǎng)絡(luò)01TensorFlow的相關(guān)介紹2021/7/26254.TensorFlow的相關(guān)介紹4.1 深度學(xué)習(xí)框架TensorFlow具有最高的關(guān)注度和評分。Caffe在目標(biāo)識別和目標(biāo)分割領(lǐng)域應(yīng)用最廣主流框架基本都支持Python2021/7/26264.TensorFlow的相關(guān)介紹4.1 深度學(xué)習(xí)框架庫名學(xué)習(xí)材料豐富程度CNN建模能力RNN建模能力易用程度運(yùn)行速度多GPU支持程度TensorFlowCaffeCNTKMXNetTorchTheanoNeon2021/7/26274.TensorFlow的相關(guān)介紹4.2 TensorFlow的安裝st
15、ep1. 系統(tǒng)要求: Linux(Ubuntu 14.04/16.04),Windows;step2. GPU驅(qū)動(dòng):在Linux系統(tǒng)最容易出現(xiàn)問題的地方;step3. CUDA:NVIDIA推出的通用并行計(jì)算架構(gòu)(cuDNN);step4. 安裝Python、依賴庫和TensorFlow: sudo pip install tensorflow-gpu。2021/7/26284.TensorFlow的相關(guān)介紹4.3 TensorFlow基礎(chǔ)TensorFlow的特點(diǎn): 將計(jì)算流程表示成圖; 通過Sessions來執(zhí)行圖計(jì)算; 將數(shù)據(jù)表示為tensors; 分別使用feeds和fetches來填
16、充數(shù)據(jù)和抓取任意的操作結(jié)果; 2021/7/26294.TensorFlow的相關(guān)介紹數(shù)據(jù)流圖是描述有向圖中的數(shù)值計(jì)算過程。有向圖中的節(jié)點(diǎn)通常代表數(shù)學(xué)運(yùn)算,但也可以表示數(shù)據(jù)的輸入、輸出和讀寫等操作;有向圖中的邊表示節(jié)點(diǎn)之間的某種聯(lián)系,它負(fù)責(zé)傳輸多維數(shù)據(jù)(Tensors)。圖中這些tensors的flow也就是TensorFlow的命名來源。一個(gè)Tensor是一個(gè)多維數(shù)組,例如,你可以將一批圖像表示為一個(gè)四維的數(shù)組batch, height, width, channels,數(shù)組中的值均為浮點(diǎn)數(shù)。 (第一維列,第二維行) 4.3 TensorFlow基礎(chǔ)-數(shù)據(jù)流圖例如:計(jì)算a=(b+c)(c+2
17、),我們可以將算式拆分成一下:d和e是不相關(guān)的,也就是可以并行計(jì)算。2021/7/26304.TensorFlow的相關(guān)介紹4.4 TensorFlow的基礎(chǔ)語法1. 定義數(shù)據(jù):2. 定義運(yùn)算(也稱TensorFlow operation):Tensorflow可以自動(dòng)進(jìn)行數(shù)據(jù)類型檢測,比如:賦值2.0就默認(rèn)為tf.float323. 定義初始化operation用Tensorflow計(jì)算a=(b+c)(c+2)2021/7/26314.TensorFlow的相關(guān)介紹用Tensorflow計(jì)算a=(b+c)(c+2)4.4 TensorFlow的基礎(chǔ)語法4. 執(zhí)行圖5. 站位符(placeho
18、lder)對上面例子的改進(jìn):使變量b可以接收任意值。TensorFlow中接收值的方式為占位符(placeholder),通過tf.placeholder()創(chuàng)建。需要在運(yùn)行過程中feed占位符b的值,具體為將a_out = sess.run(a)改為:2021/7/26324.TensorFlow的相關(guān)介紹4.5 TensorFlow-mnist識別實(shí)例模型圖當(dāng)使用tensorflow進(jìn)行數(shù)據(jù)流圖構(gòu)建時(shí),大致可以分為以下幾個(gè)部分: 1、加載數(shù)據(jù) 2、為 輸入X與 輸出y 定義placeholder;3、定義權(quán)重W;4、定義模型結(jié)構(gòu);5、定義損失函數(shù);6、定義優(yōu)化算法。2021/7/26334.TensorFlow的相關(guān)介紹4.5 TensorFlow-mnist識別實(shí)例1、 加載數(shù)據(jù)one_hot=True表示對label進(jìn)行one-hot編碼,比如標(biāo)簽4可以表示為0, 0, 0, 0, 1, 0, 0, 0, 0, 0。這是神經(jīng)網(wǎng)絡(luò)輸出層要求的格式。2、定義參數(shù)和placeholderNone, 784中的None表示任意值,特別對應(yīng)tensor數(shù)目2021/7/26344.TensorFlow的相關(guān)介紹4.5 TensorF
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 13《我能行》(說課稿)-2023-2024學(xué)年統(tǒng)編版道德與法治二年級下冊
- Unit 6 How do you feel Part B Read and Write(說課稿)-2024-2025學(xué)年人教PEP版英語六年級上冊
- 6《一封信》說課稿-2024-2025學(xué)年統(tǒng)編版語文二年級上冊
- 12 低碳生活每一天 第二課時(shí) 說課稿-2023-2024學(xué)年道德與法治四年級上冊統(tǒng)編版001
- 2025城市房屋拆遷安置補(bǔ)償合同
- 公司轉(zhuǎn)讓工程合同范本
- 6《探訪古代文明》說課稿-2023-2024學(xué)年道德與法治六年級下冊統(tǒng)編版
- 鋁合金踢腳線施工方案
- 項(xiàng)目租車方案
- 住建部 認(rèn)購合同范例
- Unit 6 Beautiful landscapes Integration說課稿 - 2024-2025學(xué)年譯林版英語七年級下冊
- 新版人教版七年級下冊數(shù)學(xué)全冊教案教學(xué)設(shè)計(jì)含教學(xué)反思
- 北京市東城區(qū)2023-2024學(xué)年高二下學(xué)期期末英語試題 含解析
- 中國食物成分表2020年權(quán)威完整改進(jìn)版
- 2024年金屬非金屬礦山(地下礦山)安全管理人員考試練習(xí)題(100題)附答案
- 快消品銷售團(tuán)隊(duì)薪酬方案
- 測繪學(xué)基礎(chǔ)知識單選題100道及答案解析
- 2024年國家焊工職業(yè)技能理論考試題庫(含答案)
- PDCA降低I類切口感染發(fā)生率
- 工業(yè)企業(yè)現(xiàn)場監(jiān)測工況核查表
- 沉淀池及排水溝清理記錄表
評論
0/150
提交評論