AI06人工神經(jīng)網(wǎng)絡與深度學習_第1頁
AI06人工神經(jīng)網(wǎng)絡與深度學習_第2頁
AI06人工神經(jīng)網(wǎng)絡與深度學習_第3頁
AI06人工神經(jīng)網(wǎng)絡與深度學習_第4頁
AI06人工神經(jīng)網(wǎng)絡與深度學習_第5頁
已閱讀5頁,還剩80頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領

文檔簡介

人工智能導論

Introduction

toArtificialIntelligence

第六章史忠植

中國科學院計算技術(shù)研究所/2023/10/20史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習1人工神經(jīng)網(wǎng)絡與深度學習ArtificialNeuralNetworksandDeepLearning2023/10/20史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習2內(nèi)容提要6.1概述

6.2前饋神經(jīng)網(wǎng)絡

6.3 深度學習6.4卷積神經(jīng)網(wǎng)絡

6.5 生成對抗網(wǎng)絡6.6 深度強化學習6.7 小結(jié)

2023/10/203神經(jīng)網(wǎng)絡神經(jīng)網(wǎng)絡(neuralnetworks,NN),也稱作人工神經(jīng)網(wǎng)絡(artificialneuralnetworks,ANN),或神經(jīng)計算(neuralcomputing,NC),是對人腦或生物神經(jīng)網(wǎng)絡的抽象和建模,具有從環(huán)境學習的能力,以類似生物的交互方式適應環(huán)境。神經(jīng)網(wǎng)絡是智能科學和計算智能的重要部分,以腦科學和認知神經(jīng)科學的研究成果為基礎,拓展智能信息處理的方法,為解決復雜問題和自動控制提供有效的途徑。一個神經(jīng)網(wǎng)絡是由簡單處理元構(gòu)成的規(guī)模宏大的并行分布處理器。天然具有存儲經(jīng)驗知識和使之可用的特性。史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習2023/10/204發(fā)展歷史

萌芽期(20世紀40年代)人工神經(jīng)網(wǎng)絡的研究最早可以追溯到人類開始研究自己的智能的時期,到1949年止。

1943年,心理學家McCulloch和數(shù)學家Pitts建立起了著名的閾值加權(quán)和模型,簡稱為M-P模型。發(fā)表于數(shù)學生物物理學會刊《BulletinofMethematicalBiophysics》

1949年,心理學家D.O.Hebb提出神經(jīng)元之間突觸聯(lián)系是可變的假說——Hebb學習律。史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習2023/10/205發(fā)展歷史第一高潮期(1950~1968)

以MarvinMinsky,F(xiàn)rankRosenblatt,BernardWidrow等為代表人物,代表作是單級感知器(Perceptron)。

可用電子線路模擬。

人們樂觀地認為幾乎已經(jīng)找到了智能的關(guān)鍵。許多部門都開始大批地投入此項研究,希望盡快占領制高點。史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習2023/10/206發(fā)展歷史反思期(1969~1982)

M.L.Minsky和S.Papert,《Perceptron》,MITPress,1969年

異或”運算不可表示

二十世紀70年代和80年代早期的研究結(jié)果史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習2023/10/207發(fā)展歷史第二高潮期(1983~1990)

1982年,J.Hopfield提出Hopfield網(wǎng)絡用Lyapunov函數(shù)作為網(wǎng)絡性能判定的能量函數(shù),建立ANN穩(wěn)定性的判別依據(jù)闡明了ANN與動力學的關(guān)系用非線性動力學的方法來研究ANN的特性指出信息被存放在網(wǎng)絡中神經(jīng)元的聯(lián)接上史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習2023/10/208發(fā)展歷史第二高潮期(1983~1990)

1984年,J.Hopfield設計研制了后來被人們稱為Hopfield網(wǎng)-Tank電路。較好地解決了著名的TSP問題,找到了最佳解的近似解,引起了較大的轟動。

1985年,UCSD的Hinton、Sejnowsky、Rumelhart等人所在的并行分布處理(PDP)小組的研究者在Hopfield網(wǎng)絡中引入了隨機機制,提出所謂的Boltzmann機。史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習2023/10/209發(fā)展歷史

1986年,并行分布處理小組的Rumelhart等研究者重新獨立地提出多層網(wǎng)絡的學習算法——BP算法,較好地解決了多層網(wǎng)絡的學習問題。(Paker1982和Werbos1974年)

自適應共振理論(ART)

自組織特征映射理論史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習2023/10/2010發(fā)展歷史

Hinton等人最近提出了Helmboltz機

徐雷提出的Ying-Yang機理論模型

甘利俊一(S.Amari)開創(chuàng)和發(fā)展的基于統(tǒng)計流形的方法應用于人工神經(jīng)網(wǎng)絡的研究,國內(nèi)首屆神經(jīng)網(wǎng)絡大會是1990年12月在北京舉行的。史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習2023/10/2011神經(jīng)信息處理的基本原理神經(jīng)網(wǎng)絡是由大量處理單元組成的非線性大規(guī)模自適應動力系統(tǒng)。它是在現(xiàn)代神經(jīng)科學研究成果的基礎上提出的,試圖通過模擬大腦神經(jīng)網(wǎng)絡處理、記憶信息的方式設計一種新的機器使之具有人腦那樣的信息處理能力。同時,對這種神經(jīng)網(wǎng)絡的研究將進一步加深對思維及智能的認識。史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習2023/10/2012并行分布式理論框架

1986年,美國加州大學圣地亞哥分校(UCSD)Rumellhart,McClelland,Hinton:

ParallelandDistributedProcessing,MITPress,Cambridge史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習2023/10/2013并行分布式理論框架PDP模型1)

一組處理單元(PE或AN)2)

處理單元的激活狀態(tài)(ai)3)

每個處理單元的輸出函數(shù)(fi)4)

處理單元之間的連接模式5)

傳遞規(guī)則(∑wijoi)6)

把處理單元的輸入及當前狀態(tài)結(jié)合起來產(chǎn)生激

活值的激活規(guī)則(Fi)7)

通過經(jīng)驗修改連接強度的學習規(guī)則8)

系統(tǒng)運行的環(huán)境(樣本集合)史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習2023/10/20史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習14內(nèi)容提要6.1概述

6.2前饋神經(jīng)網(wǎng)絡

6.3 深度學習6.4卷積神經(jīng)網(wǎng)絡

6.5 生成對抗網(wǎng)絡6.6 深度強化學習6.7 小結(jié)

2023/10/2015一般的前饋網(wǎng)絡包括一個輸入層和一個輸出層,若干隱單元。隱單元可以分層也可以不分層,若分層,則稱為多層前饋網(wǎng)絡。網(wǎng)絡的輸入、輸出神經(jīng)元其激活函數(shù)一般取為線性函數(shù),而隱單元則為非線性函數(shù)。單層感知器模型。前饋網(wǎng)絡的輸入單元從外部環(huán)境中接受信號,經(jīng)處理將輸出信號加權(quán)后傳給其投射域中的神經(jīng)元,網(wǎng)絡中的隱含單元或輸出單元

從其接受域中接受凈輸入(其中

表示單元

的輸出),然后向它的投射域

發(fā)送輸出信號

可以為任意的可微函數(shù),一般常用的為

前饋神經(jīng)網(wǎng)絡史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習2023/10/2016感知機神經(jīng)網(wǎng)絡的基本處理單元為人工神經(jīng)元,在1943年,麥克洛奇和皮茲定義了在簡單的人工神經(jīng)元模型,稱為M-P模型。它的一般模型可以用下圖描述:史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習17神經(jīng)元單元由多個輸入xi,i=1,2,...,n和一個輸出y組成。中間狀態(tài)由輸入信號的權(quán)和表示,而輸出為

式中,

j為神經(jīng)元單元的偏置(閾值),wji為連接權(quán)系數(shù)。n為輸入信號數(shù)目,yj為神經(jīng)元輸出,t為時間,f()為輸出變換函數(shù)。神經(jīng)元模型2023/10/20史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習18(a)xf(x)1x00(c)xf(x)1-1

(b)f(x)x1

0神經(jīng)元激勵函數(shù)(a)二值函數(shù)(b)S形函數(shù)(c)雙曲正切函數(shù)2023/10/20史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習2023/10/2019凈輸入:輸出:ojx1-1xn…單層感知機史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習2023/10/2020單層感知機模型前饋神經(jīng)網(wǎng)絡j=1,2,…,m

史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習2023/10/20感知機的功能(1)設輸入向量X=(x1,x2)T輸出:則由方程w1jx1+w2jx2-Tj=0

確定了二維平面上的一條分界線。單層感知機史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習212023/10/2022感知機的功能單層感知機史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習2023/10/2023感知機的功能(2)設輸入向量X=(x1,x2,x3)T輸出:則由方程w1jx1+w2jx2+w3j

x3–Tj=0確定了三維空間上的一個分界平面。單層感知機史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習2023/10/2024感知機的功能單層感知機史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習2023/10/2025多層感知機x1o1輸出層隱藏層輸入層x2o2omxn…………………W(1)W(2)W(3)W(L)網(wǎng)絡的拓撲結(jié)構(gòu)史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習2023/10/2026雙層感知器“異或”問題分類用兩計算層感知器解決“異或”問題?!爱惢颉钡恼嬷当韝1x2y1y2o001011100111多層感知機史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習2023/10/2027雙層感知器“異或”問題分類用兩計算層感知器解決“異或”問題。“異或”的真值表多層感知機x1x2y1y2o001010101111史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習2023/10/2028雙層感知器“異或”問題分類用兩計算層感知器解決“異或”問題。“異或”的真值表多層感知機x1x2y1y2o0011011010011111史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習2023/10/2029雙層感知器“異或”問題分類用兩計算層感知器解決“異或”問題。“異或”的真值表多層感知機x1x2y1y2o00110011011001111110史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習2023/10/2030具有不同隱層數(shù)的感知器的分類能力對比多層感知機史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習2023/10/2031基于BP算法的多層前饋網(wǎng)絡模型誤差反向傳播(BP)網(wǎng)路史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習2023/10/2032基于BP算法的多層前饋網(wǎng)絡模型輸入向量:

X=(x1,x2,…,xi,…,xn)T隱層輸出向量:

Y=(y1,y2,…,yj,…,ym)T輸出層輸出向量:

O=(o1,o2,…,ok,…,ol)T期望輸出向量:d=(d1,d2,…,dk,…,dl)T輸入層到隱層之間的權(quán)值矩陣:V=(V1,V2,…,Vj,…,Vm)隱層到輸出層之間的權(quán)值矩陣:W=(W1,W2,…,Wk,…,Wl)誤差反向傳播(BP)網(wǎng)路史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習2023/10/2033基于BP算法的多層前饋網(wǎng)絡模型對于輸出層:k=1,2,…,lk=1,2,…,l對于隱層:j=1,2,…,mj=1,2,…,m誤差反向傳播(BP)網(wǎng)路史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習2023/10/2034基于BP算法的多層前饋網(wǎng)絡模型雙極性Sigmoid函數(shù):單極性Sigmoid函數(shù):誤差反向傳播(BP)網(wǎng)路史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習2023/10/2035網(wǎng)絡誤差定義與權(quán)值調(diào)整思路輸出誤差E定義:將以上誤差定義式展開至隱層:BP學習算法史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習2023/10/2036網(wǎng)絡誤差與權(quán)值調(diào)整進一步展開至輸入層:BP學習算法史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習2023/10/2037BP學習算法j=0,1,2,…,m;k=1,2,…,li=0,1,2,…,n;j=1,2,…,m式中負號表示梯度下降,常數(shù)η∈(0,1)表示比例系數(shù)。在全部推導過程中,對輸出層有j=0,1,2,…,m;k=1,2,…,l對隱層有i=0,1,2,…,n;j=1,2,…,mBP學習算法史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習2023/10/2038對于輸出層,式(3.4.9a)可寫為對隱層,式(3.4.9b)可寫為對輸出層和隱層各定義一個誤差信號,令

(3.4.11a)yjxiBP算法推導史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習2023/10/2039(1)初始化;

(4)計算各層誤差信號;

(5)調(diào)整各層權(quán)值;

(6)檢查是否對所有樣本完成一次輪訓;(7)檢查網(wǎng)絡總誤差是否達到精度要求。(2)輸入訓練樣本對X

Xp、d

dp計算各層輸出;(3)計算網(wǎng)絡輸出誤差;BP算法的程序?qū)崿F(xiàn)史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習2023/10/2040然后根據(jù)總誤差計算各層的誤差信號并調(diào)整權(quán)值。

另一種方法是在所有樣本輸入之后,計算網(wǎng)絡的總誤差:BP算法的程序?qū)崿F(xiàn)史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習41該醫(yī)療診斷系統(tǒng)只考慮6種癥狀、2種疾病、3種治療方案癥狀:對每一癥狀采集三種信息—有(1)、無(-1)、沒有記錄(0)疾?。簩γ恳患膊〔杉N信息—有(1)、無(-1)、沒有記錄(0)治療方案:對每一治療方案采集兩種信息—是、否每個病人的信息構(gòu)成一個訓練樣例,用一批訓練樣例對網(wǎng)絡進行訓練(BP算法),假設得到的是如圖所示的神經(jīng)網(wǎng)絡x1-x6為癥狀(輸入)x7,x8為疾病名x9,x10,x11為治療方案(輸出)基于BP網(wǎng)絡的醫(yī)療診斷系統(tǒng)2023/10/20史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習42基于BP網(wǎng)絡的醫(yī)療診斷系統(tǒng)2023/10/20史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習2023/10/2043標準的BP算法在應用中暴露出不少內(nèi)在的缺陷:⑴

易形成局部極小而得不到全局最優(yōu);⑵訓練次數(shù)多使得學習效率低,收斂速度慢;⑶隱節(jié)點的選取缺乏理論指導;⑷訓練時學習新樣本有遺忘舊樣本的趨勢。針對上述問題,國內(nèi)外已提出不少有效的改進算法,下面僅介紹其中3種較常用的方法。BP算法的改進史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習2023/10/20441增加動量項α為動量系數(shù),一般有α∈(0,1)2自適應調(diào)節(jié)學習率

設一初始學習率,若經(jīng)過一批次權(quán)值調(diào)整后使總誤差↑,則本次調(diào)整無效,且

(β<1);若經(jīng)過一批次權(quán)值調(diào)整后使總誤差↓,則本次調(diào)整有效,且

(θ>1)。標準BP算法的改進史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習2023/10/20453引入陡度因子

實現(xiàn)這一思路的具體作法是,在原轉(zhuǎn)移函數(shù)中引入一個陡度因子λ標準BP算法的改進史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習2023/10/20史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習46內(nèi)容提要6.1概述

6.2前饋神經(jīng)網(wǎng)絡

6.3 深度學習6.4卷積神經(jīng)網(wǎng)絡

6.5 生成對抗網(wǎng)絡6.6 深度強化學習6.7 小結(jié)

定義1:是一類機器學習技術(shù),利用多層次的非線性信息處理的監(jiān)督或無監(jiān)督的特征提取和轉(zhuǎn)換,并進行模式分析和分類。定義2:機器學習中的子領域,基于學習算法對數(shù)據(jù)之間的多層次復雜關(guān)系建模。更高層次的特征和概念由較低層次定義,這種分層特征被稱為深度架構(gòu)。這些模型大多是基于無監(jiān)督學習?!埃ňS基百科上的”深度學習“2012年3月)。定義3:“深度學習是機器學習研究的一個新領域,它已經(jīng)推出了與移動機器學習更接近的目標。深度學習是學習多層次的表示和抽象,有助于得到圖像、聲音和文字數(shù)據(jù)的語義。“見/lisa-lab/DeepLearningTutorials深度學習2023/10/2047史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習深度學習2023/10/20史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習482006年,Hinton和他的學生Salakhutdinov在《科學》上發(fā)表了一篇文章,開啟了深度學習在學術(shù)界和工業(yè)界的浪潮50428JULY2006VOL313SCIENCEReducingtheDimensionalityofDatawithNeuralNetworksG.E.Hinton*andR.R.SalakhutdinovHigh-dimensionaldatacanbeconvertedtolow-dimensionalcodesbytrainingamultilayerneuralnetworkwithasmallcentrallayertoreconstructhigh-dimensionalinputvectors.Gradientdescentcanbeusedforfine-tuningtheweightsinsuch‘‘a(chǎn)utoencoder’’networks,butthisworkswellonlyiftheinitialweightsareclosetoagoodsolution.Wedescribeaneffectivewayofinitializingtheweightsthatallowsdeepautoencodernetworkstolearnlow-dimensionalcodesthatworkmuchbetterthanprincipalcomponentsanalysisasatooltoreducethedimensionalityofdata.人腦視覺機理2023/10/2049史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習視覺通路2023/10/2050史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習視覺從V1到IT四層2023/10/2051史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習posteriorinferotemporalcentralinferotemporalanteriorinferotemporal前顳葉皮層中顳葉皮層后顳葉皮層自編碼神經(jīng)網(wǎng)絡2023/10/20史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習52自編碼神經(jīng)網(wǎng)絡受限玻爾茲曼機受限玻耳茲曼機(restrictedBoltzmannmachine,RBM)是一個單層的隨機神經(jīng)網(wǎng)絡(通常我們不把輸入層計算在神經(jīng)網(wǎng)絡的層數(shù)里),本質(zhì)上是一個概率圖模型。輸入層與隱層之間是全連接,但層內(nèi)神經(jīng)元之間沒有相互連接。每個神經(jīng)元要么激活(值為1)要么不激活(值為0),激活的概率滿足sigmoid函數(shù)。hiddenijvisible2023/10/2053史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習深度信念網(wǎng)絡2006年,欣頓等提出了一種深度信念網(wǎng)絡(deepbeliefnets,DBN。一個深度神經(jīng)網(wǎng)絡模型可被視為由若干個RBM堆疊在一起,這樣一來,在訓練的時候,就可以通過由低到高逐層訓練這些RBM來實現(xiàn)。2023/10/2054史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習深度信念網(wǎng)絡2023/10/2055史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習2023/10/20史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習56內(nèi)容提要6.1概述

6.2前饋神經(jīng)網(wǎng)絡

6.3 深度學習6.4卷積神經(jīng)網(wǎng)絡

6.5 生成對抗網(wǎng)絡6.6 深度強化學習6.7 小結(jié)

卷積神經(jīng)網(wǎng)絡卷積神經(jīng)網(wǎng)絡是人工神經(jīng)網(wǎng)絡的一種,已成為當前語音分析和圖像識別領域的研究熱點。它的權(quán)值共享網(wǎng)絡結(jié)構(gòu)使之更類似于生物神經(jīng)網(wǎng)絡,降低了網(wǎng)絡模型的復雜度,減少了權(quán)值的數(shù)量。該優(yōu)點在網(wǎng)絡的輸入是多維圖像時表現(xiàn)的更為明顯,使圖像可以直接作為網(wǎng)絡的輸入,避免了傳統(tǒng)識別算法中復雜的特征提取和數(shù)據(jù)重建過程。卷積網(wǎng)絡是為識別二維形狀而特殊設計的一個多層感知器,這種網(wǎng)絡結(jié)構(gòu)對平移、比例縮放、傾斜或者共他形式的變形具有高度不變性。2023/10/20史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習57卷積神經(jīng)網(wǎng)絡卷積神經(jīng)網(wǎng)絡的網(wǎng)絡結(jié)構(gòu)卷積神經(jīng)網(wǎng)絡是一個多層的神經(jīng)網(wǎng)絡,每層由多個二維平面組成,而每個平面由多個獨立神經(jīng)元組成。輸入圖像通過和三個可訓練的濾波器和可加偏置進行卷積,卷積后在C1層產(chǎn)生三個特征映射圖,然后特征映射圖中每組的四個像素再進行求和,加權(quán)值,加偏置,得到三個S2層的特征映射圖。這些映射圖再進過濾波得到C3層。這個層級結(jié)構(gòu)再和S2一樣產(chǎn)生S4。最終,這些像素值被光柵化,并連接成一個向量輸入到傳統(tǒng)的神經(jīng)網(wǎng)絡,得到輸出。2023/10/20史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習58卷積神經(jīng)網(wǎng)絡C層為特征提取層,每個神經(jīng)元的輸入與前一層的局部感受野相連,并提取該局部的特征;S層是特征映射層,網(wǎng)絡的每個計算層由多個特征映射組成,每個特征映射為一個平面,平面上所有神經(jīng)元的權(quán)值相等。

卷積神經(jīng)網(wǎng)絡中的每一個特征提取層(C-層)都緊跟著一個用來求局部平均與二次提取的計算層(S-層),這種特有的兩次特征提取結(jié)構(gòu)使網(wǎng)絡在識別時對輸入樣本有較高的畸變?nèi)萑棠芰Α?023/10/20史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習59典型實例

一種典型的用來識別數(shù)字的卷積網(wǎng)絡是LeNet-5。當年美國大多數(shù)銀行就是用它來識別支票上面的手寫數(shù)字的。能夠達到這種商用的地步,它的準確性可想而知。2023/10/20史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習60典型實例

LeNet-5共有7層,不包含輸入,每層都包含可訓練參數(shù)(連接權(quán)重)。輸入圖像為32*32大小。這樣做的原因是希望潛在的明顯特征如筆畫斷電或角點能夠出現(xiàn)在最高層特征監(jiān)測子感受野的中心。

2023/10/20史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習61典型實例

C1層是一個卷積層(通過卷積運算,可以使原信號特征增強,并且降低噪音),由6個特征圖FeatureMap構(gòu)成。特征圖中每個神經(jīng)元與輸入中5*5的鄰域相連。特征圖的大小為28*28,這樣能防止輸入的連接掉到邊界之外。C1有156個可訓練參數(shù)(每個濾波器5*5=25個unit參數(shù)和一個bias參數(shù),一共6個濾波器,共(5*5+1)*6=156個參數(shù)),共156*(28*28)=122,304個連接。2023/10/20史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習62典型實例

S2層是一個下采樣層(對圖像進行子抽樣,可以減少數(shù)據(jù)處理量同時保留有用信息),有6個14*14的特征圖。特征圖中的每個單元與C1中相對應特征圖的2*2鄰域相連接。S2層每個單元的4個輸入相加,乘以一個可訓練參數(shù),再加上一個可訓練偏置。每個單元的2*2感受野并不重疊,因此S2中每個特征圖的大小是C1中特征圖大小的1/4(行和列各1/2)。S2層有(6*(1+1))12個可訓練參數(shù)和5880個連接。2023/10/20史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習63典型實例C3層也是一個卷積層,它同樣通過5x5的卷積核去卷積層S2,然后得到的特征map就只有10x10個神經(jīng)元,但是它有16種不同的卷積核,所以就存在16個特征map了。這里需要注意的一點是:C3中的每個特征map是連接到S2中的所有6個或者幾個特征map的,表示本層的特征map是上一層提取到的特征map的不同組合(這個做法也并不是唯一的)。(看到?jīng)]有,這里是組合,就像之前聊到的人的視覺系統(tǒng)一樣,底層的結(jié)構(gòu)構(gòu)成上層更抽象的結(jié)構(gòu),例如邊緣構(gòu)成形狀或者目標的部分)。2023/10/20史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習64典型實例

剛才說C3中每個特征圖由S2中所有6個或者幾個特征map組合而成。為什么不把S2中的每個特征圖連接到每個C3的特征圖呢?原因有2點。第一,不完全的連接機制將連接的數(shù)量保持在合理的范圍內(nèi)。第二,也是最重要的,使不同的特征圖有不同的輸入,迫使他們抽取不同的特征(希望是互補的)。例如,存在的一個方式是:C3的前6個特征圖以S2中3個相鄰的特征圖子集為輸入。接下來6個特征圖以S2中4個相鄰特征圖子集為輸入。然后的3個以不相鄰的4個特征圖子集為輸入。最后一個將S2中所有特征圖為輸入。這樣C3層有1516個可訓練參數(shù)和151600個連接。2023/10/20史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習65典型實例

S4層是一個下采樣層,由16個5*5大小的特征圖構(gòu)成。特征圖中的每個單元與C3中相應特征圖的2*2鄰域相連接,跟C1和S2之間的連接一樣。S4層有32(16*(1+1))個可訓練參數(shù)(每個特征圖1個因子和一個偏置)和2000個連接。

C5層是一個卷積層,有120個特征圖。每個單元與S4層的全部16個單元的5*5鄰域相連。由于S4層特征圖的大小也為5*5(同濾波器一樣),故C5特征圖的大小為1*1:這構(gòu)成了S4和C5之間的全連接。C5層有48120(120*401(16*5*5+1))個可訓練連接。

F6層有84個單元(之所以選這個數(shù)字的原因來自于輸出層的設計),與C5層全相連。有10164(84*121(120+1))個可訓練參數(shù)。如同經(jīng)典神經(jīng)網(wǎng)絡,F(xiàn)6層計算輸入向量和權(quán)重向量之間的點積,再加上一個偏置。然后將其傳遞給sigmoid函數(shù)產(chǎn)生單元i的一個狀態(tài)。2023/10/20史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習66典型實例輸出層由歐式徑向基函數(shù)(EuclideanRadialBasisFunction)(徑向基函數(shù)是一個取值僅僅依賴于離原點距離的實值函數(shù),歐氏距離是其中一個實例)單元組成,每類一個單元,每個有84個輸入。換句話說,每個輸出RBF單元計算輸入向量和參數(shù)向量之間的歐式距離。輸入離參數(shù)向量越遠,RBF輸出越大。一個RBF輸出可以被理解為衡量輸入模式和與RBF相關(guān)聯(lián)類的一個模型的匹配程度的懲罰項。這些單元的參數(shù)是人工選取并保持固定的(至少初始時候如此)。這些參數(shù)向量的成分被設為-1或1。雖然這些參數(shù)可以以-1和1等概率的方式任選,或者構(gòu)成一個糾錯碼,但是被設計成一個相應字符類的7*12大?。?4)的格式化圖片。這種表示對識別單獨的數(shù)字不是很有用,但是對識別可打印ASCII集中的字符串很有用。2023/10/20史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習67卷積神經(jīng)網(wǎng)絡的優(yōu)點

卷積神經(jīng)網(wǎng)絡CNN主要用來識別位移、縮放及其他形式扭曲不變性的二維圖形。由于CNN的特征檢測層通過訓練數(shù)據(jù)進行學習,所以在使用CNN時,避免了顯式的特征抽取,而隱式地從訓練數(shù)據(jù)中進行學習;再者由于同一特征映射面上的神經(jīng)元權(quán)值相同,所以網(wǎng)絡可以并行學習,這也是卷積網(wǎng)絡相對于神經(jīng)元彼此相連網(wǎng)絡的一大優(yōu)勢。2023/10/20史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習68卷積神經(jīng)網(wǎng)絡的優(yōu)點它可以直接處理灰度圖片,能夠直接用于處理基于圖像的分類。卷積網(wǎng)絡較一般神經(jīng)網(wǎng)絡在圖像處理方面有如下優(yōu)點:a)輸入圖像和網(wǎng)絡的拓撲結(jié)構(gòu)能很好的吻合;b)特征提取和模式分類同時進行,并同時在訓練中產(chǎn)生;c)權(quán)重共享可以減少網(wǎng)絡的訓練參數(shù),使神經(jīng)網(wǎng)絡結(jié)構(gòu)變得更簡單,適應性更強。2023/10/20史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習692023/10/20史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習70內(nèi)容提要6.1概述

6.2前饋神經(jīng)網(wǎng)絡

6.3 深度學習6.4卷積神經(jīng)網(wǎng)絡

6.5 生成對抗網(wǎng)絡6.6 深度強化學習6.7 小結(jié)

生成對抗網(wǎng)絡2023/10/2071史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習無論是DBN還是CNN,其多隱層堆疊、每層對上一層的輸出進行處理的機制,可看作是在對輸入信號進行逐層加工,從而把初始的、與輸出目標之間聯(lián)系不太密切的輸入表示,轉(zhuǎn)化成與輸出目標聯(lián)系更密切的表示,使得原來僅基于最后一層輸出映射難以完成的任務成為可能。以往在機器學習用于現(xiàn)實任務時,描述樣本的特征通常需由人類專家來設計,這稱為“特征工程”(featureengineering)眾所周知,特征的好壞對泛化性能有至關(guān)重要的影響,人類專家設計出好特征也并非易事。生成對抗網(wǎng)絡2023/10/2072史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習生成對抗網(wǎng)絡相比于其他生成式模型,有兩大特點:

1.不依賴任何先驗假設。傳統(tǒng)的許多方法會假設數(shù)據(jù)服從某一分布,然后使用極大似然去估計數(shù)據(jù)分布。2.生成real-like樣本的方式非常簡單。GAN生成real-like樣本的方式通過生成器(Generator)的前向傳播,而傳統(tǒng)方法的采樣方式非常復雜生成對抗網(wǎng)絡2023/10/2073史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習2023/10/20史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習74內(nèi)容提要6.1概述

6.2前饋神經(jīng)網(wǎng)絡

6.3 深度學習6.4卷積神經(jīng)網(wǎng)絡

6.5 生成對抗網(wǎng)絡6.6 深度強化學習6.7 小結(jié)

深度強化學習2023/10/2075史忠植人工智能導論:神經(jīng)網(wǎng)絡與深度學習在很多的應用場景中,通過人工標注的方式來給數(shù)據(jù)打標簽的方式往往行不通。比如我們通過監(jiān)督學習來訓練一個模型可以來自動下圍棋,就需要將當前棋盤的狀態(tài)作為輸入數(shù)據(jù),其對應的最佳落子位置(動作)作為標簽。訓練一個好的模型就需要收集大量的不同棋盤狀態(tài)以及對應動作。這種做法實踐起來比較困難,一是對于每一種棋盤狀態(tài),即使是專家也很難給出“正確”的動作,二是獲取大量數(shù)據(jù)的成本往往比較高。對于下棋這類任務,雖然我們很難知道每一步的“正確”動作,但

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論