深度學(xué)習(xí)綜述_第1頁
深度學(xué)習(xí)綜述_第2頁
深度學(xué)習(xí)綜述_第3頁
深度學(xué)習(xí)綜述_第4頁
深度學(xué)習(xí)綜述_第5頁
已閱讀5頁,還剩13頁未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

深度學(xué)習(xí)綜述目錄TOC\o"1-5"\h\z\o"CurrentDocument"深度學(xué)習(xí)的概念 0卷積神經(jīng)網(wǎng)絡(luò)模型 1深度信任網(wǎng)絡(luò)模型 2堆棧自編碼網(wǎng)絡(luò)模型 3\o"CurrentDocument"深度學(xué)習(xí)算法 4深度費(fèi)希爾映射方法 4非線性變換方法 5稀疏編碼對稱機(jī)算法 5遷移學(xué)習(xí)算法 5自然語言解析算法 6學(xué)習(xí)率自適應(yīng)方法 6\o"CurrentDocument"深度學(xué)習(xí)的實(shí)際應(yīng)用 6語音識(shí)別 6視頻分析 6人臉識(shí)別 7圖像識(shí)別和檢索 7\o"CurrentDocument"深度學(xué)習(xí)的問題及發(fā)展趨勢 8\o"CurrentDocument"總結(jié) 8\o"CurrentDocument"參考文獻(xiàn) 9#深度學(xué)習(xí)綜述摘要:深度學(xué)習(xí)是機(jī)器學(xué)習(xí)研究中的一個(gè)新領(lǐng)域,在于建立、模擬人腦進(jìn)行分析學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò),它模仿人腦的機(jī)制來解釋數(shù)據(jù)。近年來,深度學(xué)習(xí)在各領(lǐng)域上也取得了豐碩的研究成果。本文簡要論述了深度學(xué)習(xí)的概念、模型、算法以及在各領(lǐng)域的應(yīng)用,最后說明深度學(xué)習(xí)的問題及發(fā)展趨勢。關(guān)鍵字:深度學(xué)習(xí),神經(jīng)網(wǎng)絡(luò),機(jī)器學(xué)習(xí)ReviewofDeepLearningAbstract:Deepleaningisanewfieldinmachinelearningresearch.Itisawhichsimulatesthehumanbraintoanalyzeandstudythemechanismofthehumantointerpretthedata.Inrecentyears,deepleaninghasachievedfruitfulresultsinvariousfields.Thispaperbrieflydiscussestheconcept,model,algorithmandapplicationinvariousfieldsofdeeplearning.Finally,explainstheproblemsanddevelopmenttrendofdeeplearning.Keywords:Deeplearning,neuralnetwork,machinelearning深度學(xué)習(xí)的概念深度學(xué)習(xí)是機(jī)器學(xué)習(xí)領(lǐng)域一個(gè)新的研究方向,近年來在圖像識(shí)別與檢索、語言信息處理、語音識(shí)別等多領(lǐng)域中都取得較為成功的發(fā)展。深度學(xué)習(xí)應(yīng)用的發(fā)展基礎(chǔ)在于建立模型來模擬人類大腦的神經(jīng)連接結(jié)構(gòu) ,在處理圖像、聲音和文本這些信號(hào)時(shí),通過多個(gè)變換階段分層對數(shù)據(jù)特征進(jìn)行描述 ,進(jìn)而給出數(shù)據(jù)的解釋。深度學(xué)習(xí)的概念源于人工神經(jīng)網(wǎng)絡(luò)的研究。含多隱層的多層感知器就是一種深度學(xué)習(xí)結(jié)構(gòu)。深度學(xué)習(xí)通過組合低層特征形成更加抽象的高層表示屬性類別或特征,以發(fā)現(xiàn)數(shù)據(jù)的分布式特征表示。深度學(xué)習(xí)的概念最早 G.E.Hinton等于2006年提出。基于深信度網(wǎng)(DBN)提出非監(jiān)督貪心訓(xùn)練逐層算法,為解決深層結(jié)構(gòu)相關(guān)的優(yōu)化難題帶來希望,隨□□□□□□□□□□□□□□□□□ Lecun□□□□□□□□□□□□□□個(gè)真正多層結(jié)構(gòu)學(xué)習(xí)算法,它利用空間相對關(guān)系減少參數(shù)數(shù)目以提高訓(xùn)練性能。同機(jī)器學(xué)習(xí)方法一樣,深度機(jī)器學(xué)習(xí)方法也有有監(jiān)督學(xué)習(xí)和無監(jiān)督學(xué)習(xí)之分,不同的學(xué)習(xí)框架下建立的學(xué)習(xí)模型不同。例如卷積神經(jīng)網(wǎng)絡(luò)就是一種深度的監(jiān)督學(xué)習(xí)下的機(jī)器學(xué)習(xí)模型,而就是一種無監(jiān)督學(xué)習(xí)下的機(jī)器學(xué)習(xí)模型。典型的深度學(xué)習(xí)模型有卷積神經(jīng)網(wǎng)絡(luò)、深度置信網(wǎng)絡(luò)和堆棧自編碼網(wǎng)絡(luò)模型等,下面對這些模型進(jìn)行描述。卷積神經(jīng)網(wǎng)絡(luò)模型卷積神經(jīng)網(wǎng)絡(luò)是人工神經(jīng)網(wǎng)絡(luò)的一種,已成為當(dāng)前語音分析和圖像識(shí)別領(lǐng)域的研究熱點(diǎn)。它的權(quán)值共享網(wǎng)絡(luò)結(jié)構(gòu)使之更類似于生物神經(jīng)網(wǎng)絡(luò),降低了網(wǎng)絡(luò)模型的復(fù)雜度,減少了權(quán)值的數(shù)量。該優(yōu)點(diǎn)在于網(wǎng)絡(luò)的輸入是多維圖像時(shí)表現(xiàn)的更為明顯,使圖像可以直接作為網(wǎng)絡(luò)的輸入,避免了傳統(tǒng)算法中復(fù)雜的特征提取和數(shù)據(jù)重建過程。卷積網(wǎng)絡(luò)是為識(shí)別二維形狀而特殊設(shè)計(jì)的一個(gè)多層感知器,這種網(wǎng)絡(luò)結(jié)構(gòu)對平移、比例縮放、傾斜或是其他形式的變形具有高度不變形。Lecun的卷積神經(jīng)網(wǎng)絡(luò)由卷積層和子抽樣層兩種類型的神經(jīng)網(wǎng)絡(luò)層組成。每一層有一個(gè)拓?fù)鋱D結(jié)構(gòu),即在接收域內(nèi),每個(gè)神經(jīng)元與輸入圖像中某個(gè)位置對應(yīng)的固定二維位置編碼信息關(guān)聯(lián)。在每層的各個(gè)位置分布著許多不同的神經(jīng)元,每個(gè)神經(jīng)元有一組輸入權(quán)值,這些權(quán)值與前一層神經(jīng)網(wǎng)絡(luò)矩形塊中的神經(jīng)元關(guān)聯(lián);同一組權(quán)值和不同輸入矩形塊與不同位置的神經(jīng)元關(guān)聯(lián)。下圖是一個(gè)用于手寫體字符識(shí)別的卷積神經(jīng)網(wǎng)絡(luò),由一個(gè)輸入層、四個(gè)隱層和一個(gè)輸出層組成。由下圖可以看出,與完全連接的多層前饋感知器網(wǎng)絡(luò)相比,卷積神經(jīng)網(wǎng)絡(luò)通過使用接收域的局部連接,限制了網(wǎng)絡(luò)結(jié)構(gòu)。卷積神經(jīng)網(wǎng)絡(luò)的另一個(gè)特點(diǎn)是權(quán)值共享,圖中包含大量連接權(quán)值,但是由于同一隱層的神經(jīng)元共享同一權(quán)值集,大大減少了自由參數(shù)的數(shù)量。圖1—1用于手寫體字符識(shí)別的卷積神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)本質(zhì)上實(shí)現(xiàn)一種輸入到輸出的映射關(guān)系,能夠?qū)W習(xí)大量輸入與輸出之間的映射關(guān)系,不需要任何輸入和輸出之間的精確數(shù)學(xué)表達(dá)式,只要用已知的模式對卷積神經(jīng)網(wǎng)絡(luò)加以訓(xùn)練,就可以使網(wǎng)絡(luò)具有輸入輸出之間的映射能力。卷積神經(jīng)網(wǎng)絡(luò)執(zhí)行的是有監(jiān)督訓(xùn)練,在開始訓(xùn)練前,用一些不同的小隨機(jī)數(shù)對網(wǎng)絡(luò)的所有權(quán)值進(jìn)行初始化。卷積神經(jīng)網(wǎng)絡(luò)中這種層間聯(lián)系和空域信息的緊密關(guān)系,使其適于圖像處理和理解。而且,在其自動(dòng)提取圖像的顯著特征方面還表現(xiàn)出了比較優(yōu)異的性能。在目前大部分的工作中,研究者將卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用到了多種機(jī)器學(xué)習(xí)問題中,包括人臉識(shí)別,文檔分析和語言檢測等。為了達(dá)到尋找視頻中幀與幀之間的相干性的目的,目前卷積神經(jīng)網(wǎng)絡(luò)通過一個(gè)時(shí)間想干性去訓(xùn)練,但這個(gè)不是卷積神經(jīng)網(wǎng)絡(luò)特有的。深度信任網(wǎng)絡(luò)模型深度信任網(wǎng)絡(luò)可以解釋為貝葉斯概率生成模型,由多層隨機(jī)隱變量組成,上面的兩層具有無向?qū)ΨQ連接,下面的層得到來自上一層的自頂向下的有向連接,最底層單元的狀態(tài)為可見輸入數(shù)據(jù)向量。深度信任網(wǎng)絡(luò)由若干結(jié)構(gòu)單元堆□□□,□□ 1—2□□,□□□□□□□ RBM。堆棧中每個(gè) RBM□□□□□層神經(jīng)元數(shù)量等于前一 RBM單元的隱層神經(jīng)元數(shù)量。根據(jù)深度學(xué)習(xí)機(jī)制,采用□□□□□□□□□ RBM□□,□□□□□□□□□□□ RBM模型,將 RBM模型進(jìn)行堆棧通過增加層來改善模型性能。在無監(jiān)督預(yù)訓(xùn)練過程中, DBN編碼輸入到頂層 RBM后解碼頂層的狀態(tài)到最底層的單元實(shí)現(xiàn)輸入的重構(gòu)。

圖1—2DBN的生成過程RBM的無向圖模型如圖 1—3所示,作為DBN的結(jié)構(gòu)單元,RBM與每一層DBN共享參數(shù)。區(qū)一圖1—3RBM的無向圖模型RBM□□□□□□□□□□□□□,□□□□□□□□□□□□□□□,只有可見層節(jié)點(diǎn)與隱層節(jié)點(diǎn)之間有連接權(quán)值,而可見層節(jié)點(diǎn)與可見層節(jié)點(diǎn)以及隱層節(jié)點(diǎn)與隱層節(jié)點(diǎn)之間無連接。堆棧自編碼網(wǎng)絡(luò)模型堆棧自編碼網(wǎng)絡(luò)的結(jié)構(gòu)與深度信任網(wǎng)絡(luò)類似,由若干結(jié)構(gòu)單元堆棧組成,RBM。RBM。c(口)將輸入x編碼成表示c(x),r(x)=g(c(x))。因此,自編碼L(r(x),x)來執(zhí)行訓(xùn)練。r(x),xQ2□□□□□□,c(x)訓(xùn)自編碼模型是一個(gè)兩層的神經(jīng)網(wǎng)絡(luò),第一層稱為編碼層,第二層稱為解碼層。如圖1—4所示,訓(xùn)練該模型的目的是用編碼器□□□□g(口)從c(x)□□□□□□□□□模型的輸出是其輸入本身,通過最小化重構(gòu)誤差□□□□□□,□□ L(r(x),x)=□

練網(wǎng)絡(luò)將輸入投影到數(shù)據(jù)的主分量空間中,此時(shí)自編碼模型的作用等效于PCA;當(dāng)隱層非線性時(shí)與PCA□□,□□□□□□□□□□□□,□□□□□□夠得到多模態(tài)輸入分布。重構(gòu)誤差的概率分布可以解釋為非歸一化對數(shù)概率密度函數(shù)這種特殊形式的能量函數(shù),意味著有低重構(gòu)誤差的樣例對應(yīng)的模型具有更高的概率。練網(wǎng)絡(luò)將輸入投影到數(shù)據(jù)的主分量空間中,此時(shí)自編碼模型的作用等效于PCA;當(dāng)隱層非線性時(shí)與PCA□□,□□□□□□□□□□□□,□□□□□□夠得到多模態(tài)輸入分布。重構(gòu)誤差的概率分布可以解釋為非歸一化對數(shù)概率密度函數(shù)這種特殊形式的能量函數(shù),意味著有低重構(gòu)誤差的樣例對應(yīng)的模型具有更高的概率。圖1—4自編碼模型結(jié)構(gòu)自編碼模型的重構(gòu)誤差的梯度與深度信任網(wǎng)絡(luò)的 CD更新規(guī)則表達(dá)式存在對應(yīng)關(guān)系。堆棧自編碼網(wǎng)絡(luò)的結(jié)構(gòu)單元除了上述的自編碼模型之外,還可以使用自編碼模型的一些變形,如降噪自編碼模型和收縮自編碼模型等。降噪自編碼模型避免了一般的自編碼模型可能會(huì)學(xué)習(xí)得到無編碼功能的恒等函數(shù)和需要樣本的個(gè)數(shù)大于樣本的維數(shù)的限制,嘗試通過最小化降噪重構(gòu)誤差,從含隨機(jī)噪聲的數(shù)據(jù) 中重構(gòu)真實(shí)的原始輸入。降噪自編碼模型使用由少量樣本組成的微批次樣本執(zhí)行隨機(jī)梯度下降算法,這樣可以充分利用圖處理單元的矩陣到矩陣快速運(yùn)算使得算法能夠更快地收斂。降噪自編碼模型與得分匹配方法直接相關(guān)。得分匹配是一種歸納原理,當(dāng)所求解的問題易于處理時(shí),可以用來代替極大似然求解過程。深度學(xué)習(xí)算法深度費(fèi)希爾映射方法Wong□□□□□□□□□□□□□□——□□□□□□□□□□□□,□□□□□□□□□□□□□□□□□,□□ Fisher□□□□□□□□□□□□高特征的區(qū)分度。深度結(jié)構(gòu)神經(jīng)網(wǎng)絡(luò)具有深度非局部學(xué)習(xí)結(jié)構(gòu),從更少的樣本中學(xué)習(xí)變化很大的數(shù)據(jù)集中的特點(diǎn),顯示出比核方法更強(qiáng)的特征識(shí)別能力,同時(shí)RDFM□□□□□□□□□□□□□□□□,□□□□□□□□□□□□□□合問題。在各種類型的數(shù)據(jù)集上進(jìn)行試驗(yàn),得到的結(jié)果說明了在深度學(xué)習(xí)微調(diào)階段運(yùn)用無監(jiān)督正則化的必要性。非線性變換方法Raiko□□□□□□□□□□□□□□, □□□□□□□□□□□□□□□□□□□□□□□□□□□□□□□□□□□□□,□□□ MLP□□□□□□□□□□□□□□□□□□□□□□□□□□□□□□□□,□ shortcut權(quán)□□□□□□□□,□ Fisher□□□□□□□□,□□□□□□□□□□□度。通過實(shí)驗(yàn)證明非線性變換方法的有效性,該變換使得基本隨機(jī)梯度學(xué)習(xí)與當(dāng)前的學(xué)習(xí)算法在速度上不相上下,并有助于找到泛化性能更好的分類器。用這種非線性變換方法實(shí)現(xiàn)的深度無監(jiān)督自編碼模型進(jìn)行圖像分類和學(xué)習(xí)圖像的低維表示的實(shí)驗(yàn),說明這些變換有助于學(xué)習(xí)深度至少達(dá)到五個(gè)隱層的深度結(jié)構(gòu)神經(jīng)網(wǎng)絡(luò),證明了變換的有效性,提高了基本隨機(jī)梯度學(xué)習(xí)算法的速度,有助于找到泛化性能更好的分類器。稀疏編碼對稱機(jī)算法Ranzato等人提出一種新的有效的無監(jiān)督學(xué)習(xí)算法——稀疏編碼對稱機(jī),能夠在無須歸一化的情況下有效產(chǎn)生稀疏表示。稀疏編碼對稱機(jī)的損失函數(shù)是重構(gòu)誤差和稀疏罰函數(shù)的加權(quán)總和,基于該損失函數(shù)比較和選擇不同的無監(jiān)督學(xué)習(xí)機(jī),提出一種與文獻(xiàn)算法相關(guān)的迭代在線學(xué)習(xí)算法,并在理論和實(shí)驗(yàn)上將稀□□□□□□□□□□□□□□ PCA進(jìn)行比較,在手寫體數(shù)字識(shí)別 MNIST數(shù)據(jù)集和實(shí)際圖像數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),表明該方法的優(yōu)越性。遷移學(xué)習(xí)算法在許多常見學(xué)習(xí)場景中訓(xùn)練和測試數(shù)據(jù)集中的類標(biāo)簽不同,必須保證訓(xùn)練和測試數(shù)據(jù)集中的相似性進(jìn)行遷移學(xué)習(xí)。 Mesnil等人研究了用于無監(jiān)督遷移學(xué)習(xí)場景中學(xué)習(xí)表示的不同種類模型結(jié)構(gòu),將多個(gè)不同結(jié)構(gòu)的層堆棧使用無監(jiān)督學(xué)習(xí)算法用于五個(gè)學(xué)習(xí)任務(wù),并研究了用于少量已標(biāo)記訓(xùn)練樣本的簡單線性分類器堆棧深度結(jié)構(gòu)學(xué)習(xí)算法。叫研究了無監(jiān)督遷移學(xué)習(xí)問題,討論了無監(jiān)督預(yù)訓(xùn)練有用的原因,如何在遷移學(xué)習(xí)場景中利用無監(jiān)督預(yù)訓(xùn)練,以及在什么情況下需要注意從不同數(shù)據(jù)分布得到的樣例上的預(yù)測問題。

自然語言解析算法Collobert基于深度遞歸卷口圖變換網(wǎng)絡(luò)提出一種快速可擴(kuò)展的判別算法用于自然語言解析,將文法解析樹分解到堆棧層中,只用極少的基本文本特征,得到的性能與現(xiàn)有的判別解析器和標(biāo)準(zhǔn)解析器的性能相似,而在速度上有了很大提升。學(xué)習(xí)率自適應(yīng)方法學(xué)習(xí)率自適應(yīng)方法可用于提高深度結(jié)構(gòu)神經(jīng)網(wǎng)絡(luò)訓(xùn)練的收斂性并且去除超Duchi等人Duchi等人Leroux等人提□□□□□□□□□□□ Schaul□□□□□□□□□□□□□;出自然梯度的對角低秩在線近似方法,并說明該算法在一些學(xué)習(xí)場景中能加速訓(xùn)練過程。深度學(xué)習(xí)的實(shí)際應(yīng)用語音識(shí)別2011年,微軟語音識(shí)別采用深度學(xué)習(xí)技術(shù)降低語音識(shí)別錯(cuò)誤領(lǐng)域十多年來最大的突破性進(jìn)展。2013年語音識(shí)別2011年,微軟語音識(shí)別采用深度學(xué)習(xí)技術(shù)降低語音識(shí)別錯(cuò)誤領(lǐng)域十多年來最大的突破性進(jìn)展。2013年新型語音識(shí)別技術(shù),可提供“接近即時(shí)”的語音至文本的轉(zhuǎn)換服務(wù),比目前的語音識(shí)別技術(shù)快兩倍。同時(shí),準(zhǔn)確率提高了解的方式。深度神經(jīng)網(wǎng)絡(luò)技術(shù)能夠像人類大腦一樣工作,該技術(shù)將會(huì)取代谷歌等競爭對手在搜索和安卓產(chǎn)品中常用的技術(shù)。在國際上,快速進(jìn)行了深度學(xué)習(xí)語音識(shí)別研究,并且速度飛快。國內(nèi)方面,科大訊飛、百度、中科院自動(dòng)化所等公司或研究單位,也在進(jìn)行深度學(xué)習(xí)在語音識(shí)別上的研究。視頻分析描述視頻的靜態(tài)圖像特征可以采用從以往的視覺研究方法對動(dòng)態(tài)特征的描述往往依賴于光流估計(jì)、對關(guān)鍵點(diǎn)的跟蹤和動(dòng)態(tài)紋理。如何將這些信息體現(xiàn)在深度模型中是個(gè)難點(diǎn)。最直接的做法是將視頻是為三維圖像,直接應(yīng)用卷積網(wǎng)絡(luò)在每一層學(xué)習(xí)三維濾波器。但是這一思20-30%,是該6月18日,微軟宣布已經(jīng)研發(fā)出一種15%,該技術(shù)模仿人類大腦對溝通理IBM、google等公司都imageNet□□□□□□□□□□□□路顯然沒有考慮到時(shí)間維和空間維的差異性。另外一種簡單更加有效的思路是,通過與處理計(jì)算光流場或其它動(dòng)態(tài)特征的空間廠分布,作為卷及網(wǎng)絡(luò)的一個(gè)輸入通道。也有研究工作利用深度編碼器以非線性的方式提取動(dòng)態(tài)紋理。在最新的研究工作中,長短時(shí)記憶網(wǎng)絡(luò)受到廣泛關(guān)注,它可以捕捉長期依賴性,對視頻中復(fù)雜的動(dòng)態(tài)建模。人臉識(shí)別深度學(xué)習(xí)在物體識(shí)別上的另一個(gè)重要突破就是人臉識(shí)別。人臉識(shí)別的最大挑戰(zhàn)是如何區(qū)分由于光線、姿態(tài)和表情等因素引起的類內(nèi)變化和由于身份不同產(chǎn)生的類間變化。這兩種變化的分布是非線性的,且極為復(fù)雜,傳統(tǒng)的線性模型無法將它們有效區(qū)分開。深度學(xué)習(xí)的目的是通過多層的非線性變換得到新的特征表示。這些特征須盡可能多地去掉內(nèi)變化,而保留類間變化。人臉識(shí)別包括人臉確認(rèn)和人臉辨識(shí)兩種任務(wù)。人臉確認(rèn)是判斷兩張人臉照片是否屬于同一□□□,□□□□□□□□□□□□□□□□□□□□ N個(gè)類別之一,類別是由人臉的身份定義的。這個(gè)是多分類問題,更具有挑戰(zhàn)性,其難度隨著類別數(shù)的增加而增大。兩種任務(wù)都可以通過深度模型學(xué)習(xí)人臉的特征表達(dá)。圖像識(shí)別和檢索深度信任網(wǎng)絡(luò)和堆棧自編碼網(wǎng)絡(luò)在單個(gè)圖像識(shí)別任務(wù)中表現(xiàn)出很好的性能,成功用于生成緊湊而有意義的圖像檢索表示形式,并且已用于大型圖像檢索任務(wù)中,得到非常好的結(jié)果。圖像識(shí)別方面比深度信任網(wǎng)絡(luò)更一般的方法。Taylor等人將條件深度信任網(wǎng)絡(luò)用于視頻排序和人類動(dòng)作合成,條件深度信任網(wǎng)絡(luò)使得深度信任網(wǎng)絡(luò)的權(quán)值與之前的數(shù)據(jù)相關(guān)聯(lián),可以提高訓(xùn)練的有效性。Lee和Raina等人用稀疏編碼和深度信任網(wǎng)絡(luò)從自然圖像中學(xué)習(xí)有效特征表示。Nair等人提出改進(jìn)的深度信任網(wǎng)絡(luò),口模型的頂層模型用三階 BM,他們將這種□□□□□□□□□□□ NORB數(shù)據(jù)集上,實(shí)驗(yàn)結(jié)果顯示出訓(xùn)練得到了很低的□□□□□ Tang等人提出兩種策略來提高深度信任網(wǎng)絡(luò)的魯棒性,首先將深度信任網(wǎng)絡(luò)的第一層具有稀疏連接結(jié)構(gòu)引入正則化方法,接著提出一種概率降噪算法,這些技術(shù)在高噪聲圖像識(shí)別任務(wù)和隨機(jī)噪聲的魯棒性方面顯示出其有效性□ Lee等人提出一種深度學(xué)習(xí)方法使腦圖像分割自動(dòng)化,用卷積神經(jīng)網(wǎng)絡(luò)建立用于腦圖像分割的判別特征,能自動(dòng)從人類專家提供的類標(biāo)簽中進(jìn)行學(xué)習(xí),通過實(shí)驗(yàn)驗(yàn)證該方法在自動(dòng)多類腦圖像分割方面顯示出優(yōu)越的性能,表明該方法可以替代已有的模板圖像分割方法,減少了圖像分割過程對人類專家的干預(yù)和對先驗(yàn)信息的需求。深度學(xué)習(xí)的問題及發(fā)展趨勢深度學(xué)習(xí)算法在計(jì)算機(jī)視覺 (圖像識(shí)別、視頻識(shí)別等 )和語音識(shí)別中的應(yīng)用尤其是大規(guī)模數(shù)據(jù)集下的應(yīng)用取得突破性的進(jìn)展 ,但仍有以下問題值得進(jìn)一步研究:無標(biāo)記數(shù)據(jù)的特征學(xué)習(xí) 目前,標(biāo)記數(shù)據(jù)的特征學(xué)習(xí)仍然占據(jù)主導(dǎo)地位,而真實(shí)世界存在著海量的無標(biāo)記數(shù)據(jù) ,將這些無標(biāo)記數(shù)據(jù)逐一添加人工標(biāo)簽,顯然是不現(xiàn)實(shí)的.所以,隨著數(shù)據(jù)集和存儲(chǔ)技術(shù)的發(fā)展 ,必將越來越重視對無標(biāo)記數(shù)據(jù)的特征學(xué)習(xí) ,以及將無標(biāo)記數(shù)據(jù)進(jìn)行自動(dòng)添加標(biāo)簽技術(shù)的研究。模型規(guī)模與訓(xùn)練速度、訓(xùn)練精度之間的權(quán)衡 一般地 ,相同數(shù)據(jù)集下,模型規(guī)模越大 ,訓(xùn)練精度越高 ,訓(xùn)練速度會(huì)越慢。 例如一些模型方法采用ReLU非線性變換、 GPU運(yùn)算,在保證精度的前提下 ,往往需要訓(xùn)練。 雖然離線訓(xùn)練并不影響訓(xùn)練之后模型的應(yīng)用 ,但是對于模型優(yōu)化 ,諸如模型規(guī)模調(diào)整、超參數(shù)設(shè)置、訓(xùn)練時(shí)調(diào)試等問題 ,訓(xùn)練時(shí)間會(huì)嚴(yán)重影響其效率。 故而,如何在保證一定的訓(xùn)練精度的前提下 ,提高訓(xùn)練速度 ,依然是深度學(xué)習(xí)方向研究的課題之一。與其他方法的融合 從上述應(yīng)用實(shí)例中可發(fā)現(xiàn) ,單一的深度學(xué)習(xí)方法,往往并不能帶來最好的效果 ,通常融合其他方法或多種方法進(jìn)行平均打分會(huì)帶來更高的精確率。 因此,深度學(xué)習(xí)方法與其他效果 ,通常融合其他方法或多種方法進(jìn)行平均打分 ,會(huì)帶來更高的精確率。 因此,深度學(xué)習(xí)方法與其他方法的融合,具有一定的研究意義

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論