




版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
機(jī)器人的學(xué)習(xí)研究進(jìn)展深度學(xué)習(xí)及應(yīng)用演示文稿現(xiàn)在是1頁(yè)\一共有84頁(yè)\編輯于星期五機(jī)器人的學(xué)習(xí)研究進(jìn)展深度學(xué)習(xí)及應(yīng)用現(xiàn)在是2頁(yè)\一共有84頁(yè)\編輯于星期五內(nèi)容1.深度學(xué)習(xí)概述
2.深度學(xué)習(xí)應(yīng)用研究現(xiàn)在是3頁(yè)\一共有84頁(yè)\編輯于星期五1.深度學(xué)習(xí)概述1.1概述1.2背景1.3人腦視覺(jué)機(jī)理1.4關(guān)于特征1.5深度學(xué)習(xí)的基本思想1.6淺層學(xué)習(xí)(ShallowLearning)和深度學(xué)習(xí)(DeepLearning)現(xiàn)在是4頁(yè)\一共有84頁(yè)\編輯于星期五1.深度學(xué)習(xí)概述1.7Deeplearning與NeuralNetwork1.8Deeplearning訓(xùn)練過(guò)程1.9DeepLearning的常用模型或者方法現(xiàn)在是5頁(yè)\一共有84頁(yè)\編輯于星期五1.1概述ArtificialIntelligence,也就是人工智能,就像長(zhǎng)生不老和星際漫游一樣,是人類最美好的夢(mèng)想之一。雖然計(jì)算機(jī)技術(shù)已經(jīng)取得了長(zhǎng)足的進(jìn)步,但是到目前為止,還沒(méi)有一臺(tái)電腦能產(chǎn)生“自我”的意識(shí)。的確如此,在人類和大量現(xiàn)成數(shù)據(jù)的幫助下,電腦可以表現(xiàn)的十分強(qiáng)大,但是離開(kāi)了這兩者,它甚至都不能分辨一個(gè)喵星人和一個(gè)汪星人?,F(xiàn)在是6頁(yè)\一共有84頁(yè)\編輯于星期五1.1概述圖靈(計(jì)算機(jī)和人工智能的鼻祖,分別對(duì)應(yīng)于其著名的“圖靈機(jī)”和“圖靈測(cè)試”)在1950年的論文里,提出圖靈試驗(yàn)的設(shè)想,即,隔墻對(duì)話,你將不知道與你談話的,是人還是電腦。這無(wú)疑給計(jì)算機(jī),尤其是人工智能,預(yù)設(shè)了一個(gè)很高的期望值。但是半個(gè)世紀(jì)過(guò)去了,人工智能的進(jìn)展,遠(yuǎn)遠(yuǎn)沒(méi)有達(dá)到圖靈試驗(yàn)的標(biāo)準(zhǔn)。這不僅讓多年翹首以待的人們,心灰意冷,認(rèn)為人工智能是忽悠,相關(guān)領(lǐng)域是“偽科學(xué)”?,F(xiàn)在是7頁(yè)\一共有84頁(yè)\編輯于星期五1.1概述但是自2006年以來(lái),機(jī)器學(xué)習(xí)領(lǐng)域,取得了突破性的進(jìn)展。圖靈試驗(yàn),至少不是那么可望而不可及了。至于技術(shù)手段,不僅僅依賴于云計(jì)算對(duì)大數(shù)據(jù)的并行處理能力,而且依賴于算法。這個(gè)算法就是,DeepLearning。借助于DeepLearning算法,人類終于找到了如何處理“抽象概念”這個(gè)亙古難題的方法。現(xiàn)在是8頁(yè)\一共有84頁(yè)\編輯于星期五1.1概述2012年6月,《紐約時(shí)報(bào)》披露了GoogleBrain項(xiàng)目,吸引了公眾的廣泛關(guān)注。這個(gè)項(xiàng)目是由著名的斯坦福大學(xué)的機(jī)器學(xué)習(xí)教授AndrewNg和在大規(guī)模計(jì)算機(jī)系統(tǒng)方面的世界頂尖專家Jeff
Dean共同主導(dǎo),用16000個(gè)CPUCore的并行計(jì)算平臺(tái)訓(xùn)練一種稱為“深度神經(jīng)網(wǎng)絡(luò)”(DNN,DeepNeuralNetworks)的機(jī)器學(xué)習(xí)模型(內(nèi)部共有10億個(gè)節(jié)點(diǎn)?,F(xiàn)在是9頁(yè)\一共有84頁(yè)\編輯于星期五1.1概述這一網(wǎng)絡(luò)自然是不能跟人類的神經(jīng)網(wǎng)絡(luò)相提并論的。要知道,人腦中可是有150多億個(gè)神經(jīng)元,互相連接的節(jié)點(diǎn)也就是突觸數(shù)更是如銀河沙數(shù)。曾經(jīng)有人估算過(guò),如果將一個(gè)人的大腦中所有神經(jīng)細(xì)胞的軸突和樹(shù)突依次連接起來(lái),并拉成一根直線,可從地球連到月亮,再?gòu)脑铝练祷氐厍颍??!吧疃壬窠?jīng)網(wǎng)絡(luò)”在語(yǔ)音識(shí)別和圖像識(shí)別等領(lǐng)域獲得了巨大的成功。現(xiàn)在是10頁(yè)\一共有84頁(yè)\編輯于星期五1.1概述項(xiàng)目負(fù)責(zé)人之一Andrew稱:“我們沒(méi)有像通常做的那樣自己框定邊界,而是直接把海量數(shù)據(jù)投放到算法中,讓數(shù)據(jù)自己說(shuō)話,系統(tǒng)會(huì)自動(dòng)從數(shù)據(jù)中學(xué)習(xí)?!绷硗庖幻?fù)責(zé)人Jeff則說(shuō):“我們?cè)谟?xùn)練的時(shí)候從來(lái)不會(huì)告訴機(jī)器說(shuō):‘這是一只貓。’系統(tǒng)其實(shí)是自己發(fā)明或者領(lǐng)悟了“貓”的概念?!爆F(xiàn)在是11頁(yè)\一共有84頁(yè)\編輯于星期五1.1概述2012年11月,微軟在中國(guó)天津的一次活動(dòng)上公開(kāi)演示了一個(gè)全自動(dòng)的同聲傳譯系統(tǒng),講演者用英文演講,后臺(tái)的計(jì)算機(jī)一氣呵成自動(dòng)完成語(yǔ)音識(shí)別、英中機(jī)器翻譯和中文語(yǔ)音合成,效果非常流暢。據(jù)報(bào)道,后面支撐的關(guān)鍵技術(shù)也是DNN,或者深度學(xué)習(xí)(DL,DeepLearning)。2013年1月,在百度年會(huì)上,創(chuàng)始人兼CEO李彥宏高調(diào)宣布要成立百度研究院,其中第一個(gè)成立的就是“深度學(xué)習(xí)研究所”(IDL,InstitueofDeepLearning)?,F(xiàn)在是12頁(yè)\一共有84頁(yè)\編輯于星期五1.1概述為什么擁有大數(shù)據(jù)的互聯(lián)網(wǎng)公司爭(zhēng)相投入大量資源研發(fā)深度學(xué)習(xí)技術(shù)。聽(tīng)起來(lái)感覺(jué)deeplearning很牛那樣。那什么是deeplearning?為什么有deeplearning?它是怎么來(lái)的?又能干什么呢?目前存在哪些困難呢?這些問(wèn)題的簡(jiǎn)答都需要慢慢來(lái)。咱們先來(lái)了解下機(jī)器學(xué)習(xí)(人工智能的核心)的背景?,F(xiàn)在是13頁(yè)\一共有84頁(yè)\編輯于星期五1.2背景機(jī)器學(xué)習(xí)(MachineLearning)是一門(mén)專門(mén)研究計(jì)算機(jī)怎樣模擬或?qū)崿F(xiàn)人類的學(xué)習(xí)行為,以獲取新的知識(shí)或技能,重新組織已有的知識(shí)結(jié)構(gòu)使之不斷改善自身的性能的學(xué)科。1959年美國(guó)的塞繆爾(Samuel)設(shè)計(jì)了一個(gè)下棋程序,這個(gè)程序具有學(xué)習(xí)能力,它可以在不斷的對(duì)弈中改善自己的棋藝。4年后,這個(gè)程序戰(zhàn)勝了設(shè)計(jì)者本人。又過(guò)了3年,這個(gè)程序戰(zhàn)勝了美國(guó)一個(gè)保持8年之久的常勝不敗的冠軍。這個(gè)程序向人們展示了機(jī)器學(xué)習(xí)的能力,提出了許多令人深思的社會(huì)問(wèn)題與哲學(xué)問(wèn)題?,F(xiàn)在是14頁(yè)\一共有84頁(yè)\編輯于星期五1.2背景機(jī)器學(xué)習(xí)雖然發(fā)展了幾十年,但還是存在很多沒(méi)有良好解決的問(wèn)題:現(xiàn)在是15頁(yè)\一共有84頁(yè)\編輯于星期五1.2背景例如圖像識(shí)別、語(yǔ)音識(shí)別、自然語(yǔ)言理解、天氣預(yù)測(cè)、基因表達(dá)、內(nèi)容推薦等等。目前我們通過(guò)機(jī)器學(xué)習(xí)去解決這些問(wèn)題的思路都是這樣的(以視覺(jué)感知為例子):現(xiàn)在是16頁(yè)\一共有84頁(yè)\編輯于星期五1.2背景從開(kāi)始的通過(guò)傳感器(例如CMOS)來(lái)獲得數(shù)據(jù)。然后經(jīng)過(guò)預(yù)處理、特征提取、特征選擇,再到推理、預(yù)測(cè)或者識(shí)別。最后一個(gè)部分,也就是機(jī)器學(xué)習(xí)的部分,絕大部分的工作是在這方面做的,也存在很多的學(xué)術(shù)論文和研究。而中間的三部分,概括起來(lái)就是特征表達(dá)。良好的特征表達(dá),對(duì)最終算法的準(zhǔn)確性起了非常關(guān)鍵的作用,而且系統(tǒng)主要的計(jì)算和測(cè)試工作都耗在這一大部分。但是這塊實(shí)際中一般都是人工完成的,即靠人工提取特征?,F(xiàn)在是17頁(yè)\一共有84頁(yè)\編輯于星期五1.2背景截止現(xiàn)在,也出現(xiàn)了不少優(yōu)秀特征表示方式(好的特征應(yīng)具有不變性(大小、尺度和旋轉(zhuǎn)等)和可區(qū)分性)。例如Sift的出現(xiàn),是局部圖像特征描述子研究領(lǐng)域一項(xiàng)里程碑式的工作。由于SIFT對(duì)尺度、旋轉(zhuǎn)以及一定視角和光照變化等圖像變化都具有不變性,并且SIFT具有很強(qiáng)的可區(qū)分性,的確讓很多問(wèn)題的解決變?yōu)榭赡?。但它也不是萬(wàn)能的?,F(xiàn)在是18頁(yè)\一共有84頁(yè)\編輯于星期五1.2背景然而,手工地選取特征是一件非常費(fèi)力、啟發(fā)式(需要專業(yè)知識(shí))的方法,能不能選取好很大程度上靠經(jīng)驗(yàn)和運(yùn)氣,而且它的調(diào)節(jié)需要大量的時(shí)間。既然手工選取特征不太好,那么能不能自動(dòng)地學(xué)習(xí)一些特征呢?答案是能!DeepLearning就是用來(lái)干這個(gè)事情的,看它的一個(gè)別名Unsupervised
FeatureLearning,就可以顧名思義了,Unsupervised的意思就是不要人參與特征的選取過(guò)程?,F(xiàn)在是19頁(yè)\一共有84頁(yè)\編輯于星期五1.2背景那它是怎么學(xué)習(xí)的呢?怎么知道哪些特征好哪些不好呢?我們說(shuō)機(jī)器學(xué)習(xí)是一門(mén)專門(mén)研究計(jì)算機(jī)怎樣模擬或?qū)崿F(xiàn)人類的學(xué)習(xí)行為的學(xué)科。那人類的視覺(jué)系統(tǒng)是怎么工作的呢?為什么在茫茫人海,蕓蕓眾生,滾滾紅塵中我們都可以找到另一個(gè)她(因?yàn)?,你存在我深深的腦海里,我的夢(mèng)里、我的心里、我的歌聲里……)?,F(xiàn)在是20頁(yè)\一共有84頁(yè)\編輯于星期五1.2背景人腦那么優(yōu)秀,我們能不能參考人腦,模擬人腦呢?(注:好像和人腦扯上點(diǎn)關(guān)系的特征、算法,都不錯(cuò),但不知道是不是人為強(qiáng)加的,為了使自己的研究變得神圣和高雅。)近幾十年以來(lái),認(rèn)知神經(jīng)科學(xué)、生物學(xué)等等學(xué)科的發(fā)展,讓我們對(duì)自己這個(gè)神秘的而又神奇的大腦不再那么的陌生。也給人工智能的發(fā)展推波助瀾?,F(xiàn)在是21頁(yè)\一共有84頁(yè)\編輯于星期五1.3人腦視覺(jué)機(jī)理1981年的諾貝爾醫(yī)學(xué)/生理學(xué)獎(jiǎng),頒發(fā)給了DavidHubel(出生于加拿大的美國(guó)神經(jīng)生物學(xué)家)和Torsten
Wiesel以及RogerSperry。前兩位的主要貢獻(xiàn),是“發(fā)現(xiàn)了視覺(jué)系統(tǒng)的信息處理機(jī)制”,發(fā)現(xiàn)可視皮層是分級(jí)的。如“人見(jiàn)到蛇的情景”?,F(xiàn)在是22頁(yè)\一共有84頁(yè)\編輯于星期五現(xiàn)在是23頁(yè)\一共有84頁(yè)\編輯于星期五1.3人腦視覺(jué)機(jī)理我們看看他們做了什么。1958年,DavidHubel和TorstenWiesel在JohnHopkinsUniversity研究了瞳孔區(qū)域與大腦皮層神經(jīng)元的對(duì)應(yīng)關(guān)系。他們?cè)谪埖暮竽X頭骨上開(kāi)了一個(gè)3毫米的小洞,向洞里插入電極,測(cè)量神經(jīng)元的活躍程度。然后,他們?cè)谛∝埖难矍?,展現(xiàn)各種形狀、各種亮度的物體。并且,在展現(xiàn)每一件物體時(shí),還改變物體放置的位置和角度。他們期望通過(guò)這個(gè)辦法,讓小貓瞳孔感受不同類型、不同強(qiáng)弱的刺激?,F(xiàn)在是24頁(yè)\一共有84頁(yè)\編輯于星期五1.3人腦視覺(jué)機(jī)理之所以做這個(gè)試驗(yàn),目的是去證明一個(gè)猜測(cè):位于后腦皮層的不同視覺(jué)神經(jīng)元,與瞳孔所受刺激之間,存在某種對(duì)應(yīng)關(guān)系。一旦瞳孔受到某一種刺激,后腦皮層的某一部分神經(jīng)元就會(huì)活躍。經(jīng)歷了很多天反復(fù)的枯燥的試驗(yàn),同時(shí)犧牲了若干只可憐的小貓,DavidHubel和TorstenWiesel發(fā)現(xiàn)了一種被稱為“方向選擇性細(xì)胞(OrientationSelectiveCell)”的神經(jīng)元細(xì)胞。當(dāng)瞳孔發(fā)現(xiàn)了眼前的物體的邊緣,而且這個(gè)邊緣指向某個(gè)方向時(shí),這種神經(jīng)元細(xì)胞就會(huì)活躍。這個(gè)發(fā)現(xiàn)激發(fā)了人們對(duì)于神經(jīng)系統(tǒng)的進(jìn)一步思考。神經(jīng)-中樞-大腦的工作過(guò)程,或許是一個(gè)不斷迭代、不斷抽象的過(guò)程?,F(xiàn)在是25頁(yè)\一共有84頁(yè)\編輯于星期五1.3人腦視覺(jué)機(jī)理這里的關(guān)鍵詞有兩個(gè),一個(gè)是抽象,一個(gè)是迭代。從原始信號(hào),做低級(jí)抽象,逐漸向高級(jí)抽象迭代。人類的邏輯思維,經(jīng)常使用高度抽象的概念。例如,從原始信號(hào)攝入開(kāi)始(瞳孔攝入像素Pixels),接著做初步處理(大腦皮層某些細(xì)胞發(fā)現(xiàn)邊緣和方向),然后抽象(大腦判定,眼前的物體的形狀,是圓形的),然后進(jìn)一步抽象(大腦進(jìn)一步判定該物體是只氣球)。再比如人臉識(shí)別,如下圖:現(xiàn)在是26頁(yè)\一共有84頁(yè)\編輯于星期五現(xiàn)在是27頁(yè)\一共有84頁(yè)\編輯于星期五1.3人腦視覺(jué)機(jī)理這個(gè)生理學(xué)的發(fā)現(xiàn),促成了計(jì)算機(jī)人工智能在四十年后的突破性發(fā)展??偟膩?lái)說(shuō),人的視覺(jué)系統(tǒng)的信息處理是分級(jí)的。從低級(jí)的V1區(qū)提取邊緣特征,再到V2區(qū)的形狀或者目標(biāo)的部分等,再到更高層,整個(gè)目標(biāo)、目標(biāo)的行為等。也就是說(shuō)高層的特征是低層特征的組合,從低層到高層的特征表示越來(lái)越抽象,越來(lái)越能表現(xiàn)語(yǔ)義或者意圖。而抽象層面越高,存在的可能猜測(cè)就越少,就越利于分類。例如,單詞集合和句子的對(duì)應(yīng)是多對(duì)一的,句子和語(yǔ)義的對(duì)應(yīng)又是多對(duì)一的,語(yǔ)義和意圖的對(duì)應(yīng)還是多對(duì)一的,這是個(gè)層級(jí)體系?,F(xiàn)在是28頁(yè)\一共有84頁(yè)\編輯于星期五1.3人腦視覺(jué)機(jī)理敏感的人注意到這個(gè)關(guān)鍵詞了:分層。而Deeplearning的deep是不是就表示我存在多少層,也就是多深呢?對(duì)。那Deeplearning是如何借鑒這個(gè)過(guò)程的呢?畢竟是歸于計(jì)算機(jī)來(lái)處理,面對(duì)的一個(gè)問(wèn)題就是怎么對(duì)這個(gè)過(guò)程進(jìn)行建模?因?yàn)槲覀円獙W(xué)習(xí)的是特征的表達(dá),那么關(guān)于特征,或者說(shuō)關(guān)于這個(gè)層級(jí)特征,我們需要了解地更深入點(diǎn)。所以在說(shuō)DeepLearning之前,我們下面有必要解釋一下特征?,F(xiàn)在是29頁(yè)\一共有84頁(yè)\編輯于星期五1.4關(guān)于特征特征是機(jī)器學(xué)習(xí)系統(tǒng)的原材料,對(duì)最終模型的影響是毋庸置疑的。如果數(shù)據(jù)被很好地表達(dá)成了特征,通常線性模型就能達(dá)到滿意的精度。那對(duì)于特征,我們需要考慮什么呢?現(xiàn)在是30頁(yè)\一共有84頁(yè)\編輯于星期五1.4關(guān)于特征1.4.1
特征表示的粒度1.4.2
初級(jí)(淺層)特征表示1.4.3
結(jié)構(gòu)性特征表示1.4.4
需要有多少個(gè)特征現(xiàn)在是31頁(yè)\一共有84頁(yè)\編輯于星期五1.4.1
特征表示的粒度學(xué)習(xí)算法在一個(gè)什么粒度上的特征表示,才有能發(fā)揮作用?就一個(gè)圖片來(lái)說(shuō),像素級(jí)的特征根本沒(méi)有價(jià)值。例如上面的摩托車,從像素級(jí)別,根本得不到任何信息,其無(wú)法進(jìn)行摩托車和非摩托車的區(qū)分?,F(xiàn)在是32頁(yè)\一共有84頁(yè)\編輯于星期五1.4.1
特征表示的粒度而如果特征是一個(gè)具有結(jié)構(gòu)性(或者說(shuō)有含義)的時(shí)候,比如是否具有車把手(handle),是否具有車輪(wheel),就很容易把摩托車和非摩托車區(qū)分開(kāi)來(lái),學(xué)習(xí)算法才能發(fā)揮作用?,F(xiàn)在是33頁(yè)\一共有84頁(yè)\編輯于星期五1.4.2
初級(jí)(淺層)特征表示既然像素級(jí)的特征表示方法沒(méi)有作用,那怎樣的表示才有用呢?1995年前后,BrunoOlshausen和DavidField兩位學(xué)者任職CornellUniversity,他們?cè)噲D同時(shí)用生理學(xué)和計(jì)算機(jī)的手段,雙管齊下,研究視覺(jué)問(wèn)題。他們收集了很多黑白風(fēng)景照片,從這些照片中,提取出400個(gè)小碎片,每個(gè)小碎片的尺寸均為16x16像素,不妨把這400個(gè)碎片標(biāo)記為S[i],i=0,..399。接下來(lái),再?gòu)倪@些黑白風(fēng)景照片中,隨機(jī)提取另一個(gè)碎片,尺寸也是16x16像素,不妨把這個(gè)碎片標(biāo)記為
T。現(xiàn)在是34頁(yè)\一共有84頁(yè)\編輯于星期五1.4.2
初級(jí)(淺層)特征表示他們提出的問(wèn)題是,如何從這400個(gè)碎片中,選取一組碎片S[k],通過(guò)疊加的辦法,合成出一個(gè)新的碎片,而這個(gè)新的碎片應(yīng)當(dāng)與隨機(jī)選擇的目標(biāo)碎片T盡可能相似,同時(shí),S[k]的數(shù)量盡可能少。用數(shù)學(xué)的語(yǔ)言來(lái)描述,就是:Sum_k(a[k]*S[k])-->T,
其中a[k]是在疊加碎片S[k]時(shí)的權(quán)重系數(shù)。為解決這個(gè)問(wèn)題,BrunoOlshausen和DavidField發(fā)明了一個(gè)算法,稀疏編碼(SparseCoding)?,F(xiàn)在是35頁(yè)\一共有84頁(yè)\編輯于星期五1.4.2
初級(jí)(淺層)特征表示稀疏編碼是一個(gè)重復(fù)迭代的過(guò)程,每次迭代分兩步:1)選擇一組S[k],然后調(diào)整a[k],使得Sum_k(a[k]*S[k])最接近T;2)固定住a[k],在400個(gè)碎片中,選擇其它更合適的碎片S’[k],替代原先的S[k],使得Sum_k(a[k]*S’[k])最接近T
。經(jīng)過(guò)幾次迭代后,最佳的S[k]組合被遴選出來(lái)。令人驚奇的是,被選中的S[k]基本上都是照片上不同物體的邊緣線,這些線段形狀相似,區(qū)別在于方向?,F(xiàn)在是36頁(yè)\一共有84頁(yè)\編輯于星期五1.4.2
初級(jí)(淺層)特征表示BrunoOlshausen和DavidField的算法結(jié)果,與DavidHubel和TorstenWiesel的生理發(fā)現(xiàn),不謀而合!也就是說(shuō),復(fù)雜圖形往往由一些基本結(jié)構(gòu)組成。比如下圖:一個(gè)圖可以通過(guò)用64種正交的edges(可以理解成正交的基本結(jié)構(gòu))來(lái)線性表示。比如樣例的x可以用1-64個(gè)edges中的三個(gè)按照0.8,0.3,0.5的權(quán)重調(diào)和而成。而其他基本edge沒(méi)有貢獻(xiàn),因此均為0?,F(xiàn)在是37頁(yè)\一共有84頁(yè)\編輯于星期五現(xiàn)在是38頁(yè)\一共有84頁(yè)\編輯于星期五1.4.2
初級(jí)(淺層)特征表示另外,許多專家還發(fā)現(xiàn),不僅圖像存在這個(gè)規(guī)律,聲音也存在。他們從未標(biāo)注的聲音中發(fā)現(xiàn)了20種基本的聲音結(jié)構(gòu),其余的聲音可以由這20種基本結(jié)構(gòu)合成?,F(xiàn)在是39頁(yè)\一共有84頁(yè)\編輯于星期五現(xiàn)在是40頁(yè)\一共有84頁(yè)\編輯于星期五1.4.3
結(jié)構(gòu)性特征表示小塊的圖形可以由基本edge構(gòu)成,更結(jié)構(gòu)化,更復(fù)雜的,具有概念性的圖形如何表示呢?這就需要更高層次的特征表示,比如V2,V4。因此V1看像素級(jí)是像素級(jí)。V2看V1是像素級(jí),這個(gè)是層次遞進(jìn)的,高層表達(dá)由底層表達(dá)的組合而成。專業(yè)點(diǎn)說(shuō)就是基basis。V1區(qū)提出的basis是邊緣,然后V2層是V1層這些basis的組合,這時(shí)候V2區(qū)得到的又是高一層的basis,上上層又是上一層的組合basis結(jié)果...所以有專家說(shuō)Deeplearning就是“搞基”,因?yàn)殡y聽(tīng),所以美其名曰Deeplearning或者UnsupervisedFeatureLearning.現(xiàn)在是41頁(yè)\一共有84頁(yè)\編輯于星期五1.4.3
結(jié)構(gòu)性特征表示直觀上說(shuō),就是找到有意義的小碎片(patch),再將其進(jìn)行組合(combine),就得到了上一層的特征(feature),遞歸地向上學(xué)習(xí)特征(learningfeature)。現(xiàn)在是42頁(yè)\一共有84頁(yè)\編輯于星期五1.4.3
結(jié)構(gòu)性特征表示在不同對(duì)象(object)上做訓(xùn)練時(shí),所得的邊緣基(edgebasis)是非常相似的,但對(duì)象部分(objectparts)和模式(models)
完全不同。這樣便于圖像的準(zhǔn)確識(shí)別?,F(xiàn)在是43頁(yè)\一共有84頁(yè)\編輯于星期五1.4.3
結(jié)構(gòu)性特征表示
從文本來(lái)說(shuō),一個(gè)doc文檔表示什么意思?我們描述一件事情,用什么來(lái)表示比較合適?用一個(gè)一個(gè)字嘛?不是,字就是像素級(jí)別了,起碼應(yīng)該是term(術(shù)語(yǔ)/詞組),換句話說(shuō)每個(gè)doc都由term構(gòu)成;但這樣表示概念的能力就夠了嘛,可能也不夠,需要再上一步,達(dá)到topic級(jí),有了topic,再到doc就合理。但每個(gè)層次的數(shù)量差距很大,比如doc表示的概念->topic(千-萬(wàn)量級(jí))->term(10萬(wàn)量級(jí))->word(百萬(wàn)量級(jí))。一個(gè)人在看一個(gè)doc的時(shí)候,眼睛看到的是word,由這些word在大腦里自動(dòng)切詞形成term,在按照概念組織的方式,先驗(yàn)的學(xué)習(xí),得到topic,然后再進(jìn)行高層次的learning?,F(xiàn)在是44頁(yè)\一共有84頁(yè)\編輯于星期五1.4.4
需要有多少個(gè)特征我們知道需要層次的特征構(gòu)建,由淺入深,但每一層該有多少個(gè)特征呢?任何一種方法,特征越多,給出的參考信息就越多,準(zhǔn)確性會(huì)得到提升。但特征多意味著計(jì)算復(fù)雜,探索的空間大,可以用來(lái)訓(xùn)練的數(shù)據(jù)在每個(gè)特征上就會(huì)稀疏,都會(huì)帶來(lái)各種問(wèn)題,并不一定特征越多越好。現(xiàn)在是45頁(yè)\一共有84頁(yè)\編輯于星期五現(xiàn)在是46頁(yè)\一共有84頁(yè)\編輯于星期五小結(jié)上面我們談到為什么會(huì)有Deeplearning(讓機(jī)器自動(dòng)學(xué)習(xí)良好的特征,而免去人工選取過(guò)程。還有參考人的分層視覺(jué)處理系統(tǒng)),我們得到一個(gè)結(jié)論就是Deeplearning需要多層來(lái)獲得更抽象的特征表達(dá)。那么多少層才合適呢?用什么架構(gòu)來(lái)建模呢?怎么進(jìn)行非監(jiān)督訓(xùn)練呢?現(xiàn)在是47頁(yè)\一共有84頁(yè)\編輯于星期五1.5深度學(xué)習(xí)的基本思想假設(shè)我們有一個(gè)系統(tǒng)S,它有n層(S1,…Sn),它的輸入是I,輸出是O,形象地表示為:I=>S1=>S2=>…..=>Sn=>O,如果輸出O等于輸入I,即輸入I經(jīng)過(guò)這個(gè)系統(tǒng)變化之后沒(méi)有任何的信息損失。這意味著輸入I經(jīng)過(guò)每一層Si都沒(méi)有任何的信息損失,即在任何一層Si,它都是原有信息(即輸入I)的另外一種表示。現(xiàn)在回到我們的主題DeepLearning,我們需要自動(dòng)地學(xué)習(xí)特征,假設(shè)我們有一堆輸入I(如一堆圖像或者文本),假設(shè)我們?cè)O(shè)計(jì)了一個(gè)系統(tǒng)S(有n層),我們通過(guò)調(diào)整系統(tǒng)中參數(shù),使得它的輸出仍然是輸入I,那么我們就可以自動(dòng)地獲取得到輸入I的一系列層次特征,即S1,…,Sn?,F(xiàn)在是48頁(yè)\一共有84頁(yè)\編輯于星期五1.5深度學(xué)習(xí)的基本思想對(duì)于深度學(xué)習(xí)來(lái)說(shuō),其思想就是對(duì)堆疊多個(gè)層,也就是說(shuō)這一層的輸出作為下一層的輸入。通過(guò)這種方式,就可以實(shí)現(xiàn)對(duì)輸入信息進(jìn)行分級(jí)表達(dá)了。另外,前面是假設(shè)輸出嚴(yán)格地等于輸入,這個(gè)限制太嚴(yán)格,我們可以略微地放松這個(gè)限制,例如我們只要使得輸入與輸出的差別盡可能地小即可,這個(gè)放松會(huì)導(dǎo)致另外一類不同的DeepLearning方法。上述就是DeepLearning的基本思想?,F(xiàn)在是49頁(yè)\一共有84頁(yè)\編輯于星期五1.6淺層學(xué)習(xí)和深度學(xué)習(xí)1.6.1淺層學(xué)習(xí)(ShallowLearning):機(jī)器學(xué)習(xí)第一次浪潮1.6.2深度學(xué)習(xí)(DeepLearning):機(jī)器學(xué)習(xí)第二次浪潮現(xiàn)在是50頁(yè)\一共有84頁(yè)\編輯于星期五1.6.1淺層學(xué)習(xí):機(jī)器學(xué)習(xí)第一次浪潮20世紀(jì)80年代末期,用于人工神經(jīng)網(wǎng)絡(luò)的反向傳播算法(也叫BackPropagation算法或者BP算法)的發(fā)明,給機(jī)器學(xué)習(xí)帶來(lái)了希望,掀起了基于統(tǒng)計(jì)模型的機(jī)器學(xué)習(xí)熱潮。這個(gè)熱潮一直持續(xù)到今天。人們發(fā)現(xiàn),利用BP算法可以讓一個(gè)人工神經(jīng)網(wǎng)絡(luò)模型從大量訓(xùn)練樣本中學(xué)習(xí)統(tǒng)計(jì)規(guī)律,從而對(duì)未知事件做預(yù)測(cè)。這種基于統(tǒng)計(jì)的機(jī)器學(xué)習(xí)方法比起過(guò)去基于人工規(guī)則的系統(tǒng),在很多方面顯出優(yōu)越性。這個(gè)時(shí)候的人工神經(jīng)網(wǎng)絡(luò),雖也被稱作多層感知機(jī)(Multi-layerPerceptron),但實(shí)際是一種只含有一層隱層節(jié)點(diǎn)的淺層模型?,F(xiàn)在是51頁(yè)\一共有84頁(yè)\編輯于星期五1.6.1淺層學(xué)習(xí):機(jī)器學(xué)習(xí)第一次浪潮20世紀(jì)90年代,各種各樣的淺層機(jī)器學(xué)習(xí)模型相繼被提出,例如支撐向量機(jī)(SVM,SupportVectorMachines)、Boosting、最大熵方法(如LR,LogisticRegression)等。這些模型的結(jié)構(gòu)基本上可以看成帶有一層隱層節(jié)點(diǎn)(如SVM、Boosting),或沒(méi)有隱層節(jié)點(diǎn)(如LR)。這些模型無(wú)論是在理論分析還是應(yīng)用中都獲得了巨大的成功。相比之下,由于理論分析的難度大,訓(xùn)練方法又需要很多經(jīng)驗(yàn)和技巧,這個(gè)時(shí)期深度人工神經(jīng)網(wǎng)絡(luò)反而相對(duì)沉寂。現(xiàn)在是52頁(yè)\一共有84頁(yè)\編輯于星期五1.6.2深度學(xué)習(xí):機(jī)器學(xué)習(xí)第二次浪潮2006年,加拿大多倫多大學(xué)教授、機(jī)器學(xué)習(xí)領(lǐng)域的泰斗GeoffreyHinton和他的學(xué)生Ruslan
Salak
hutdinov在國(guó)際頂級(jí)期刊《科學(xué)》上發(fā)表了一篇文章,開(kāi)啟了深度學(xué)習(xí)在學(xué)術(shù)界和工業(yè)界的浪潮。這篇文章有兩個(gè)主要觀點(diǎn):1)多隱層的人工神經(jīng)網(wǎng)絡(luò)具有優(yōu)異的特征學(xué)習(xí)能力,學(xué)習(xí)得到的特征對(duì)數(shù)據(jù)有更本質(zhì)的刻畫(huà),從而有利于可視化或分類;2)深度神經(jīng)網(wǎng)絡(luò)在訓(xùn)練上的難度,可以通過(guò)“逐層初始化”(layer-wisepre-training)來(lái)有效克服,在這篇文章中,逐層初始化是通過(guò)無(wú)監(jiān)督學(xué)習(xí)實(shí)現(xiàn)的。現(xiàn)在是53頁(yè)\一共有84頁(yè)\編輯于星期五當(dāng)前多數(shù)分類、回歸等學(xué)習(xí)方法為淺層結(jié)構(gòu)算法,其局限性在于有限樣本和計(jì)算單元情況下對(duì)復(fù)雜函數(shù)的表示能力有限,針對(duì)復(fù)雜分類問(wèn)題其泛化能力受到一定制約。深度學(xué)習(xí)可通過(guò)學(xué)習(xí)一種深層非線性網(wǎng)絡(luò)結(jié)構(gòu),實(shí)現(xiàn)復(fù)雜函數(shù)逼近,表征輸入數(shù)據(jù)分布式表示,并展現(xiàn)了強(qiáng)大的從少數(shù)樣本中集中學(xué)習(xí)數(shù)據(jù)集本質(zhì)特征的能力。(多層的好處是可以用較少的參數(shù)表示復(fù)雜的函數(shù))1.6.2深度學(xué)習(xí):機(jī)器學(xué)習(xí)第二次浪潮現(xiàn)在是54頁(yè)\一共有84頁(yè)\編輯于星期五1.6.2深度學(xué)習(xí):機(jī)器學(xué)習(xí)第二次浪潮現(xiàn)在是55頁(yè)\一共有84頁(yè)\編輯于星期五深度學(xué)習(xí)的實(shí)質(zhì),是通過(guò)構(gòu)建具有很多隱層的機(jī)器學(xué)習(xí)模型和海量的訓(xùn)練數(shù)據(jù),來(lái)學(xué)習(xí)更有用的特征,從而最終提升分類或預(yù)測(cè)的準(zhǔn)確性。因此,“深度模型”是手段,“特征學(xué)習(xí)”是目的。區(qū)別于傳統(tǒng)的淺層學(xué)習(xí),深度學(xué)習(xí)的不同在于:1)強(qiáng)調(diào)了模型結(jié)構(gòu)的深度,通常有5層、6層,甚至10多層的隱層節(jié)點(diǎn);2)明確突出了特征學(xué)習(xí)的重要性,也就是說(shuō),通過(guò)逐層特征變換,將樣本在原空間的特征表示變換到一個(gè)新特征空間,從而使分類或預(yù)測(cè)更加容易。與人工規(guī)則構(gòu)造特征的方法相比,利用大數(shù)據(jù)來(lái)學(xué)習(xí)特征,更能夠刻畫(huà)數(shù)據(jù)的豐富內(nèi)在信息。1.6.2深度學(xué)習(xí):機(jī)器學(xué)習(xí)第二次浪潮現(xiàn)在是56頁(yè)\一共有84頁(yè)\編輯于星期五1.7Deeplearning與NeuralNetwork深度學(xué)習(xí)是機(jī)器學(xué)習(xí)研究中的一個(gè)新的領(lǐng)域,其動(dòng)機(jī)在于建立、模擬人腦進(jìn)行分析學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò),它模仿人腦的機(jī)制來(lái)解釋數(shù)據(jù),例如圖像,聲音和文本。深度學(xué)習(xí)是無(wú)監(jiān)督學(xué)習(xí)的一種。深度學(xué)習(xí)的概念源于人工神經(jīng)網(wǎng)絡(luò)的研究。含多隱層的多層感知器就是一種深度學(xué)習(xí)結(jié)構(gòu)。深度學(xué)習(xí)通過(guò)組合低層特征形成更加抽象的高層表示屬性類別或特征,以發(fā)現(xiàn)數(shù)據(jù)的分布式特征表示。現(xiàn)在是57頁(yè)\一共有84頁(yè)\編輯于星期五Deeplearning本身算是machinelearning的一個(gè)分支,簡(jiǎn)單可以理解為neuralnetwork的發(fā)展。大約二三十年前,neuralnetwork曾經(jīng)是ML領(lǐng)域特別火熱的一個(gè)方向,但是后來(lái)確慢慢淡出了,原因包括以下幾個(gè)方面:1)比較容易過(guò)擬合,參數(shù)比較難調(diào)整,而且需要不少竅門(mén);2)訓(xùn)練速度比較慢,在層次比較少(小于等于3)的情況下效果并不比其它方法更優(yōu);1.7Deeplearning與NeuralNetwork現(xiàn)在是58頁(yè)\一共有84頁(yè)\編輯于星期五所以中間有大約20多年的時(shí)間,神經(jīng)網(wǎng)絡(luò)被關(guān)注很少,這段時(shí)間基本上是SVM和boosting算法的天下。但是,一個(gè)癡心的老先生Hinton,他堅(jiān)持了下來(lái),并最終(和其它人一起B(yǎng)engio、Yann.lecun等)提成了一個(gè)實(shí)際可行的deeplearning框架。1.7Deeplearning與NeuralNetwork現(xiàn)在是59頁(yè)\一共有84頁(yè)\編輯于星期五Deeplearning與傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)之間有相同的地方也有很多不同。相同點(diǎn):deeplearning采用了神經(jīng)網(wǎng)絡(luò)相似的分層結(jié)構(gòu),系統(tǒng)由包括輸入層、隱層(多層)、輸出層組成的多層網(wǎng)絡(luò),只有相鄰層節(jié)點(diǎn)之間有連接,同一層以及跨層節(jié)點(diǎn)之間相互無(wú)連接,每一層可以看作是一個(gè)邏輯回歸模型;這種分層結(jié)構(gòu),是比較接近人類大腦的結(jié)構(gòu)的。1.7Deeplearning與NeuralNetwork現(xiàn)在是60頁(yè)\一共有84頁(yè)\編輯于星期五1.7Deeplearning與NeuralNetwork現(xiàn)在是61頁(yè)\一共有84頁(yè)\編輯于星期五而為了克服神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的問(wèn)題,DL采用了與神經(jīng)網(wǎng)絡(luò)很不同的訓(xùn)練機(jī)制。傳統(tǒng)神經(jīng)網(wǎng)絡(luò)中,采用的是反向傳播(BP)的方式進(jìn)行。即采用迭代的算法來(lái)訓(xùn)練整個(gè)網(wǎng)絡(luò),隨機(jī)設(shè)定初值,計(jì)算當(dāng)前網(wǎng)絡(luò)的輸出,然后根據(jù)當(dāng)前計(jì)算的輸出值和實(shí)際的標(biāo)記值之間的差去改變前面各層的參數(shù),直到收斂(整體是一個(gè)梯度下降法)。deeplearning整體上是一個(gè)layer-wise的訓(xùn)練機(jī)制。這樣做的原因是因?yàn)?,如果采用backpropagation的機(jī)制,對(duì)于一個(gè)deepnetwork(7層以上),殘差傳播到最前面的層已經(jīng)變得太小,出現(xiàn)所謂的gradientdiffusion(梯度擴(kuò)散)。這個(gè)問(wèn)題在后面有所討論。Deeplearning與NeuralNetwork異同現(xiàn)在是62頁(yè)\一共有84頁(yè)\編輯于星期五1.8Deeplearning訓(xùn)練過(guò)程1.8.1傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的訓(xùn)練方法為什么不能用在深度神經(jīng)網(wǎng)絡(luò)1.8.2deeplearning訓(xùn)練過(guò)程現(xiàn)在是63頁(yè)\一共有84頁(yè)\編輯于星期五1.8.1傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的訓(xùn)練方法為什么不能用在深度神經(jīng)網(wǎng)絡(luò)BP算法作為傳統(tǒng)訓(xùn)練多層網(wǎng)絡(luò)的典型算法,實(shí)際上對(duì)僅含幾層網(wǎng)絡(luò),該訓(xùn)練方法就已經(jīng)很不理想。深度結(jié)構(gòu)(涉及多個(gè)非線性處理單元層)非凸目標(biāo)代價(jià)函數(shù)中普遍存在的局部最小是訓(xùn)練困難的主要來(lái)源?,F(xiàn)在是64頁(yè)\一共有84頁(yè)\編輯于星期五BP算法存在的問(wèn)題:(1)梯度越來(lái)越稀疏:從頂層越往下,誤差校正信號(hào)越來(lái)越?。唬?)收斂到局部最小值:尤其是從遠(yuǎn)離最優(yōu)區(qū)域開(kāi)始的時(shí)候(隨機(jī)值初始化會(huì)導(dǎo)致這種情況的發(fā)生);(3)一般,我們只能用有標(biāo)簽的數(shù)據(jù)來(lái)訓(xùn)練:但大部分的數(shù)據(jù)是沒(méi)標(biāo)簽的,而大腦可以從沒(méi)有標(biāo)簽的數(shù)據(jù)中學(xué)習(xí);1.8.1傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的訓(xùn)練方法為什么不能用在深度神經(jīng)網(wǎng)絡(luò)現(xiàn)在是65頁(yè)\一共有84頁(yè)\編輯于星期五1.8.2deeplearning訓(xùn)練過(guò)程如果對(duì)所有層同時(shí)訓(xùn)練,時(shí)間復(fù)雜度會(huì)太高;如果每次訓(xùn)練一層,偏差就會(huì)逐層傳遞。這會(huì)面臨跟上面監(jiān)督學(xué)習(xí)中相反的問(wèn)題,會(huì)嚴(yán)重欠擬合(因?yàn)樯疃染W(wǎng)絡(luò)的神經(jīng)元和參數(shù)太多了)?,F(xiàn)在是66頁(yè)\一共有84頁(yè)\編輯于星期五1.8.2deeplearning訓(xùn)練過(guò)程2006年,hinton提出了在非監(jiān)督數(shù)據(jù)上建立多層神經(jīng)網(wǎng)絡(luò)的一個(gè)有效方法,簡(jiǎn)單的說(shuō),分為兩步,一是每次訓(xùn)練一層網(wǎng)絡(luò),二是調(diào)優(yōu),使原始表示x向上生成的高級(jí)表示r和該高級(jí)表示r向下生成的x'盡可能一致。方法是:1)首先逐層構(gòu)建單層神經(jīng)元,這樣每次都是訓(xùn)練一個(gè)單層網(wǎng)絡(luò)。2)當(dāng)所有層訓(xùn)練完后,Hinton使用wake-sleep算法進(jìn)行調(diào)優(yōu)?,F(xiàn)在是67頁(yè)\一共有84頁(yè)\編輯于星期五1.8.2deeplearning訓(xùn)練過(guò)程將除最頂層的其它層間的權(quán)重變?yōu)殡p向的,這樣最頂層仍然是一個(gè)單層神經(jīng)網(wǎng)絡(luò),而其它層則變?yōu)榱藞D模型。向上的權(quán)重用于“認(rèn)知”,向下的權(quán)重用于“生成”。然后使用Wake-Sleep算法調(diào)整所有的權(quán)重。讓認(rèn)知和生成達(dá)成一致,也就是保證生成的最頂層表示能夠盡可能正確的復(fù)原底層的結(jié)點(diǎn)。比如頂層的一個(gè)結(jié)點(diǎn)表示人臉,那么所有人臉的圖像應(yīng)該激活這個(gè)結(jié)點(diǎn),并且這個(gè)結(jié)果向下生成的圖像應(yīng)該能夠表現(xiàn)為一個(gè)大概的人臉圖像。現(xiàn)在是68頁(yè)\一共有84頁(yè)\編輯于星期五1.8.2deeplearning訓(xùn)練過(guò)程Wake-Sleep算法分為醒(wake)和睡(sleep)兩個(gè)部分。1)wake階段:認(rèn)知過(guò)程(從現(xiàn)實(shí)到概念),通過(guò)外界的特征和向上的權(quán)重(認(rèn)知權(quán)重)產(chǎn)生每一層的抽象表示(結(jié)點(diǎn)狀態(tài)),并且使用梯度下降修改層間的下行權(quán)重(生成權(quán)重)。如:“如果現(xiàn)實(shí)跟我想象的不一樣,改變我的權(quán)重使得我想象的東西就是這樣的”?,F(xiàn)在是69頁(yè)\一共有84頁(yè)\編輯于星期五1.8.2deeplearning訓(xùn)練過(guò)程2)sleep階段:生成過(guò)程(從概念到現(xiàn)實(shí)),通過(guò)頂層表示(醒時(shí)學(xué)得的概念)和向下權(quán)重(生成權(quán)重),生成底層的狀態(tài),同時(shí)修改層間向上的權(quán)重。如:“如果夢(mèng)中的景象不是我腦中的相應(yīng)概念,改變我的向上的權(quán)重(認(rèn)知權(quán)重)使得這種景象在我看來(lái)就是這個(gè)概念”。現(xiàn)在是70頁(yè)\一共有84頁(yè)\編輯于星期五deeplearning具體訓(xùn)練過(guò)程1)使用自下上升非監(jiān)督學(xué)習(xí)(就是從底層開(kāi)始,一層一層的往頂層訓(xùn)練)2)自頂向下的監(jiān)督學(xué)習(xí)(就是通過(guò)帶標(biāo)簽的數(shù)據(jù)去訓(xùn)練,誤差自頂向下傳輸,對(duì)網(wǎng)絡(luò)進(jìn)行微調(diào))現(xiàn)在是71頁(yè)\一共有84頁(yè)\編輯于星期五1)使用自下上升非監(jiān)督學(xué)習(xí)采用無(wú)標(biāo)定數(shù)據(jù)(有標(biāo)定數(shù)據(jù)也可)分層訓(xùn)練各層參數(shù),這一步可以看作是一個(gè)無(wú)監(jiān)督訓(xùn)練過(guò)程,是和傳統(tǒng)神經(jīng)網(wǎng)絡(luò)區(qū)別最大的部分(這個(gè)過(guò)程可以看作是featurelearning過(guò)程):具體的,先用無(wú)標(biāo)定數(shù)據(jù)訓(xùn)練第一層,訓(xùn)練時(shí)先學(xué)習(xí)第一層的參數(shù)(這一層可以看作是得到一個(gè)使得輸出和輸入差別最小的三層神經(jīng)網(wǎng)絡(luò)的隱層),由于模型capacity的限制以及稀疏性約束,使得得到的模型能夠?qū)W習(xí)到數(shù)據(jù)本身的結(jié)構(gòu),從而得到比輸入更具有表示能力的特征;在學(xué)習(xí)得到第n-1層后,將n-1層的輸出作為第n層的輸入,訓(xùn)練第n層,由此分別得到各層的參數(shù);現(xiàn)在是72頁(yè)\一共有84頁(yè)\編輯于星期五2)自頂向下的監(jiān)督學(xué)習(xí)基于第一步得到的各層參數(shù)進(jìn)一步調(diào)整整個(gè)多層模型的參數(shù),這一步是一個(gè)有監(jiān)督訓(xùn)練過(guò)程;第一步類似神經(jīng)網(wǎng)絡(luò)的隨機(jī)初始化初值過(guò)程,由于DL的第一步不是隨機(jī)初始化,而是通過(guò)學(xué)習(xí)輸入數(shù)據(jù)的結(jié)構(gòu)得到的,因而這個(gè)初值更接近全局最優(yōu),從而能夠取得更好的效果;所以,deeplearning效果好很大程度上歸功于第一步的featurelearning過(guò)程?,F(xiàn)在是73頁(yè)\一共有84頁(yè)\編輯于星期五1.9DeepLearning的常用模型或者方法1.9.1AutoEncoder
自動(dòng)編碼器1.9.2SparseCoding
稀疏編碼1.9.3RestrictedBoltzmannMachine(RBM)
限制波爾茲曼機(jī)1.9.4DeepBeliefNetworks深度信念網(wǎng)絡(luò)1.9.5ConvolutionalNeuralNetworks卷積神經(jīng)網(wǎng)絡(luò)現(xiàn)在是74頁(yè)\一共有84頁(yè)\編輯于星期五1.9.1AutoEncoder
自動(dòng)編碼器DeepLearning最簡(jiǎn)單的一種方法是利用人工神經(jīng)網(wǎng)絡(luò)的特點(diǎn),人工神經(jīng)網(wǎng)絡(luò)(ANN)本身就是具有層次結(jié)構(gòu)的系統(tǒng),如果給定一個(gè)神經(jīng)網(wǎng)絡(luò),我們假設(shè)其輸出與輸入是相同的,然后訓(xùn)練調(diào)整其參數(shù),得到每一層中的權(quán)重。自然地,我們就得到了輸入I的幾種不同表示(每一層代表一種表示),這些表示就是特征。自動(dòng)編碼器就是一種盡可能復(fù)現(xiàn)輸入信號(hào)的神經(jīng)網(wǎng)絡(luò)。為了實(shí)現(xiàn)這種復(fù)現(xiàn),自動(dòng)編碼器就必須捕捉可以代表輸入數(shù)據(jù)的最重要的因素,就像PCA那樣,找到可以代表原信息的主要成分?,F(xiàn)在是75頁(yè)\一共有8
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 婦幼保健的基本知識(shí)與常見(jiàn)問(wèn)題解答
- 民生銀行流動(dòng)資金貸款規(guī)定
- 亂扔垃圾處罰通告文檔7篇
- 2025年會(huì)計(jì)職稱考試《初級(jí)會(huì)計(jì)實(shí)務(wù)》會(huì)計(jì)職業(yè)道德與規(guī)范專項(xiàng)練習(xí)題庫(kù)含答案
- 流式數(shù)據(jù)實(shí)時(shí)分析技術(shù)
- 老年皮膚護(hù)理
- 老年保健護(hù)理
- 老年人中醫(yī)講座課件
- 誠(chéng)意金支付與退還操作流程范本
- 山地水利工程土地租賃合同
- 2025年自然資源管理基本知識(shí)考試題目及答案
- 可信數(shù)據(jù)空間解決方案星環(huán)科技
- 2025-2030年中國(guó)L4自動(dòng)駕駛行業(yè)市場(chǎng)現(xiàn)狀供需分析及投資評(píng)估規(guī)劃分析研究報(bào)告
- 預(yù)制菜加工采購(gòu)合同協(xié)議
- 公司年度內(nèi)部控制體系自評(píng)報(bào)告
- 國(guó)家開(kāi)放大學(xué)電大24153丨學(xué)前衛(wèi)生學(xué)基礎(chǔ)(統(tǒng)設(shè)課)期末終考題庫(kù)
- 鐵路貨運(yùn)基礎(chǔ)知識(shí)課件
- 2024年武漢農(nóng)村商業(yè)銀行股份有限公司招聘考試真題
- 中國(guó)水稻種子市場(chǎng)經(jīng)營(yíng)優(yōu)勢(shì)與發(fā)展趨勢(shì)前景分析研究報(bào)告
- 學(xué)校空調(diào)維修合同書(shū)
- 銷售部門(mén)報(bào)價(jià)管理制度
評(píng)論
0/150
提交評(píng)論