37.深度學(xué)習(xí)框架下的神經(jīng)網(wǎng)絡(luò)_第1頁
37.深度學(xué)習(xí)框架下的神經(jīng)網(wǎng)絡(luò)_第2頁
全文預(yù)覽已結(jié)束

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1、深度學(xué)習(xí)框架下的神經(jīng)網(wǎng)絡(luò)2018-02-17左右互搏:生成式對(duì)抗網(wǎng)絡(luò)|深度學(xué)習(xí)框架下的神經(jīng)網(wǎng)絡(luò) | 左右互搏:生成式對(duì)抗網(wǎng)絡(luò)朗讀人:1231 | 5.74M2016 執(zhí)10 月,谷歌大腦的研究者們做個(gè)有趣的實(shí)驗(yàn):使用三個(gè)并復(fù)雜的神經(jīng)網(wǎng)絡(luò)通信的任務(wù),兩個(gè)合法通信方共享的只有的密鑰,而沒有商定的加算法,第三個(gè)神經(jīng)網(wǎng)絡(luò)則作為者出現(xiàn)。這種配置顯然學(xué)的:無論是公鑰體制還是私鑰體制,加的算法都是已知的。如果合法通信雙方能統(tǒng)加的方法,實(shí)現(xiàn)通信就是“巧婦難為無米之炊”??晒雀杵胚@,他們就是要讓神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)雙盲的加密與。實(shí)驗(yàn)的結(jié)果同樣令人驚訝:經(jīng)過斷的試錯(cuò)與調(diào)整,接收方可以精確恢復(fù)出發(fā)送方的明文,而者的錯(cuò)誤

2、率穩(wěn)定在 50% 左右,意味著破譯只是隨機(jī)的猜測(cè)。這個(gè)實(shí)驗(yàn)的意義在于展示出神經(jīng)網(wǎng)絡(luò)的潛能:它們僅能夠在欠缺先驗(yàn)規(guī)則的條件下,通過對(duì)大數(shù)據(jù)的無監(jiān)督學(xué)習(xí)完成目標(biāo),甚至還能夠在學(xué)習(xí)過程中根據(jù)實(shí)際條件的變化對(duì)完成目標(biāo)的方式進(jìn)動(dòng)態(tài)調(diào)整。這個(gè)實(shí)驗(yàn)的環(huán)境,就是在最近兩名聲大噪的生成式對(duì)抗網(wǎng)絡(luò)。生成式對(duì)抗網(wǎng)絡(luò)(generativeadversarial network)由深度學(xué)習(xí)的第作者伊安古提出,這是類在無監(jiān)督學(xué)習(xí)中使用的人工智能算法,由兩個(gè)在零和框架下相互競(jìng)爭(zhēng)的神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)。“零和”(zero-sum game)這個(gè)術(shù)語來自于博弈論,意思是博弈雙方的益之和為零。由于方的收益必然意味著另方的損失,因而雙方可

3、能實(shí)現(xiàn)合作,屬于非合作博弈。生成式對(duì)抗網(wǎng)絡(luò)的兩個(gè)玩家個(gè)叫生成(generator), 個(gè)叫判別(discriminator),均可以采用深度神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn),這兩者之間的對(duì)抗就是網(wǎng)絡(luò)訓(xùn)練的主旋。生成像是白骨精,想方設(shè)法從隨機(jī)噪聲中模擬真實(shí)數(shù)據(jù)樣本的潛在分布,以生成以假亂真的數(shù)據(jù)樣本;判別則是,憑雙火眼睛來判斷輸入到底是人畜無害的真實(shí)數(shù)據(jù)還是生成假扮的者。零和博弈中的競(jìng)爭(zhēng)促使雙方斷進(jìn)化,直到“假作真時(shí)真亦假”,真真假假可區(qū)分為止。兩個(gè)玩家費(fèi)這么大勁對(duì)抗的目的是么呢?就是建立數(shù)據(jù)的生成模型,使生成盡可能精確估測(cè)出數(shù)據(jù)樣本的分布。從學(xué)習(xí)方式上看,對(duì)抗性學(xué)習(xí)固然屬于無監(jiān)督學(xué)習(xí),但對(duì)抗的引入使學(xué)習(xí)可以用來自

4、判別的反饋信息,因而又蘊(yùn)含著某些監(jiān)督學(xué)習(xí)的影子。由于生成和判別處于零和博弈之中,因而對(duì)網(wǎng)絡(luò)的訓(xùn)練就可以等效成對(duì)以下目標(biāo)函數(shù)的極大 - 極小問題argmingmaxD12xpdata(x)log(D(x)+pg(x)log(1D(x)dxarg mingmaxD12xpdata(x)log(D(x)+pg(x)log(1D(x)dx其中“極大”是讓判別區(qū)分真實(shí)數(shù)據(jù)和數(shù)據(jù)的準(zhǔn)確率最大化,“極小”則是讓生成生成的數(shù)據(jù)被判別發(fā)現(xiàn)的概率最小化。對(duì)整體極大 - 極小問題的優(yōu)化可以通過交替迭代訓(xùn)練的方式實(shí)現(xiàn)。交替迭代訓(xùn)練通常從判別開始,也就是在給定生成的條件下來求解最優(yōu)的判別。由于生成式對(duì)抗網(wǎng)絡(luò)使用的是基于

5、對(duì)數(shù)幾率函數(shù)的二分類判別,因而使用交叉熵作為損失函數(shù)是合的選擇。由于判別要將來自真實(shí)分布的真樣本標(biāo)注為 1,因而對(duì)數(shù)幾率函數(shù)的輸出需要越大越好;反過來,對(duì)來自生成的假樣本要標(biāo)注為 0,此時(shí)的輸出就越小越好,也就是輸出的相反數(shù)越大越好。這樣 來,對(duì)判別的優(yōu)化就轉(zhuǎn)化為求解以下目標(biāo)函數(shù)的最小值f(x)=12xpdata(x)log(D(x)+pg(x)log(1D(x)dxf(x)=12xpdata(x)log(D(x)+pg(x)log(1D(x)dx式中的 pdata(x)pdata(x) 表示數(shù)據(jù)的真實(shí)分布,pg(x)pg(x) 表示生成的數(shù)據(jù)分布,D(x)D(x)則表示判別對(duì)數(shù)據(jù) xx 的概

6、率輸出。在給定生成的條件下可以求出,使以上函數(shù)取得最小值的最優(yōu)解是D G(x)=pdata(x)pdata(x)+pg(x) DG (x)=pdata(x)pdata(x)+pg(x)這表明生成式對(duì)抗網(wǎng)絡(luò)估計(jì)的實(shí)際是兩個(gè)概率分布密度的比值。優(yōu)化完判別,就該輪到生成。對(duì)生成的優(yōu)化意味著希望判別對(duì)假樣本的輸出越大越好,因而需要優(yōu)化 pg(x)pg(x) ,以使前文目標(biāo)函數(shù)中的第二項(xiàng)最小。當(dāng)且僅當(dāng) pdata(x)=pg(x)pdata(x)=pg(x) 時(shí),整個(gè)網(wǎng)絡(luò)的目標(biāo)函數(shù)可以取得全局最優(yōu)解。這表明在算法收斂時(shí),生成學(xué)到的分布和數(shù)據(jù)的真實(shí)分布完全 致,而判別對(duì)每個(gè)樣本的輸出都等于 0.5。在生成

7、式對(duì)抗網(wǎng)絡(luò)的實(shí)際訓(xùn)練時(shí), 般采用先新多次判別的參數(shù),再對(duì)生成的參數(shù)執(zhí) 次新的方法。既然都是學(xué)習(xí)數(shù)據(jù)的分布,那生成式對(duì)抗網(wǎng)絡(luò)和其他生成模型又區(qū)別呢?首先,傳統(tǒng)的生成模型是定義模型的分布,進(jìn)而去求解參數(shù)。比如說在已知數(shù)據(jù)滿足正態(tài)分布的前提下,生成模型會(huì)通過最大似然估計(jì)等方法根據(jù)樣本來求解正態(tài)的均值和方差??梢巧扇四樐兀繘]人知道人臉滿足么樣的先驗(yàn)分布,只能通過斷嘗試來逐漸 近,這時(shí)傳統(tǒng)的生成模型就無能為。生成式對(duì)抗網(wǎng)絡(luò)好就好在擺脫對(duì)模型分布的依賴,也限制生成的維度,因而大大寬生成數(shù)據(jù)樣本的范圍。其次,生成式對(duì)抗網(wǎng)絡(luò)能夠整合同的損失函數(shù),增加設(shè)計(jì)的自由度。生成式對(duì)抗網(wǎng)絡(luò)是沒有顯式的損失函數(shù)的,之所

8、以這么說是因?yàn)樗?xùn)練的目標(biāo)是生成,判別只是訓(xùn)練過程中的副產(chǎn)品。對(duì)于生成來說,因?yàn)榕袆e被用來度生成分布和真實(shí)分布之間的偏差,所以判別其實(shí)就是它的損失函數(shù)。而作為損失函數(shù)的判別又會(huì)隨著真實(shí)分布的變化而變化。從這個(gè)角度看,生成式對(duì)抗網(wǎng)絡(luò)可以自動(dòng)學(xué)習(xí)潛在的損失函數(shù),這是傳統(tǒng)的生成模型沒法做到的。除優(yōu)點(diǎn)之外,生成式對(duì)抗網(wǎng)絡(luò)也有它。最主要的個(gè)問題就是缺乏論基礎(chǔ)?;氐轿氖啄莻€(gè)學(xué)的子:只是知道合法通信方能夠達(dá)成關(guān)于算法的共識(shí),但這個(gè)共識(shí)的達(dá)成過程還是個(gè)黑箱。關(guān)于生成為么能夠從隨機(jī)樣本出發(fā)學(xué)習(xí)到真實(shí)的數(shù)據(jù)分布也缺乏清晰的論解釋。凡此種種都讓生成式對(duì)抗網(wǎng)絡(luò)看起來像是沙上之塔。沒有堅(jiān)實(shí)的論基礎(chǔ),對(duì)算法的推廣自然存在

9、。除在圖像生成等少數(shù)領(lǐng)域表現(xiàn)突出,生成式對(duì)抗網(wǎng)絡(luò)在大多數(shù)任務(wù)上還是乏善可陳。在算法的原尚清楚時(shí),想要實(shí)現(xiàn)優(yōu)化自然是空中樓閣。生成式對(duì)抗網(wǎng)絡(luò)面臨的另個(gè)主要問題就是訓(xùn)練的難度。對(duì)抗網(wǎng)絡(luò)的訓(xùn)練目標(biāo)是在連續(xù)分布的高維度參數(shù)下達(dá)到均衡,也就是讓生成和判別的損失函數(shù)同時(shí)取得最小值。但由于待優(yōu)化可能是個(gè)非凸,直接追求均衡可能會(huì)讓算法難以收斂,從而模型的欠擬合,導(dǎo)致表示能足。生成式對(duì)抗網(wǎng)絡(luò)的提出者古針對(duì)訓(xùn)練難也提出系改進(jìn)措施,并應(yīng)用在半監(jiān)督學(xué)習(xí)問題上,取得錯(cuò)的效果。雖然優(yōu)缺點(diǎn)都很明顯,但生成式對(duì)抗網(wǎng)絡(luò)的提出依然可以看成是深度學(xué)習(xí)的次突破。給定只貓的圖片,過往的神經(jīng)網(wǎng)絡(luò)算法只能區(qū)分出它到底是是貓,還定分得準(zhǔn)確。

10、可生 成式神經(jīng)網(wǎng)絡(luò)卻能模仿現(xiàn)有的圖片畫出只類似的貓。管這是簡(jiǎn)單的數(shù)據(jù)擬合,還是加高級(jí)的抽象特征重組,它都是由機(jī)自己完成的再創(chuàng)作,這種為方式無疑加接近于真實(shí)的人類。關(guān)于生成式對(duì)抗網(wǎng)絡(luò)還有個(gè)有趣的事實(shí)。自 2014 誕生以來,各種各樣的對(duì)抗網(wǎng)絡(luò)變體層出窮,其中有名有姓的就超過 200 種,給這些變體命名讓拉丁字母都?jí)蛴???蛇@些改進(jìn)到底有多少效果呢?谷歌公司近期的項(xiàng)研究表明:沒有表明哪種變體能夠帶來實(shí)質(zhì)上的改進(jìn)。換話說,改來改去的結(jié)果是王小二過, 如。出現(xiàn)這種問題的原因就在于論基礎(chǔ)的缺失。沒有論基礎(chǔ)就沒有明確的改進(jìn)方向,因而只能像沒頭樣,從應(yīng)用問題出發(fā)盲目地摸索優(yōu)化技巧。運(yùn)氣好的話,通過優(yōu)化架構(gòu)或是損失函數(shù)可以在特定任務(wù)上獲得性能的,但表現(xiàn)的適用范圍往往狹窄,換個(gè)場(chǎng)合就好用。這其實(shí)只是生成式對(duì)抗網(wǎng)絡(luò),是整個(gè)深度學(xué)習(xí)所深陷的“煉術(shù)”尷尬處境的體現(xiàn)。今天我和你生成式對(duì)抗網(wǎng)絡(luò)的原與機(jī)制。其要點(diǎn)如下:生成式對(duì)抗網(wǎng)絡(luò)是類運(yùn)在零和博弈框架下的無監(jiān)督學(xué)習(xí)算法,由生成和判別;生成的目的是精確模擬真實(shí)數(shù)據(jù)的分布,判別的目的是精確區(qū)分真實(shí)數(shù)據(jù)和生成數(shù)據(jù);生成式對(duì)抗網(wǎng)絡(luò)的主要優(yōu)點(diǎn)是據(jù)的特點(diǎn)生成新的數(shù)據(jù); 生成式對(duì)抗網(wǎng)絡(luò)

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論