![計算機視覺應用開發(fā)課件:LSTM(上)_第1頁](http://file4.renrendoc.com/view9/M03/1C/0C/wKhkGWdbCnCAC96oAABgyqBn4KA522.jpg)
![計算機視覺應用開發(fā)課件:LSTM(上)_第2頁](http://file4.renrendoc.com/view9/M03/1C/0C/wKhkGWdbCnCAC96oAABgyqBn4KA5222.jpg)
![計算機視覺應用開發(fā)課件:LSTM(上)_第3頁](http://file4.renrendoc.com/view9/M03/1C/0C/wKhkGWdbCnCAC96oAABgyqBn4KA5223.jpg)
![計算機視覺應用開發(fā)課件:LSTM(上)_第4頁](http://file4.renrendoc.com/view9/M03/1C/0C/wKhkGWdbCnCAC96oAABgyqBn4KA5224.jpg)
![計算機視覺應用開發(fā)課件:LSTM(上)_第5頁](http://file4.renrendoc.com/view9/M03/1C/0C/wKhkGWdbCnCAC96oAABgyqBn4KA5225.jpg)
版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)
文檔簡介
LSTMRNN概述01任務LSTM概述02任務學習目標了解RNN的網(wǎng)絡結(jié)構(gòu)了解LSTM的基本概念1RNN概述1RNN概述之前講神經(jīng)網(wǎng)絡的時候,只能一次單獨處理一個圖像的輸入,并且前一個輸入和后一個輸入是完全沒有關(guān)系的。但是在某些任務中需要能夠更好地處理序列的信息,即前面的輸入和后面的輸入是有關(guān)系的。比如,當理解一句話的時候,需要把組成這句話的所有詞關(guān)聯(lián)起來,而不能去單獨地理解每個詞的意思。以自然語言處理的詞性標注任務來講,一個句子中,前一個單詞其實對于當前單詞的詞性預測是有很大影響的。比如“小明跳舞”,“關(guān)公舞大刀”,同樣是“舞”字,詞性卻不相同,前者是名詞,后者是動詞。但是由于“小明跳舞”中“舞”子的前面“跳”是一個動詞,那么很顯然“舞”作為名詞的概率就會遠大于動詞的概率。因為動詞后面接名詞很常見,而動詞后面接動詞很少見。所以為了解決一些這樣類似的問題,能夠更好的處理序列的信息,RNN就誕生了。1RNN概述RNN(RecurrentNeuralNetwork)循環(huán)神經(jīng)網(wǎng)絡,是一類以序列數(shù)據(jù)為輸入,在序列的演進方向進行遞歸且所有節(jié)點(循環(huán)單元)按鏈式連接的遞歸神經(jīng)網(wǎng)絡。RNN是一種特殊的神經(jīng)網(wǎng)絡結(jié)構(gòu),它是根據(jù)“人的認知是基于過往的經(jīng)驗和記憶”這一觀點提出的。它與DNN,CNN不同的是:它不僅考慮前一時刻的輸入,而且賦予了網(wǎng)絡對前面的內(nèi)容的一種‘記憶’功能。1RNN概述圖中展示的是一個簡單的循環(huán)神經(jīng)網(wǎng)絡結(jié)構(gòu)圖:可以看到,如果把上面的“W”去掉,它就變成了前面講的神經(jīng)網(wǎng)絡。X代表輸入層的值,S代表隱藏層的值,O代表輸入層的值,U和V分別代表層到層之間的權(quán)重。那W是什么呢?循環(huán)神經(jīng)網(wǎng)絡的隱藏層的值S不僅僅取決于當前這次的輸入X,還取決于上一次隱藏層的值S,
W就是隱藏層上一次的值作為這一次的輸入的權(quán)重。1RNN概述可以把W按照時間線展開,循環(huán)神經(jīng)網(wǎng)絡就變成如圖右側(cè)一樣:現(xiàn)在看上去就比較清楚了,這個網(wǎng)絡在t時刻接收到輸入
之后,隱藏層的值是
,輸出值是。關(guān)鍵一點是,
的值不僅僅取決于
,還取決于
。1RNN概述在t=1時刻,一般初始化輸入
=0,隨機初始化W,U,V,進行下面的公式計算:其中,f和g均為激活函數(shù)。其中f可以是tanh,ReLu,sigmoid等激活函數(shù),g通常是softmax也可以是其他激活函數(shù)。1RNN概述時間就向前推進,此時的狀態(tài)
作為時刻1的記憶狀態(tài)將參與下一個時刻的預測活動,也就是:以此類推,可以得到最終的輸出值為:2LSTM概述2LSTM概述RNN的關(guān)鍵點之一就是它們可以用來連接先前的信息到當前的任務上。但是當相關(guān)信息和當前預測位置之間的間隔變得非常大,RNN會喪失學習到連接如此遠的信息的能力。LSTM就是專門設(shè)計出來解決這個問題的。LSTM(LongShort-TermMemory),長短期記憶網(wǎng)絡,是一種特殊的RNN,是為了解決RNN長期依賴問題而專門設(shè)計出來的。所有的RNN都具有一種重復神經(jīng)網(wǎng)絡模塊的鏈式形式。在標準RNN中,這個重復的結(jié)構(gòu)模塊只有一個非常簡單的結(jié)構(gòu),例如一個tanh層,如圖所示。2LSTM概述LSTM也擁有這種鏈狀結(jié)構(gòu),但是重復模塊則擁有不同的結(jié)構(gòu)。與神經(jīng)網(wǎng)絡的簡單的一層相比,LSTM擁有四層,這四層以特殊的方式進行交互。如圖所示。
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
- 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 2025年度建筑工程保溫材料環(huán)保性能檢測與認證合同
- 淮南安徽淮南市中醫(yī)院招聘專業(yè)技術(shù)人員40人筆試歷年參考題庫附帶答案詳解
- 曲靖云南曲靖市馬龍區(qū)應急管理局招聘10名綜合應急救援隊員筆試歷年參考題庫附帶答案詳解
- 惠州廣東惠州市惠東縣吉隆鎮(zhèn)人民政府招聘治安聯(lián)防隊員13人筆試歷年參考題庫附帶答案詳解
- 2025年輕便傻瓜機項目可行性研究報告
- 2025年色織絲油提花面料項目可行性研究報告
- 2025至2031年中國纏繞膜復卷機行業(yè)投資前景及策略咨詢研究報告
- 2025年電動式潤滑泵項目可行性研究報告
- 2025年洗甲護甲水項目可行性研究報告
- 2025年有線電視鄰頻調(diào)制器項目可行性研究報告
- 小學數(shù)學六年級解方程練習300題及答案
- 大數(shù)據(jù)在化工行業(yè)中的應用與創(chuàng)新
- 光伏十林業(yè)可行性報告
- 小學綜合實踐《我做環(huán)保宣傳員 保護環(huán)境人人有責》
- 鋼煤斗內(nèi)襯不銹鋼板施工工法
- 公司人事招聘面試技巧培訓完整版課件兩篇
- 出國勞務派遣合同(專業(yè)版)電子版正規(guī)范本(通用版)
- 公路工程安全風險辨識與防控手冊
- 供應商評估報告范本
- 職業(yè)生涯規(guī)劃-自我認知-價值觀
- 建筑集團公司商務管理手冊(投標、合同、采購)分冊
評論
0/150
提交評論