深度學(xué)習(xí)應(yīng)用開發(fā) 課件 cha1 4-深度學(xué)習(xí)的應(yīng)用領(lǐng)域_第1頁(yè)
深度學(xué)習(xí)應(yīng)用開發(fā) 課件 cha1 4-深度學(xué)習(xí)的應(yīng)用領(lǐng)域_第2頁(yè)
深度學(xué)習(xí)應(yīng)用開發(fā) 課件 cha1 4-深度學(xué)習(xí)的應(yīng)用領(lǐng)域_第3頁(yè)
深度學(xué)習(xí)應(yīng)用開發(fā) 課件 cha1 4-深度學(xué)習(xí)的應(yīng)用領(lǐng)域_第4頁(yè)
深度學(xué)習(xí)應(yīng)用開發(fā) 課件 cha1 4-深度學(xué)習(xí)的應(yīng)用領(lǐng)域_第5頁(yè)
已閱讀5頁(yè),還剩12頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

目錄計(jì)算機(jī)視覺(jué)01任務(wù)自然語(yǔ)言處理02任務(wù)強(qiáng)化學(xué)習(xí)03任務(wù)1計(jì)算機(jī)視覺(jué)1計(jì)算機(jī)視覺(jué)計(jì)算機(jī)視覺(jué)是深度學(xué)習(xí)應(yīng)用最為廣泛的一個(gè)領(lǐng)域,計(jì)算機(jī)視覺(jué)中包括:圖像識(shí)別(ImageClassification)目標(biāo)檢測(cè)(ObjectDetection)語(yǔ)義分割(SemanticSegmentation)視頻理解(VideoUnderstanding)圖片生成(ImageGeneration)1計(jì)算機(jī)視覺(jué)圖像識(shí)別(ImageClassification)圖像識(shí)別(ImageClassification),也叫圖像分類,是一種常見的分類問(wèn)題。計(jì)算機(jī)視覺(jué)中圖像分類算法常采用神經(jīng)網(wǎng)絡(luò)作為核心,算法的輸入為圖像數(shù)據(jù),輸出值為當(dāng)前圖像樣本所屬類別的概率,通常選取輸出概率值最大的類別作為樣本的預(yù)測(cè)類別。1計(jì)算機(jī)視覺(jué)目標(biāo)檢測(cè)(ObjectDetection)目標(biāo)檢測(cè)(ObjectDetection),是指通過(guò)算法自動(dòng)檢測(cè)出圖片中目標(biāo)物體的類別及大致位置,然后用邊界框(BoundingBox)表示,并標(biāo)出邊界框中物體的類別信息。1計(jì)算機(jī)視覺(jué)語(yǔ)義分割(SemanticSegmentation)語(yǔ)義分割(SemanticSegmentation)是通過(guò)算法自動(dòng)分割并識(shí)別出圖片中的內(nèi)容,可以將語(yǔ)義分割理解為每個(gè)像素點(diǎn)的分類問(wèn)題,分析每個(gè)像素點(diǎn)屬于物體的類別。1計(jì)算機(jī)視覺(jué)視頻理解(VideoUnderstanding)隨著深度學(xué)習(xí)在2D圖片的相關(guān)任務(wù)上取得較好的效果,具有時(shí)間維度信息的3D視頻理解任務(wù)受到越來(lái)越多的關(guān)注。常見的視頻理解任務(wù)有視頻分類,行為檢測(cè),視頻主體抽取等1計(jì)算機(jī)視覺(jué)圖片生成(ImageGeneration)圖片生成(ImageGeneration),通過(guò)學(xué)習(xí)真實(shí)圖片的分布,并從學(xué)習(xí)到的分布中采樣而獲得逼真度較高的生成圖片。圖像風(fēng)格遷移2自然語(yǔ)言處理2自然語(yǔ)言處理1、機(jī)器翻譯(MachineTranslation)過(guò)去的機(jī)器翻譯算法通常是基于統(tǒng)計(jì)機(jī)器翻譯模型,這也是2016年前Google翻譯系統(tǒng)采用的技術(shù)。2、2016年11月,Google基于Seq2Seq模型上線了Google神經(jīng)機(jī)器翻譯系統(tǒng)(GNMT),首次實(shí)現(xiàn)了源語(yǔ)言到目標(biāo)語(yǔ)言的直譯技術(shù),在多項(xiàng)任務(wù)上實(shí)現(xiàn)50~90%的效果提升。3、常用的機(jī)器翻譯模型有Seq2Seq,BERT,GPT,GPT-2等,其中OpenAI提出的GPT-2模型參數(shù)量高達(dá)15億個(gè),甚至發(fā)布之初以技術(shù)安全考慮為由拒絕開源GPT-2模型。機(jī)器翻譯(MachineTranslation)2自然語(yǔ)言處理1、聊天機(jī)器人(Chatbot)聊天機(jī)器人也是自然語(yǔ)言處理的一項(xiàng)主流任務(wù)。2、通過(guò)機(jī)器自動(dòng)與人類對(duì)話,對(duì)于人類的簡(jiǎn)單訴求提供滿意的自動(dòng)回復(fù),提高客戶的服務(wù)效率和服務(wù)質(zhì)量。3、常應(yīng)用在咨詢系統(tǒng)、娛樂(lè)系統(tǒng)、智能家居等中。聊天機(jī)器人(Chatbot)3強(qiáng)化學(xué)習(xí)3強(qiáng)化學(xué)習(xí)強(qiáng)化學(xué)習(xí)(ReinforcementLearning,RL),又稱再勵(lì)學(xué)習(xí)、評(píng)價(jià)學(xué)習(xí)或增強(qiáng)學(xué)習(xí),是機(jī)器學(xué)習(xí)的范式和方法論之一,用于描述和解決智能體(agent)在與環(huán)境的交互過(guò)程中通過(guò)學(xué)習(xí)策略以達(dá)成回報(bào)最大化或?qū)崿F(xiàn)特定目標(biāo)的問(wèn)題。強(qiáng)化學(xué)習(xí)技術(shù)常用語(yǔ)機(jī)器人(Robotics)和自動(dòng)駕駛(AutonomousDriving)領(lǐng)域中。3強(qiáng)化學(xué)習(xí)機(jī)器人(Robotics)在真實(shí)環(huán)境中,機(jī)器人的控制也取得了一定的進(jìn)展。如UCBerkeley在機(jī)器人的模仿學(xué)習(xí)(ImitationLearning)、少樣本學(xué)習(xí)(MetaLearning)、元學(xué)習(xí)(Few-shotLearning)等方向取得了不少進(jìn)展。波士頓動(dòng)力公司的機(jī)器人機(jī)器人(Robotics)3強(qiáng)化學(xué)習(xí)自動(dòng)駕駛(AutonomousDriving)被認(rèn)為是強(qiáng)化學(xué)習(xí)在短期內(nèi)能技術(shù)落地的一個(gè)應(yīng)用方向,很多公司

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論