智能網(wǎng)聯(lián)汽車計(jì)算平臺(tái)部署與測試 課件 6 深度學(xué)習(xí)的認(rèn)知_第1頁
智能網(wǎng)聯(lián)汽車計(jì)算平臺(tái)部署與測試 課件 6 深度學(xué)習(xí)的認(rèn)知_第2頁
智能網(wǎng)聯(lián)汽車計(jì)算平臺(tái)部署與測試 課件 6 深度學(xué)習(xí)的認(rèn)知_第3頁
智能網(wǎng)聯(lián)汽車計(jì)算平臺(tái)部署與測試 課件 6 深度學(xué)習(xí)的認(rèn)知_第4頁
智能網(wǎng)聯(lián)汽車計(jì)算平臺(tái)部署與測試 課件 6 深度學(xué)習(xí)的認(rèn)知_第5頁
已閱讀5頁,還剩31頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

智能網(wǎng)聯(lián)汽車

計(jì)算平臺(tái)部署與測試項(xiàng)目六深度學(xué)習(xí)的認(rèn)知目錄01.深度學(xué)習(xí)的認(rèn)知02.PyTorch的認(rèn)知03.YOLO的認(rèn)知目標(biāo)具體描述知識(shí)目標(biāo)能夠了解深度學(xué)習(xí)的發(fā)展能夠了解深度學(xué)習(xí)的原理和特點(diǎn)能夠掌握深度學(xué)習(xí)的典型構(gòu)架

技能目標(biāo)能夠獨(dú)立講解深度學(xué)習(xí)基本定義能夠獨(dú)立講述構(gòu)成深度學(xué)習(xí)的基本組成單元能夠講述深度學(xué)習(xí)網(wǎng)絡(luò)典型框架及其特點(diǎn)能夠獨(dú)立講述深度學(xué)習(xí)在汽車制造領(lǐng)域的發(fā)展趨勢能夠熟練掌握深度學(xué)習(xí)模型原理和設(shè)計(jì)素質(zhì)目標(biāo)能夠正確認(rèn)識(shí)和理解深度學(xué)習(xí)工具,能夠?qū)ι疃葘W(xué)習(xí)發(fā)展做出貢獻(xiàn)的學(xué)者給予尊重和贊賞能夠培養(yǎng)創(chuàng)新思維和批判思維,能夠不斷的對(duì)現(xiàn)存的深度學(xué)習(xí)網(wǎng)絡(luò)提出新的想法和改進(jìn)意見能夠培養(yǎng)團(tuán)隊(duì)合作和溝通能力,能夠與其他人進(jìn)行協(xié)作,清楚的表達(dá)自己的想法和意見能夠養(yǎng)成持續(xù)學(xué)習(xí)和自我提升能力,能夠不斷的關(guān)注深度學(xué)習(xí)領(lǐng)域發(fā)展的最新動(dòng)態(tài)

深度學(xué)習(xí)(DL,DeepLearning)是機(jī)器學(xué)習(xí)(ML,MachineLearning)領(lǐng)域中一個(gè)新的研究方向,它被引入機(jī)器學(xué)習(xí)使其更接近于最初的目標(biāo)——人工智能(AI,ArtificialIntelligence)。深度學(xué)習(xí)作為人工神經(jīng)網(wǎng)絡(luò)可以根據(jù)學(xué)習(xí)過程中的示例數(shù)據(jù)來獨(dú)立地構(gòu)建(訓(xùn)練)出基本規(guī)則,尤其是在機(jī)器視覺領(lǐng)域,神經(jīng)網(wǎng)絡(luò)通常采用監(jiān)督式學(xué)習(xí)的方法來訓(xùn)練,即通過示例數(shù)據(jù)和示例數(shù)據(jù)的預(yù)定義結(jié)果來進(jìn)行訓(xùn)練。01.深度學(xué)習(xí)的認(rèn)知

任務(wù)描述

最近,單位新來一批實(shí)習(xí)員工,他們對(duì)深度學(xué)習(xí)并不熟悉,需要對(duì)深度學(xué)習(xí)有一個(gè)清晰的認(rèn)識(shí),請(qǐng)你準(zhǔn)備一下,介紹一下什么深度學(xué)習(xí),并說明它的作用是什么。任務(wù)目標(biāo)(1)了解深度學(xué)習(xí)的現(xiàn)狀及發(fā)展歷程。(2)認(rèn)識(shí)深度學(xué)習(xí)的典型框架。任務(wù)準(zhǔn)備(1)防護(hù)裝備:常規(guī)實(shí)訓(xùn)著裝。(2)教學(xué)設(shè)備:安裝有操作系統(tǒng)的計(jì)算機(jī)。(3)教學(xué)工具:教學(xué)課件、電腦主機(jī)。知識(shí)準(zhǔn)備

深度學(xué)習(xí)的基本原理是通過構(gòu)建具有多個(gè)抽象級(jí)別的神經(jīng)網(wǎng)絡(luò)模型,來模擬人腦的神經(jīng)元結(jié)構(gòu)。這種網(wǎng)絡(luò)結(jié)構(gòu)使得深度學(xué)習(xí)能夠處理復(fù)雜的模式識(shí)別問題,通過逐層提取特征的方式,將原始數(shù)據(jù)轉(zhuǎn)化為高層次的抽象表示。在訓(xùn)練過程中,深度學(xué)習(xí)利用反向傳播算法來調(diào)整網(wǎng)絡(luò)參數(shù),優(yōu)化模型的性能。一、深度學(xué)習(xí)概述知識(shí)準(zhǔn)備一、深度學(xué)習(xí)概述(一)人工智能

人工智能(AI)通常是指由機(jī)器(一般是計(jì)算機(jī)程序)通過模仿或復(fù)制人類行為而構(gòu)造出來的體系結(jié)構(gòu)?!癆I”這個(gè)術(shù)語涵蓋多個(gè)子領(lǐng)域,例如專家系統(tǒng)、模式分析系統(tǒng)或機(jī)器人。基于AI的系統(tǒng)會(huì)利用不同的方法來對(duì)人類行為和決策結(jié)構(gòu)進(jìn)行模仿或建模,有關(guān)的方法包括統(tǒng)計(jì)算法、啟發(fā)式程序、人工神經(jīng)網(wǎng)絡(luò)(ANN)或其他機(jī)器學(xué)習(xí)衍生技術(shù)。知識(shí)準(zhǔn)備一、深度學(xué)習(xí)概述

機(jī)器學(xué)習(xí)(ML)是AI的子領(lǐng)域,它由一系列自動(dòng)程序組成,可以從一組示例數(shù)據(jù)推演出基本規(guī)則,即通過示例數(shù)據(jù)來“習(xí)得”規(guī)則。通過應(yīng)用預(yù)定義和可理解的算法和規(guī)則,或者使用人工神經(jīng)網(wǎng)絡(luò)就可以實(shí)現(xiàn)此技術(shù)。機(jī)器學(xué)習(xí)技術(shù)可細(xì)分為“監(jiān)督式學(xué)習(xí)”和“非監(jiān)督式學(xué)習(xí)”。在監(jiān)督式學(xué)習(xí)中,學(xué)習(xí)的樣本數(shù)據(jù)同時(shí)包含輸入數(shù)據(jù)和相應(yīng)的預(yù)期結(jié)果(例如分類),而在非監(jiān)督式學(xué)習(xí)中,應(yīng)該由系統(tǒng)來自行確定輸入數(shù)據(jù)可能產(chǎn)生的結(jié)果。傳統(tǒng)的機(jī)器學(xué)習(xí)算法有:線性回歸模型、logistic回歸模型、k-臨近算法、決策樹、隨機(jī)森林、支持向量機(jī)、人工神經(jīng)網(wǎng)絡(luò)等。(二)機(jī)器學(xué)習(xí)知識(shí)準(zhǔn)備一、深度學(xué)習(xí)概述

深度學(xué)習(xí)(DL)是一種機(jī)器學(xué)習(xí)方法,它作為人工神經(jīng)網(wǎng)絡(luò)可以根據(jù)學(xué)習(xí)過程中的示例數(shù)據(jù)來獨(dú)立地構(gòu)建(訓(xùn)練)出基本規(guī)則。尤其是在機(jī)器視覺領(lǐng)域,神經(jīng)網(wǎng)絡(luò)通常采用監(jiān)督式學(xué)習(xí)的方法來訓(xùn)練,即通過示例數(shù)據(jù)和示例數(shù)據(jù)的預(yù)定義結(jié)果來進(jìn)行訓(xùn)練。(三)深度學(xué)習(xí)知識(shí)準(zhǔn)備

從歷史上看,深度學(xué)習(xí)從產(chǎn)生、發(fā)展到崛起經(jīng)歷了三個(gè)階段。第一代神經(jīng)網(wǎng)絡(luò)(1958年-1969年)二、深度學(xué)習(xí)的發(fā)展最早的神經(jīng)網(wǎng)絡(luò)思想起源于1943年的MCP人工神經(jīng)元模型,該模型將神經(jīng)元簡化為三個(gè)過程:輸入信號(hào)線性加權(quán)、求和及非線性激活。但是,1969年,美國數(shù)學(xué)家Minsky證明了感知器本質(zhì)上是一種線性模型,只能處理線性分類問題,從而導(dǎo)致神經(jīng)網(wǎng)絡(luò)的研究陷入了近20年的停滯。知識(shí)準(zhǔn)備第二代神經(jīng)網(wǎng)絡(luò)(1986年-1998年)二、深度學(xué)習(xí)的發(fā)展1986年,Hinton發(fā)明了適用于多層感知器的BP算法,并采用Sigmoid進(jìn)行非線性映射,有效解決了非線性分類和學(xué)習(xí)的問題,從而引發(fā)了第二次神經(jīng)網(wǎng)絡(luò)熱潮。1991年,BP算法被指出存在梯度消失問題,即在誤差梯度向后傳遞的過程中,后層梯度以乘性方式疊加到前層,由于Sigmoid函數(shù)的飽和特性,導(dǎo)致誤差梯度傳遞到前層時(shí)幾乎為0,因此無法對(duì)前層進(jìn)行有效的學(xué)習(xí)。知識(shí)準(zhǔn)備第三代神經(jīng)網(wǎng)絡(luò)(2006年至今)一、深度學(xué)習(xí)的發(fā)展2006年是深度學(xué)習(xí)元年。這一年,Hinton提出了深層網(wǎng)絡(luò)訓(xùn)練中梯度消失問題的解決方案。2011年,ReLU激活函數(shù)被提出,從而可以有效地抑制梯度消失問題。2012年,微軟公司首次將深度學(xué)習(xí)應(yīng)用于語音識(shí)別上,并取得了重大的突破。2012年,Hinton帶領(lǐng)他的深度學(xué)習(xí)小組在ImageNet圖像識(shí)別比賽中一舉奪冠,引起了許多大公司的關(guān)注。知識(shí)準(zhǔn)備

從歷史上看,深度學(xué)習(xí)從產(chǎn)生、發(fā)展到崛起經(jīng)歷了三個(gè)階段。第一代神經(jīng)網(wǎng)絡(luò)(1958年-1969年)二、深度學(xué)習(xí)的發(fā)展最早的神經(jīng)網(wǎng)絡(luò)思想起源于1943年的MCP人工神經(jīng)元模型,該模型將神經(jīng)元簡化為三個(gè)過程:輸入信號(hào)線性加權(quán)、求和及非線性激活。但是,1969年,美國數(shù)學(xué)家Minsky證明了感知器本質(zhì)上是一種線性模型,只能處理線性分類問題,從而導(dǎo)致神經(jīng)網(wǎng)絡(luò)的研究陷入了近20年的停滯。知識(shí)準(zhǔn)備三、深度學(xué)習(xí)的典型框架TensorflowTensorflow是目前世界上使用人數(shù)最多,社區(qū)規(guī)模龐大的一個(gè)框架。Tensorflow的命名來源于其自身的實(shí)現(xiàn)原理。Tensorflow運(yùn)行過程就是張量從圖的一端流動(dòng)到另一端的計(jì)算過程。張量從圖中流過的直觀圖像是其取名為“TensorFlow”的原因。知識(shí)準(zhǔn)備三、深度學(xué)習(xí)的典型框架CaffeCaffe,是一個(gè)兼具表達(dá)性、速度和思維模塊化的深度學(xué)習(xí)框架。由伯克利人工智能研究小組和伯克利視覺和學(xué)習(xí)中心開發(fā)。Caffe支持多種類型的深度學(xué)習(xí)架構(gòu),面向圖像分類和圖像分割,還支持CNN、RCNN、LSTM和全連接神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)。Caffe支持基于GPU和CPU的加速計(jì)算內(nèi)核庫,如NVIDIAcuDNN和IntelMKL。知識(shí)準(zhǔn)備三、深度學(xué)習(xí)的典型框架TheanoTheano是蒙特利爾大學(xué)蒙特利爾學(xué)習(xí)算法小組開發(fā)的一個(gè)開源項(xiàng)目,最突出的特性包括GPU的透明使用,與NumPy緊密結(jié)合,高效的符號(hào)區(qū)分,速度/穩(wěn)定性優(yōu)化以及大量的單元測試。它是為深度學(xué)習(xí)中處理大型神經(jīng)網(wǎng)絡(luò)算法所需的計(jì)算而專門設(shè)計(jì)的。。知識(shí)準(zhǔn)備三、深度學(xué)習(xí)的典型框架TorchTorch是Facebook的開源機(jī)器學(xué)習(xí)庫、科學(xué)計(jì)算框架和基于Lua編程語言的腳本語言。它提供了廣泛的深度學(xué)習(xí)算法,并已被Facebook、IBM、Yandex和其他公司用于解決數(shù)據(jù)流的硬件問題。知識(shí)準(zhǔn)備三、深度學(xué)習(xí)的典型框架PyTorch2017年1月,F(xiàn)acebook人工智能研究院團(tuán)隊(duì)在GitHub上開源了PyTorch框架。PyTorch的歷史可以追溯到Torch。PyTorch不是簡單地對(duì)Torch進(jìn)行封裝以提供Python接口,而是使用Python重新寫了很多內(nèi)容,不僅更加靈活,支持動(dòng)態(tài)圖,而且提供了Python接口。它是一個(gè)以Python優(yōu)先的深度學(xué)習(xí)框架,不僅能夠?qū)崿F(xiàn)強(qiáng)大的GPU加速,同時(shí)還支持動(dòng)態(tài)神經(jīng)網(wǎng)絡(luò)。知識(shí)準(zhǔn)備三、深度學(xué)習(xí)的典型框架MXNetMXNet有著非常好的分布式支持,而且性能特別好,占用顯存低,同時(shí)其開發(fā)的語言接口不僅僅有Python和C++,還有R,Matlab,Scala,JavaScript等等。知識(shí)準(zhǔn)備三、深度學(xué)習(xí)的典型框架PaddlePaddlePaddlePaddle是百度研發(fā)的開源開放的深度學(xué)習(xí)平臺(tái),是國內(nèi)最早開源的深度學(xué)習(xí)平臺(tái)。依托百度業(yè)務(wù)場景的長期錘,PaddlePaddle有最全面的官方支持的工業(yè)級(jí)應(yīng)用模型,涵蓋自然語言處理、計(jì)算機(jī)視覺、推薦引擎等多個(gè)領(lǐng)域,并開放多個(gè)領(lǐng)先的預(yù)訓(xùn)練中文模型,以及多個(gè)在國際范圍內(nèi)取得競賽冠軍的算法模型。02.PyTorch的認(rèn)知

任務(wù)描述最近,單位新來一批實(shí)習(xí)員工,他們對(duì)深度學(xué)習(xí)工具并不熟悉,需要對(duì)深度學(xué)習(xí)工具有一個(gè)清晰的認(rèn)識(shí),請(qǐng)你準(zhǔn)備一下,講解深度學(xué)習(xí)工具PyTorch的基本知識(shí)及使用。任務(wù)目標(biāo)(1)能夠了解深度學(xué)習(xí)工具PyTorch的組成、特點(diǎn)及發(fā)展簡史。(2)能夠掌握深度學(xué)習(xí)工具PyTorch的基礎(chǔ)知識(shí)。(3)能夠使用深度學(xué)習(xí)工具PyTorch進(jìn)行簡單求解。任務(wù)準(zhǔn)備(1)防護(hù)裝備:常規(guī)實(shí)訓(xùn)著裝。(2)教學(xué)設(shè)備:智能網(wǎng)聯(lián)汽車。(3)教學(xué)工具:教學(xué)課件、計(jì)算平臺(tái)。知識(shí)準(zhǔn)備PyTorch是由Facebook的人工智能團(tuán)隊(duì)使用Python重寫Torch框架而成,它包含如下主要模塊:(1)torch:包含了PyTorch經(jīng)常使用的一些激活函數(shù),比如Sigmoid、ReLU和Tanh,以及PyTorch張量的一些操作,比如矩陣的乘法和張量元素的選擇等。(2)torch.autograd:是PyTorch的自動(dòng)微分算法模塊,定義了一系列的自動(dòng)微分函數(shù),還內(nèi)置了數(shù)值梯度功能和檢查自動(dòng)微分引擎是否輸出正確結(jié)果的功能。(3)torch.nn:是一個(gè)非常重要的模塊,是PyTorch神經(jīng)網(wǎng)絡(luò)模塊化的核心。該模塊定義了一系列模塊,包括卷積層和線性層(全連接層)等。(4)torch.optim:定義了一系列的優(yōu)化器,包括隨機(jī)梯度下降算法、AdaGrad算法、RMSProp算法和Adam算法等。該模塊還包含了諸如學(xué)習(xí)率階梯下降算法和余弦退火算法等學(xué)習(xí)率衰減算法。一、PyTorch組成知識(shí)準(zhǔn)備

(5)torch.multiprocessing:多進(jìn)程處理包,能夠通過內(nèi)存共享的方式在進(jìn)程間傳遞torchTensor,適用于數(shù)據(jù)加載和hogwild訓(xùn)練(6)torch.distributed:是PyTorch的分布式計(jì)算模塊,主要功能是提供PyTorch并行運(yùn)行環(huán)境,其主要支持的后端有MPI、Gloo和NCCL三種。(7)torch.distributions:提供了一系列類,使得PyTorch能夠?qū)Σ煌姆植歼M(jìn)行采樣,并且生成概率采樣過程的計(jì)算圖。(8)torch.hub:提供了一系列預(yù)訓(xùn)練的模型供用戶使用。(9)torch.jit:是PyTorch的即時(shí)編譯器(Just-In-TimeCompiler,JIT)模塊,能將PyTorch的動(dòng)態(tài)圖轉(zhuǎn)換成可以優(yōu)化和序列化的靜態(tài)圖。(10)torch.utils:提供了一系列的工具來幫助神經(jīng)網(wǎng)絡(luò)的訓(xùn)練、測試和結(jié)構(gòu)優(yōu)化。(11)torch.legacy:由于向后兼容性原因而從torch移植過的遺留代碼。一、PyTorch組成知識(shí)準(zhǔn)備

PyTorch是簡潔優(yōu)雅且高效快速的深度學(xué)習(xí)框架,它和Tensorflow是深度學(xué)習(xí)領(lǐng)域最流行的兩個(gè)框架,具有簡潔、快速、易用等特點(diǎn),使得人們傾向于選擇它作為深度學(xué)習(xí)的研究平臺(tái),以滿足最大的靈活性以及響應(yīng)和處理速度。并且近幾年來,在產(chǎn)業(yè)界,PyTorch也獲得了長足的進(jìn)展。(1)簡潔:PyTorch追求最少的封裝,在設(shè)計(jì)上始終遵循tensor->variable(autograd)->nn.Module這三個(gè)由低到高的抽象層次,分別代表高維數(shù)組(張量)、自動(dòng)求導(dǎo)(變量)和神經(jīng)網(wǎng)絡(luò)(層/模塊),而且這三者之間聯(lián)系緊密,可以同時(shí)進(jìn)行修改和操作。簡潔設(shè)計(jì)帶來的額外好處就是代碼易于理解。PyTorch的源代碼只有TensorFlow的十分之一左右,更少的抽象、更直觀的設(shè)計(jì)使得PyTorch的源代碼容易閱讀。二、PyTorch主要特點(diǎn)知識(shí)準(zhǔn)備(2)速度:PyTorch的靈活性不以犧牲速度為代價(jià)。在許多測評(píng)中,PyTorch的速度要高于Tensorflow等框架。(3)易用:PyTorch面向?qū)ο笤O(shè)計(jì)最優(yōu)雅的深度學(xué)習(xí)框架之一。PyTorch繼承了Torch接口設(shè)計(jì)理念,讓用戶盡可能地專注于自己的想法,不需要太多考慮框架方面的規(guī)則和約束。(4)活躍的社區(qū):PyTorch提供了完整的文檔和循序漸進(jìn)的編程指南,作者親自維護(hù)論壇供用戶交流和求助問題。Facebook人工智能研究院團(tuán)隊(duì)為PyTorch提供了強(qiáng)力的支持,足以確保PyTorch獲得持續(xù)的更新和支持。二、PyTorch主要特點(diǎn)知識(shí)準(zhǔn)備(1)張量張量(tensor)是PyTorch中主要的數(shù)據(jù)結(jié)構(gòu),也是基本的運(yùn)算單元。張量可以是一個(gè)數(shù)(標(biāo)量),一維數(shù)組(向量),二維數(shù)組(矩陣),也可以是更高維的數(shù)組,與numpy的ndarray類似。最大的區(qū)別在于tensor能使用GPU加速,而ndarray只能用在CPU上。(2)計(jì)算圖計(jì)算圖是用來描述運(yùn)算的有向無環(huán)圖,有兩個(gè)主要元素:結(jié)點(diǎn)(Node)和邊(Edge),其中,節(jié)點(diǎn)表示數(shù)據(jù),如向量、矩陣、張量等,邊表示運(yùn)算,如加減乘除卷積等。三、PyTorch基礎(chǔ)知識(shí)知識(shí)準(zhǔn)備(3)自動(dòng)微分PyTorch中的Autograd模塊實(shí)現(xiàn)了深度學(xué)習(xí)算法中的反向傳播求導(dǎo)數(shù),在tensor上的所有操作,Autograd都能為它們自動(dòng)計(jì)算微分,從而簡化了手動(dòng)求導(dǎo)數(shù)的過程。(4)神經(jīng)網(wǎng)絡(luò)機(jī)器學(xué)習(xí)里的神經(jīng)網(wǎng)絡(luò)一般由多個(gè)層或者模塊組成,每個(gè)層或模塊對(duì)數(shù)據(jù)進(jìn)行線性或非線性的計(jì)算操作。在PyTorch中,構(gòu)建神經(jīng)網(wǎng)絡(luò)基本層與模塊在torch.nn包中。利用PyTorch構(gòu)建網(wǎng)絡(luò)的基礎(chǔ)類為nn.Module,對(duì)該類進(jìn)行繼承和重新實(shí)現(xiàn)可以設(shè)計(jì)出各種不同的神經(jīng)網(wǎng)絡(luò)。nn.Module可以輕松構(gòu)建和管理復(fù)雜的架構(gòu)。三、PyTorch基礎(chǔ)知識(shí)知識(shí)準(zhǔn)備(5)損失函數(shù)損失函數(shù)(lossfunction)或代價(jià)函數(shù)(costfunction)是將隨機(jī)事件或其有關(guān)隨機(jī)變量的取值映射為非負(fù)實(shí)數(shù)以表示該隨機(jī)事件的“風(fēng)險(xiǎn)”或“損失”的函數(shù)。在應(yīng)用中,損失函數(shù)通常作為學(xué)習(xí)準(zhǔn)則與優(yōu)化問題相聯(lián)系,即通過最小化損失函數(shù)求解和評(píng)估模型。(6)優(yōu)化器優(yōu)化器是引導(dǎo)神經(jīng)網(wǎng)絡(luò)更新模型參數(shù)的工具。深度學(xué)習(xí)算法在計(jì)算出損失函數(shù)之后,需要利用優(yōu)化器來進(jìn)行反向傳播,完成網(wǎng)絡(luò)參數(shù)的更新。優(yōu)化器可以利用計(jì)算機(jī)數(shù)值計(jì)算方法來獲取損失函數(shù)最小的網(wǎng)絡(luò)參數(shù)。(7)數(shù)據(jù)加載與預(yù)處理在深度學(xué)習(xí)中,數(shù)據(jù)的加載和預(yù)處理是非常復(fù)雜繁瑣的。PyTorch提供了一些能夠極大簡化和加快數(shù)據(jù)處理流程和效率的工具三、PyTorch基礎(chǔ)知識(shí)03YOLO的認(rèn)知

任務(wù)描述最近,單位新來一批實(shí)習(xí)員工,他們對(duì)YOLO并不了解,需要對(duì)YOLO有一個(gè)清晰的認(rèn)識(shí),請(qǐng)你準(zhǔn)備一下,介紹什么是YOLO,并說明它的作用是什么。任務(wù)目標(biāo)(1)了解YOLOv5的主要功能;(2)了解YOLOv5安裝配置流程;(3)了解YOLOv5工作原理。任務(wù)準(zhǔn)備(1)防護(hù)裝備:常規(guī)實(shí)訓(xùn)著裝。(2)教學(xué)設(shè)備:智能網(wǎng)聯(lián)汽車。(3)教學(xué)工具:教學(xué)課件、自動(dòng)駕駛計(jì)算平臺(tái)結(jié)構(gòu)圖。知識(shí)準(zhǔn)備

YOLO(YouOnlyLookOnce)是一種基于深度神經(jīng)網(wǎng)絡(luò)

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論