![計(jì)算機(jī)視覺(jué)領(lǐng)域最常見(jiàn)幾中損失函數(shù)_第1頁(yè)](http://file4.renrendoc.com/view/adc56ec7c2d8ba28cb4e9106ef3223b0/adc56ec7c2d8ba28cb4e9106ef3223b01.gif)
![計(jì)算機(jī)視覺(jué)領(lǐng)域最常見(jiàn)幾中損失函數(shù)_第2頁(yè)](http://file4.renrendoc.com/view/adc56ec7c2d8ba28cb4e9106ef3223b0/adc56ec7c2d8ba28cb4e9106ef3223b02.gif)
![計(jì)算機(jī)視覺(jué)領(lǐng)域最常見(jiàn)幾中損失函數(shù)_第3頁(yè)](http://file4.renrendoc.com/view/adc56ec7c2d8ba28cb4e9106ef3223b0/adc56ec7c2d8ba28cb4e9106ef3223b03.gif)
![計(jì)算機(jī)視覺(jué)領(lǐng)域最常見(jiàn)幾中損失函數(shù)_第4頁(yè)](http://file4.renrendoc.com/view/adc56ec7c2d8ba28cb4e9106ef3223b0/adc56ec7c2d8ba28cb4e9106ef3223b04.gif)
![計(jì)算機(jī)視覺(jué)領(lǐng)域最常見(jiàn)幾中損失函數(shù)_第5頁(yè)](http://file4.renrendoc.com/view/adc56ec7c2d8ba28cb4e9106ef3223b0/adc56ec7c2d8ba28cb4e9106ef3223b05.gif)
版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
損失函數(shù)在模型的性能中起著關(guān)鍵作用。選擇正確的損失函數(shù)可以幫助你的模型學(xué)習(xí)如何將注意力集中在數(shù)據(jù)中的正確特征集合上,從而獲得最優(yōu)和更快的收斂。計(jì)算機(jī)視覺(jué)是計(jì)算機(jī)科學(xué)的一個(gè)領(lǐng)域,主要研究從數(shù)字圖像中自動(dòng)提取信息。在過(guò)去的十年中,在深度學(xué)習(xí)方面的創(chuàng)新,大量數(shù)據(jù)的方便獲取以及GPU的使用已經(jīng)將計(jì)算機(jī)視覺(jué)領(lǐng)域推到了聚光燈下。它甚至開(kāi)始在一些任務(wù)中實(shí)現(xiàn)“超人”的性能,比如人臉識(shí)別和手寫(xiě)文本識(shí)別。(事實(shí)上,如今登機(jī)的自動(dòng)人臉驗(yàn)證已經(jīng)變得越來(lái)越普遍了。)近年來(lái),我們?cè)诰W(wǎng)絡(luò)架構(gòu)、激活函數(shù)、損失函數(shù)等計(jì)算機(jī)視覺(jué)領(lǐng)域看到了許多創(chuàng)新。損失函數(shù)在模型的性能中起著關(guān)鍵作用。選擇正確的損失函數(shù)可以幫助你的模型學(xué)習(xí)如何將注意力集中在數(shù)據(jù)中的正確特征集合上,從而獲得最優(yōu)和更快的收斂。Pixel-wise損失函數(shù)顧名思義,這種損失函數(shù)計(jì)算預(yù)測(cè)圖像和目標(biāo)圖像的像素間損失。損失函數(shù),如MSE或L2損失、MAE或L1損失、交叉熵?fù)p失等,大部分都可以應(yīng)用于在目標(biāo)變量的每一對(duì)像素之間進(jìn)行預(yù)測(cè)。由于這些損失函數(shù)分別對(duì)每個(gè)像素向量的類預(yù)測(cè)進(jìn)行評(píng)估,然后對(duì)所有像素進(jìn)行平均,因此它們斷言圖像中的每個(gè)像素都具有相同的學(xué)習(xí)能力。這在圖像的語(yǔ)義分割中特別有用,因?yàn)槟P托枰獙W(xué)習(xí)像素級(jí)的密集預(yù)測(cè)。
在U-Net等模型中也使用了這些損失函數(shù)的變體,在用于圖像分割時(shí)采用加權(quán)的像素級(jí)交叉熵?fù)p失來(lái)處理類間不平衡問(wèn)題。類不平衡是像素級(jí)分類任務(wù)中常見(jiàn)的問(wèn)題。當(dāng)圖像數(shù)據(jù)中的各種類不平衡時(shí),就會(huì)出現(xiàn)這種情況。由于像素方面的損失是所有像素?fù)p失的平均值,因此訓(xùn)練會(huì)被分布最多的類來(lái)主導(dǎo)。Perceptual損失函數(shù)Johnsonetal(2016),Perceptual損失函數(shù)用于比較看起來(lái)相似的兩個(gè)不同的圖像,就像相同的照片,但移動(dòng)了一個(gè)像素或相同的圖像使用了不同的分辨率。在這種情況下,雖然圖像非常相似,pixel-wise損失函數(shù)將輸出一個(gè)大的誤差值。而Perceptual損失函數(shù)比較圖像之間的高級(jí)感知和語(yǔ)義差異。考慮一個(gè)圖像分類網(wǎng)絡(luò)如VGG,已經(jīng)在ImageNet的數(shù)以百萬(wàn)計(jì)的圖像數(shù)據(jù)集上訓(xùn)練過(guò),第一層的網(wǎng)絡(luò)往往提取底層的特征(如線,邊緣或顏色漸變)而最后的卷積層應(yīng)對(duì)更復(fù)雜的概念(如特定的形狀和模式)。根據(jù)Johnson等人的觀點(diǎn),這些在前幾層捕獲的低層次特征對(duì)于比較非常相似的圖像非常有用。例如,假設(shè)你構(gòu)建了一個(gè)網(wǎng)絡(luò)來(lái)從輸入圖像重構(gòu)一個(gè)超分辨圖像。在訓(xùn)練期間,你的目標(biāo)圖像將是輸入圖像的超分辨率版本。你的目標(biāo)是比較網(wǎng)絡(luò)的輸出圖像和目標(biāo)圖像。為此,我們將這些圖像通過(guò)一個(gè)預(yù)先訓(xùn)練好的VGG網(wǎng)絡(luò)傳遞,并提取VGG中前幾個(gè)塊的輸出值,從而提取圖像的底層特征信息。這些低級(jí)的特征張量可以通過(guò)簡(jiǎn)單的像素級(jí)損失來(lái)進(jìn)行比較。檔,giiii二f機(jī):relu2_2歹巾,上電檔,giiii二f機(jī):relu2_2歹巾,上電lu3_3仁LJ~ Qt.e'|^"|J;LossNetwork(VGG-16)'|^"|J;LossNetwork(VGG-16)ContentTarget用于圖像分類的預(yù)訓(xùn)練的損失網(wǎng)絡(luò)Perceptual損失的數(shù)學(xué)表示
用于圖像分類的預(yù)訓(xùn)練的損失網(wǎng)絡(luò)Perceptual損失的數(shù)學(xué)表示其中,V_j(Y)表示VGG網(wǎng)絡(luò)第j層在處理圖像Y時(shí)的激活情況,其形狀為(C_j,H_j,W_j)。我們使用L2損失的平方,根據(jù)圖像的形狀歸一化,比較了groundtruth圖像丫和預(yù)測(cè)圖像丫八的激活情況。如果你想使用VGG網(wǎng)絡(luò)的多個(gè)特征映射作為你的損失計(jì)算的一部分,只需為多個(gè)j添加L_j值。內(nèi)容-風(fēng)格損失函數(shù)一神經(jīng)網(wǎng)絡(luò)風(fēng)格轉(zhuǎn)換風(fēng)格轉(zhuǎn)換是將圖像的語(yǔ)義內(nèi)容轉(zhuǎn)換成不同風(fēng)格的過(guò)程。風(fēng)格轉(zhuǎn)換模型的目標(biāo)是,給定一個(gè)內(nèi)容圖像(C)和一個(gè)風(fēng)格圖像(S),生成包含C的內(nèi)容和S的風(fēng)格的輸出圖像。在這里,我們將討論content-style損失函數(shù)的最簡(jiǎn)單實(shí)現(xiàn)之一,該函數(shù)用于訓(xùn)練這種風(fēng)格的轉(zhuǎn)換模型。后來(lái)的研究中使用了許多內(nèi)容-風(fēng)格損失函數(shù)的變體。下一節(jié)將討論一個(gè)這樣的損失函數(shù),稱為“紋理?yè)p失”。內(nèi)容/風(fēng)格損失的數(shù)學(xué)表示已經(jīng)發(fā)現(xiàn),CNNs在較高的層次上捕獲內(nèi)容的信息,而較低的層次更關(guān)注單個(gè)像素值。因此,我們使用一個(gè)或多個(gè)CNN頂層,計(jì)算原始內(nèi)容圖像(C)和預(yù)測(cè)輸出(P)的激活圖。ZI|Af/(c)-A/(p)||22Lossconteni_ 2同樣,通過(guò)計(jì)算預(yù)測(cè)圖像(P)和風(fēng)格圖像(S)的下一級(jí)特征圖的L2距離,可以計(jì)算出風(fēng)格損失,得到的損失函數(shù)定義為:Loss=aLosscontent+^Lossstylealpha和beta是超參數(shù)。注意:只有減少樣式和內(nèi)容損失的優(yōu)化會(huì)導(dǎo)致高像素化和噪聲輸出。為了解決這個(gè)問(wèn)題,我們引入了totalvariation10ss來(lái)保證生成的圖像的空間連續(xù)性和平滑性。紋理?yè)p失Gatysetal(2016)首次引入的用于圖像風(fēng)格轉(zhuǎn)換的風(fēng)格損失組件。紋理?yè)p失是一種引入的損失函數(shù),是對(duì)感知損失的改進(jìn),特別適用于捕獲圖像的風(fēng)格。Gatysetal發(fā)現(xiàn),我們可以通過(guò)查看激活或特征圖(來(lái)自VGG網(wǎng)絡(luò))內(nèi)的值的空間相關(guān)性來(lái)提取圖像的風(fēng)格表示。這是通過(guò)計(jì)算Gram矩陣來(lái)實(shí)現(xiàn)的:yz(gyz(g務(wù)一a幻47V;2Af;24&匕2,JGram矩陣(對(duì)于VGG網(wǎng)絡(luò)的l層)是向量化特征映射F_i和F_j(在l層)的內(nèi)積,它捕捉了特征在圖像不同部分同時(shí)出現(xiàn)的趨勢(shì)。紋理?yè)p失的數(shù)學(xué)表示這里,G」八和A」八分別是模型輸出的l層和目標(biāo)圖像的l層的風(fēng)格樣式表示。N~l?是層l中不同特征映射的數(shù)量,M~l?是層l(i)中特征映射的容量(也就是通道的寬和高)。最后,E?l?是圖層l的紋理?yè)p失。網(wǎng)絡(luò)的紋理?yè)p失是所有紋理?yè)p失的加權(quán)和,表示為:這里a是原始圖像,x是預(yù)測(cè)圖像。注意:雖然這里的數(shù)學(xué)看起來(lái)有點(diǎn)復(fù)雜,但請(qǐng)理解紋理?yè)p失只是應(yīng)用在特征圖的gram矩陣上的感知損失。拓?fù)涓兄獡p失函數(shù)即拓?fù)涓兄獡p耗函數(shù)。這可以被認(rèn)為是感知損失的延伸,應(yīng)用于分割mask預(yù)測(cè)。Mosinska等人認(rèn)為,在圖像分割問(wèn)題中使用的像素級(jí)損失,如交叉熵?fù)p失,只依賴于局部測(cè)度,而不考慮拓?fù)浣Y(jié)構(gòu)的特征,如連接組件或孔的數(shù)量。因此,傳統(tǒng)的分割模型如U-Net往往會(huì)對(duì)薄的結(jié)構(gòu)進(jìn)行錯(cuò)誤的分類。這是因?yàn)閷?duì)薄層像素的錯(cuò)誤分類在像素?fù)p失方面的代價(jià)很低。作為對(duì)像素?fù)p失的改進(jìn),他們建議引入一個(gè)懲罰項(xiàng),該懲罰項(xiàng)基于VGG-19網(wǎng)絡(luò)生成的特征圖(類似于感知損失),以考慮拓?fù)湫畔?。(c)使用像素級(jí)丟失檢測(cè)神經(jīng)元膜后獲得的分割,(d)利用拓?fù)鋼p耗檢測(cè)細(xì)胞膜后得到的分割這種方法在從衛(wèi)星圖像中進(jìn)行道路分割時(shí)也特別有用,例如,樹(shù)木的遮擋。拓?fù)涓兄獡p失的數(shù)學(xué)表示NMn%=ze孤⑺--)『2n=lm=\〃弘=Lpixel+叫叩這里,在RHS上,l(m,n)表示VGG19網(wǎng)絡(luò)第n層的第m個(gè)featuremap。Mu是衡量像素?fù)p失和拓?fù)鋼p失相對(duì)重要性的標(biāo)量。對(duì)比損失/三元組損失EmbeddingsTriplet10ss是由FlorianSchroff等人在FaceNet(2015)中提出的,其目的是在有限的小數(shù)據(jù)集(如辦公室中的人臉識(shí)別系統(tǒng))上構(gòu)建一個(gè)人臉識(shí)別系統(tǒng)。傳統(tǒng)的CNN人臉識(shí)別架構(gòu)在這種情況下總是失敗。FlorianSchroffetal關(guān)注的事實(shí)是,在人臉識(shí)別的小樣本空間中,我們不僅要正確識(shí)別匹配的人臉,還要準(zhǔn)確區(qū)分兩個(gè)不同的人臉。為了解決這個(gè)問(wèn)題,F(xiàn)aceNet的論文引入了一個(gè)名為“Siamese網(wǎng)絡(luò)”的概念。在Siamese網(wǎng)絡(luò)中,我們通過(guò)網(wǎng)絡(luò)傳遞一個(gè)圖像A,并將其轉(zhuǎn)換成一個(gè)更小的表示,稱為嵌入。現(xiàn)在,在不更新網(wǎng)絡(luò)的任何權(quán)值或偏差的情況下,我們對(duì)不同的圖像B重復(fù)這個(gè)過(guò)程并提取其嵌入。如果圖像B與圖像A中的人是同一個(gè)人,那么它們相應(yīng)的嵌入必須非常相似。如果它們屬于不同的人,那么它們相應(yīng)的嵌入一定是非常不同的。重申一下,Siamese網(wǎng)絡(luò)的目標(biāo)是確保一個(gè)特定的人的圖像(錨點(diǎn))與同一個(gè)人的所有其他圖像(positive)的距離要比與任何其他人的圖像(negative)的距離更近。為了訓(xùn)練這樣一個(gè)網(wǎng)絡(luò),他們引入了三元組損失函數(shù)??紤]一個(gè)三元組:[anchor,positive,negative]。三元組損失定義為:定義距離度量d=L2范數(shù)計(jì)算anchor圖像與positive圖像的嵌入距離=d(a, p)計(jì)算anchor圖像嵌入到negative圖像的距離=d(a, n)三元組損失二d(a,p)-d(a,n)+offset三元組的數(shù)學(xué)表示Loss=,咽%產(chǎn))邛)丫一I闡")一胸")||/+a]這里,x" ->anchor,x?->positive,xM->negative注:為了快速收斂,必須選取正確的三元組進(jìn)行損失計(jì)算。FaceNet的論文討論了實(shí)現(xiàn)這一目標(biāo)的兩種方法一一離線三元組生成和在線三元組生成。關(guān)于這個(gè)話題的詳細(xì)討論我們將留到以后討論。GAN損失由IanGoodfellow等人首先提出的生成式對(duì)抗網(wǎng)絡(luò)是目前最流行的圖像生成任務(wù)解決方案。GANs的靈感來(lái)自博弈論,并使用一個(gè)對(duì)抗的方案,使它可以用無(wú)監(jiān)督的方式訓(xùn)練。GANs可以被看作是一個(gè)兩個(gè)人的游戲,我們讓生成器(比如產(chǎn)生一個(gè)超分辨率的圖像)與另一個(gè)網(wǎng)絡(luò)一一判別器進(jìn)行較量。判別器的任務(wù)是評(píng)估一個(gè)圖像是來(lái)自原始數(shù)據(jù)集(真實(shí)圖像)還是來(lái)自另一個(gè)網(wǎng)絡(luò)(假圖像)。判別器模型像任何其他深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)一樣k可以被更新,生成器使用判別器作為損失函數(shù),這意味著生成器的損失函數(shù)是隱式的,是在訓(xùn)練過(guò)程中學(xué)習(xí)的。對(duì)于典型的機(jī)器學(xué)習(xí)模型,收斂可以看作是在訓(xùn)練數(shù)據(jù)集上讓所選損失函數(shù)最小化。在GAN中,收斂標(biāo)志著雙人博弈的結(jié)束,是尋求生成器和判別器損失之間的平衡。于GAN來(lái)說(shuō),生成器和判別器是兩個(gè)參與者,它們輪流更新各自的模型權(quán)值。在這里,我們將總結(jié)一些用于GAN網(wǎng)絡(luò)的損失函數(shù).Min-Max損失函數(shù)Discriminator—>max:logD(x)+log{\-D(G(z)))Generator—*min:log(\-Z>(G(z)))然而,在實(shí)踐中發(fā)現(xiàn),這種生成器的損失函數(shù)會(huì)飽和。也就是說(shuō),如果它不能像判別器學(xué)習(xí)得那么快,判別器贏了,游戲就結(jié)束了,模型就不能得到有效的訓(xùn)練。.不飽和的GAN損失不飽和GAN損失是一種改進(jìn)的生成器損失,以克服飽和的問(wèn)題,使用了一個(gè)微妙的變化。該生成器不是最小化所生成圖像的負(fù)判別器概率的對(duì)數(shù),而是最大化所生成圖像的判別器概率的對(duì)數(shù)。Generator—max:log(D(G(z))).最小均方GAN損失由XudongMao,etal(2016)提出,當(dāng)生成的圖像與真實(shí)圖像非常不同時(shí),這種損失函數(shù)特別有用,因?yàn)榇藭r(shí)會(huì)導(dǎo)致梯度非常小或梯度消失,進(jìn)而導(dǎo)致模型很少或沒(méi)有更新。Discriminator一加幾:(£)(%)-1)2+(Z)(G(z))2Generator—min:(D(G(z))-I)2.WassersteinGAN損失MartinArjovsky等人(2017)。他們觀察到,傳統(tǒng)GAN的目的是最小化真實(shí)圖像和生成圖像的實(shí)際概率分布和預(yù)測(cè)概率分布之間的距離,即所謂的Kullback-Leibler(KL)散度。相反,他們建議在Earth-Mover’sdistance上對(duì)問(wèn)題進(jìn)行建模,該模型根據(jù)將一個(gè)分布轉(zhuǎn)換成另一個(gè)分布的成本來(lái)計(jì)算兩個(gè)概率分布之間的距離。使用Wasserstein損失的GAN涉及到將判別器的概念改變?yōu)橐粋€(gè)更改評(píng)估器,比生成器模型更新得更頻繁(例如,更新頻率是生成器模型的五倍)。評(píng)估器用實(shí)際的數(shù)字而不是預(yù)測(cè)概率來(lái)給圖像打分。它還要求模型的權(quán)重保持較小。該得分的計(jì)算使得真假圖像的得分之間的距離最大程度地分離。Wasserstein的損失的好處是,它提供了一個(gè)有用幾乎無(wú)處不在的梯度,允許模型的繼續(xù)訓(xùn)練。WGANLoss(RealImages)=1*avgpredictedscoreWGANLoss(FakeImages)=T*avgpredictedscore.循環(huán)一致性損失ZebrasHorses圖像到圖像的轉(zhuǎn)換是一個(gè)圖像合成的任務(wù),需要對(duì)給定的圖像進(jìn)行有控制的修改,生成一個(gè)新的圖像。例如,把馬轉(zhuǎn)換成斑馬(或反過(guò)來(lái)),把繪畫(huà)轉(zhuǎn)換成照片(或反過(guò)來(lái)),等等。訓(xùn)練用于圖像到圖像轉(zhuǎn)換的模型通常需要大量成對(duì)的樣本數(shù)據(jù)集,這些樣本很難找到。CycleGAN是一種不需要配對(duì)實(shí)例的自動(dòng)訓(xùn)練技術(shù)。這些模型以一種無(wú)監(jiān)督的方式進(jìn)行訓(xùn)練,使用來(lái)自源和目標(biāo)域的圖像集合,這些圖像不需要以任何方式關(guān)聯(lián)。CycleGAN是GAN體系結(jié)構(gòu)的擴(kuò)展,它同時(shí)訓(xùn)練兩個(gè)生成器模型和兩個(gè)判別器模型。一個(gè)生成器從第一個(gè)域獲取圖像作為第二個(gè)域的輸入和輸出圖像,另一個(gè)生成器從第二個(gè)域獲取圖像作為輸入并生成第一個(gè)域的圖像。然
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 7《不甘屈辱奮勇抗?fàn)帯返谝徽n時(shí)《虎門(mén)銷煙》(教學(xué)設(shè)計(jì))2023-2024學(xué)年統(tǒng)編版道德與法治五年級(jí)下冊(cè)
- Module 2 (單元整體教學(xué)設(shè)計(jì))-2024-2025學(xué)年外研版(三起)英語(yǔ)六年級(jí)上冊(cè)
- Unit 6 The power of plants 第6課時(shí)Presenting ideas +Reflection教學(xué)設(shè)計(jì) -2024-2025學(xué)年外研版英語(yǔ)(2024)七年級(jí)上冊(cè)
- 5魯濱遜漂流記(節(jié)選)教學(xué)設(shè)計(jì)-2023-2024學(xué)年六年級(jí)下冊(cè)語(yǔ)文統(tǒng)編版
- 平移旋轉(zhuǎn)軸對(duì)稱(教學(xué)設(shè)計(jì))-2024-2025學(xué)年四年級(jí)下冊(cè)數(shù)學(xué)蘇教版
- 12家鄉(xiāng)的喜與憂(教學(xué)設(shè)計(jì))-統(tǒng)編版道德與法治四年級(jí)下冊(cè)
- 辦公樓裝修改造項(xiàng)目經(jīng)濟(jì)效益分析
- 2025年貝瓷餐具項(xiàng)目合作計(jì)劃書(shū)
- 2025年度企業(yè)員工家屬食宿優(yōu)惠服務(wù)協(xié)議
- 2025-2030年中國(guó)茶咖啡堿行業(yè)深度研究分析報(bào)告
- 濰坊2025年山東濰坊市產(chǎn)業(yè)技術(shù)研究院招聘7人筆試歷年參考題庫(kù)附帶答案詳解
- 2025年1月浙江省高考政治試卷(含答案)
- 2025年上半年重慶三峽融資擔(dān)保集團(tuán)股份限公司招聘6人高頻重點(diǎn)提升(共500題)附帶答案詳解
- 大模型關(guān)鍵技術(shù)與應(yīng)用
- 小學(xué)五年級(jí)體育教案全冊(cè)(人教版)
- DZ∕T 0227-2010 地質(zhì)巖心鉆探規(guī)程(正式版)
- 2024年 江蘇鳳凰新華書(shū)店集團(tuán)有限公司招聘筆試參考題庫(kù)含答案解析
- 20以內(nèi)加減法口算題(10000道)(A4直接打印-每頁(yè)100題)
- 文獻(xiàn)檢索教案
- 通信工程概預(yù)算培訓(xùn)教材(共68頁(yè)).ppt
- 新零售背景下大型商超運(yùn)營(yíng)模式研究
評(píng)論
0/150
提交評(píng)論