版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
無人機(jī)遙感影像在油菜品種識別中的應(yīng)用
李婕李毅張瑞杰李俐俐李禮姚劍喬江偉Summary:采用無人機(jī)遙感技術(shù)進(jìn)行油菜品種識別,是產(chǎn)量預(yù)測及災(zāi)害評估的重要前提和基礎(chǔ)。本研究利用無人機(jī)作為數(shù)據(jù)采集設(shè)備,以基地24個(gè)品種油菜苗期育種材料為識別數(shù)據(jù),將無人機(jī)獲取的影像進(jìn)行拼接、裁剪、旋轉(zhuǎn)等預(yù)處理,按照4∶1劃分訓(xùn)練集和測試集,構(gòu)建注意力機(jī)制引導(dǎo)的卷積神經(jīng)網(wǎng)絡(luò)搭建油菜影像識別網(wǎng)絡(luò)模型,并采用總體準(zhǔn)確率、Kappa系數(shù)等評價(jià)參數(shù)對識別結(jié)果進(jìn)行評價(jià)。結(jié)果表明,本研究的網(wǎng)絡(luò)模型識別準(zhǔn)確率和Kappa系數(shù)分別達(dá)到了89.60%和0.8894,高于5個(gè)經(jīng)典網(wǎng)絡(luò)模型。說明,注意力機(jī)制能夠更加充分地提取無人機(jī)遙感影像的油菜特征,有效地提高卷積神經(jīng)網(wǎng)絡(luò)對不同品種油菜的識別精度。本研究網(wǎng)絡(luò)模型彌補(bǔ)了傳統(tǒng)油菜細(xì)分需要人力統(tǒng)計(jì)及現(xiàn)有方法設(shè)備成本高的缺陷,為采用無人機(jī)遙感技術(shù)進(jìn)行作物品種識別提供技術(shù)支撐。Key:油菜;無人機(jī)遙感技術(shù);品種識別;卷積神經(jīng)網(wǎng)絡(luò);注意力機(jī)制:TP75
:A
:1000-4440(2022)03-0675-10ApplicationofUAVremotesensingimageinrapevarietyidentificationLIJie1,LIYi1,ZHANGRui-jie2,LILi-li2
,LILi2,YAOJian2,QIAOJiang-wei3(1.SchoolofElectricalandElectronicEngineering,HubeiUniversityofTechnology,Wuhan430068,China;2.SchoolofRemoteSensingandInformationEngineering,WuhanUniversity,Wuhan430070,China;3.OilCropsResearchInstitute,ChineseAcademyofAgriculturalSciences,Wuhan430062,China)Abstract:Usingunmannedaerialvehicle(UAV)remotesensingtechnologytoidentifyrapevarietiesisanimportantprerequisiteandbasisforyieldpredictionanddisasterassessment.Inthisstudy,UAVwasusedasdataacquisitionequipment,andthebreedingmaterialsof24rapevarietiesatseedlingstageinthebasewereusedasidentificationdata.TheimagesobtainedbytheUAVwerepreprocessedsuchassplicing,clippingandrotation.Thetrainingsetandtestsetweredividedaccordingtotheratioof4∶1,andtheconvolutionalneuralnetworkguidedbyattentionmechanismwasconstructedtobuildtherecognitionmodel.Theoverallaccuracy,Kappacoefficientandotherevaluationparameterswereusedtoevaluatetherecognitionresults.TheresultsshowedthattherecognitionaccuracyandKappacoefficientofthenetworkmodelconstructedinthisstudyreached89.60%and0.8894,respectively,whichwerehigherthanthoseofthefiveclassicalnetworkmodels.TheattentionmechanismcanextracttherapefeaturesofUAVremotesensingimagesmorefully,andeffectivelyimprovetherecognitionaccuracyofconvolutionalneuralnetworkfordifferentvarietiesofrape.Thenetworkmodelconstructedinthisstudymakesupfortheshortcomingsofhumanstatisticsandhighcostofexistingmethodsandequipment,andprovidestechnicalsupportforcropvarietyidentificationusingUAVremotesensingtechnology.Keywords:rape;unmamedaerialvehicle(UAV)remotesensingtechnology;varietyidentification;convolutionalneuralnetwork;attentionmechanism油菜是中國主要的油料作物,占世界產(chǎn)量的20%,在國民經(jīng)濟(jì)發(fā)展中占據(jù)著舉足輕重的地位[1-2]。長江中下游作為油菜高產(chǎn)區(qū),油菜品種繁多,不同品種的產(chǎn)量、抗性等有所差異,因此,及時(shí)、準(zhǔn)確地獲取油菜品種種植信息是產(chǎn)量預(yù)測及災(zāi)害評估的重要前提和基礎(chǔ),對油菜種植規(guī)劃及生產(chǎn)管理措施制定具有重要意義。長期以來,中國油菜品種種植信息等重要農(nóng)業(yè)統(tǒng)計(jì)數(shù)據(jù),主要通過人工統(tǒng)計(jì)等傳統(tǒng)方法獲得,普遍存在調(diào)查工作量龐大、財(cái)力和物力耗費(fèi)高、調(diào)查周期長等諸多缺陷。如今,遙感技術(shù)發(fā)展迅速,利用高分辨率的衛(wèi)星并以地面采樣調(diào)查為輔助,可實(shí)現(xiàn)油菜種植品種信息的精細(xì)提取[3],但是由于衛(wèi)星重返周期長,指定區(qū)域的實(shí)時(shí)性數(shù)據(jù)無法保證,所以單一利用遙感進(jìn)行油菜品種識別,監(jiān)測精度無法滿足實(shí)時(shí)性要求。因此,采用無人機(jī)遙感技術(shù)進(jìn)行油菜品種細(xì)分成為必要。目前,無人機(jī)遙感結(jié)合深度學(xué)習(xí)技術(shù)在大面積、快速、不破壞作物結(jié)構(gòu)的同時(shí)能夠獲取不同時(shí)空的多尺度作物冠層信息[4],為作物表型研究[5-6]、產(chǎn)量及品質(zhì)監(jiān)控評估[7-8]、作物長勢動態(tài)[9]、精細(xì)農(nóng)業(yè)[10]等提供了可視化的分析依據(jù)。無人機(jī)根據(jù)載荷、監(jiān)測目的的不同能夠搭載不同類型的遙感傳感器。雖然無人機(jī)搭載多光譜成像傳感器的應(yīng)用較多[11-12],但多光譜傳感器存在波段數(shù)有限、光譜信息量小、樣本標(biāo)記代價(jià)高的問題,使其大面積推廣應(yīng)用受到限制;而無人機(jī)搭載高光譜傳感器在農(nóng)作物精細(xì)識別方面得到廣泛應(yīng)用[13-16],由于其獲取的影像包含數(shù)百個(gè)波段,光譜分辨率能夠達(dá)到2~4nm,因此高光譜成像傳感器能夠準(zhǔn)確地反映大田中農(nóng)作物的光譜特征和不同農(nóng)作物之間的光譜差異[17],但也存在樣本標(biāo)記代價(jià)高,實(shí)施成本昂貴的問題[18]。無人機(jī)搭載RGB相機(jī),具有成本低且受天氣影響較小等優(yōu)點(diǎn),能夠獲取占用內(nèi)存較小的數(shù)碼照片,使大面積農(nóng)田信息快速采集、簡單處理成為可能[19]。近年來國內(nèi)外學(xué)者運(yùn)用無人機(jī)搭載RGB相機(jī)的數(shù)碼照片對農(nóng)作物信息進(jìn)行提取取得了不錯(cuò)的效果,Bendig等[20]利用數(shù)碼相機(jī)估算大麥的株高、葉面積指數(shù)、倒伏狀況等信息,牛慶林等[21]采用無人機(jī)RGB影像提取各個(gè)時(shí)期、各個(gè)田塊玉米的株高信息。目前應(yīng)用低空無人機(jī)遙感手段估測油菜成長參數(shù)的研究尚處在初級階段,已有的基于RGB相機(jī)對油菜品種的細(xì)分研究主要以近距離拍攝的圖像作為輸入[22-23],鮮少僅以高空農(nóng)作物影像作為輸入。因此,本研究基于深度學(xué)習(xí)理論,以無人機(jī)獲取的影像為數(shù)據(jù),利用不同油菜品種的高空視覺表型特征,提出一種基于普通消費(fèi)級無人機(jī)遙感影像的油菜品種的識別方法。該方法采用多尺度特征的提取方式,結(jié)合通道注意力機(jī)制,利用高維空間的最優(yōu)分類函數(shù),對模型進(jìn)行優(yōu)化,使之與高空拍攝農(nóng)作物影像的識別與處理吻合。最后,通過構(gòu)建多組數(shù)據(jù)、多種模型的對比試驗(yàn),驗(yàn)證該方法的有效性,為油菜的品種識別及農(nóng)作物智慧決策提供有益補(bǔ)充。1材料與方法1.1試驗(yàn)布置與數(shù)據(jù)采集油菜種植分為冬油菜(9底種植,次年5月收獲)和春油菜(4月底種植,9月收獲)。其中,冬油菜的種植面積和產(chǎn)量均占全國的90%以上,占世界的1/4。本研究選取湖北省武漢市新洲區(qū)中國農(nóng)業(yè)科學(xué)院油料作物研究所陽邏基地(30°42′E,14°30′N)作為研究區(qū)域(圖1),該區(qū)域海拔約24m,氣候類型為亞熱帶季風(fēng)氣候。試驗(yàn)田共分252個(gè)小區(qū),小區(qū)面積分為8m2(2m×4m)和6m2(2m×3m)2種。試驗(yàn)選擇24個(gè)不同品種的油菜材料,以p1~p24依次命名,其中,p1~p6每個(gè)品種重復(fù)種植24個(gè)小區(qū),p7~p24每個(gè)油菜品種重復(fù)種植6個(gè)小區(qū)。試驗(yàn)時(shí)間在冬油菜的幼苗期,即2020年10月至次年1月。數(shù)據(jù)采集使用的無人機(jī)型號為大疆精靈Phantom4ProV2.0,搭載相機(jī)為2×107像素,拍攝單張圖像尺寸為5472×3648,具體采集環(huán)境如表1所示。采用自動規(guī)劃航拍模式,航向重疊率和旁向重疊率設(shè)定為75%,飛行高度10m,以等距間隔方式進(jìn)行拍照,飛行速度為1.9m/s,約10min完成研究區(qū)域數(shù)據(jù)采集。大田24個(gè)不同品種的油菜苗期影像數(shù)據(jù)輸入,按照從左至右,自上而下順序分別放置了第1種至第24種不同油菜品種材料影像(圖2)。由圖2可以發(fā)現(xiàn),部分品種視覺效果差異很小。1.2數(shù)據(jù)預(yù)處理為了獲取識別網(wǎng)絡(luò)模型的訓(xùn)練樣本,無人機(jī)分別拍攝了油菜在六葉期、八葉期以及十葉期的影像數(shù)據(jù),每期包含p1~p24共24個(gè)油菜品種數(shù)據(jù)集,將獲取的無人機(jī)遙感影像數(shù)據(jù)進(jìn)行預(yù)處理,每期油菜數(shù)據(jù)集進(jìn)行4∶1劃分訓(xùn)練集和測試集。具體步驟如圖3所示。首先將研究區(qū)域的無人機(jī)航拍影像進(jìn)行拼接,獲取大田的正射影像,然后利用圖像處理軟件將正射影像按照實(shí)際地面尺寸進(jìn)行裁剪,同時(shí)綜合大田種植時(shí)的數(shù)據(jù),為對應(yīng)的影像打上標(biāo)簽。因?yàn)樵囼?yàn)田和油菜品種有限,所以獲取的影像數(shù)據(jù)較少,可能不滿足模型訓(xùn)練的特征提取,為了解決這個(gè)問題,本研究對標(biāo)記好的原始圖片進(jìn)行裁剪,并考慮到數(shù)據(jù)采集過程中天氣情況對圖像亮度的影響不同,對剪裁圖像的亮度進(jìn)行了操作。首先將圖像從RGB色彩空間轉(zhuǎn)變到HSV色彩空間,然后對亮度進(jìn)行調(diào)整,以10%的比例增加亮度,使網(wǎng)絡(luò)模型對不同天氣造成的亮度變化具有更強(qiáng)的適應(yīng)性。為了增加訓(xùn)練樣本以防止圖像數(shù)據(jù)過度擬合,需要對裁剪得到的中圖影像進(jìn)行數(shù)據(jù)擴(kuò)展。將獲取的單張品種p1~p6油菜中圖影像裁剪成18張小圖,品種p7~p24油菜中圖影像裁剪成15張小圖,得到最終的網(wǎng)絡(luò)模型訓(xùn)練和測試所需要的剪裁后的數(shù)據(jù)集(圖3)。1.3油菜品種識別網(wǎng)絡(luò)模型本研究采用的網(wǎng)絡(luò)模型結(jié)構(gòu)圖如圖4所示,其中主干網(wǎng)絡(luò)模型共分為3個(gè)尺度模塊,每個(gè)尺度模塊由2個(gè)連續(xù)的3×3卷積層(stride=1)及ReLU非線性激活函數(shù)組成,為了擴(kuò)展到下一個(gè)尺度模塊,采用2×2最大池化層并保留輸出塊中的最大像素使輸出分辨率減半。雖然每個(gè)卷積步驟中都存在2個(gè)像素的損失,但由于本研究目標(biāo)不是精確的特征定位,因此在不影響整體性能的情況下提高了訓(xùn)練和推理速度??紤]到網(wǎng)絡(luò)模型的全局表現(xiàn)以及提升運(yùn)行速度,在每一次非線性激活函數(shù)之后,實(shí)行批量歸一化。識別部分采用參數(shù)較少的卷積操作來完成,通過特征提取得到圖像的特征后,首先經(jīng)過1×1的卷積將特征圖維度調(diào)整成1,然后用全局平均池化層得到輸入圖像的24類識別結(jié)果,最終用Softmax將結(jié)果轉(zhuǎn)化為各品種的概率。為了讓網(wǎng)絡(luò)模型在通道之間篩選提取出更加有用的特征信息,本研究考慮在主干網(wǎng)絡(luò)模型的基礎(chǔ)上添加注意力模塊。具體的結(jié)構(gòu)框圖如圖5所示。首先,通過對卷積得到的特征圖進(jìn)行處理,得到一個(gè)和通道數(shù)相同的一維向量作為每個(gè)通道的評價(jià)分?jǐn)?shù),然后將該分?jǐn)?shù)分別施加到對應(yīng)的通道上。假設(shè)特征圖維度為h×w×c,在此基礎(chǔ)上做全局池化,池化窗口為h×w,通道數(shù)不變,那么經(jīng)過池化操作得到
1×1×c的特征圖;然后,連接2個(gè)全連接層,其中,第一個(gè)全連接層神經(jīng)元個(gè)數(shù)為c/r,相當(dāng)于對c進(jìn)行了降維;輸入c個(gè)特征,第二個(gè)全連接層神經(jīng)元個(gè)數(shù)為c,相當(dāng)于維度回到了c個(gè)特征,與直接用1個(gè)全連接層相比,這種鏈接方式具備更多的非線性,可以更好地?cái)M合通道間復(fù)雜的相關(guān)性,因此極大地減少了參數(shù)量和計(jì)算量;最后,考慮到通道之間的相關(guān)性,連接1個(gè)sigmod層,得到1×1×c的特征圖輸出。主干網(wǎng)絡(luò)模型的特征圖維度h×w×c,輸入到注意力模塊,得到通道的權(quán)值,維度為1×1×c,將主干網(wǎng)絡(luò)模型特征圖與權(quán)重特征圖相乘,得到的特征圖對應(yīng)的每個(gè)通道的重要性不同,權(quán)重大的特征值更大。在訓(xùn)練過程中,采用Loss函數(shù)為交叉熵函數(shù),損失函數(shù)表達(dá)式如公式1所示:L=1N∑(-∑Mc=1yic
lgpic)(1)其中,M表示類別數(shù),yic
為指示變量,如果該類別與樣本i的類別相同則為1,否則為0;pic
表示觀測樣本i為類別c的預(yù)測概率;N為樣本的數(shù)量。而本研究所對應(yīng)的任務(wù),需要用多分類的交叉熵函數(shù)對24類的交叉熵函數(shù)進(jìn)行擴(kuò)展。1.4評價(jià)指標(biāo)本研究深度學(xué)習(xí)運(yùn)行硬件環(huán)境為Ubuntu16.04,硬件內(nèi)存為128G,2張NVIDIAGTX1080Ti顯卡。為了檢驗(yàn)?zāi)P偷姆€(wěn)定性,本研究利用交叉驗(yàn)證的方法,將樣本集分成5份,按照4∶1劃分訓(xùn)練集和測試集,最終計(jì)算
n次訓(xùn)練下的評價(jià)指標(biāo)。本研究采用公式(2)~公式(7)所示的評價(jià)指標(biāo)來評估網(wǎng)絡(luò)模型整體性能Top3和Top5準(zhǔn)確率,即在概率向量最大的前3/前5中,只要出現(xiàn)了正確概率即為預(yù)測正確。A(Accuracy)=TP+TNTP+TN+FP+FN(2)P(Precision)=TPTP+FP(3)R(Recall)=TPTP+FN(4)F1=2×P×RP+R(5)MacroF1=∑F1
in(6)MicroF1=2×all_p×all_rall_p+all_r(7)其中,準(zhǔn)確率(Accuracy):識別正確樣本數(shù)除以總樣本數(shù);查準(zhǔn)率(Precision):識別正確的正樣本個(gè)數(shù)占分類器分成的所有正樣本個(gè)數(shù)的比例;召回率(Recall):識別正確的正樣本個(gè)數(shù)占實(shí)際正樣本個(gè)數(shù)的比例;MacroF1和MicroF1值:兼顧識別模型的查準(zhǔn)率和召回率,是兩者的調(diào)和均值;
TP(True
Positive)表示正類樣本被模型分為正類樣本,F(xiàn)P(False
Positive)表示負(fù)類樣本被模型分為正類樣本。TN(True
Negetive)表示負(fù)類樣本被模型分為負(fù)類樣本,F(xiàn)N(False
Negetive)表示正類樣本被模型分為負(fù)類樣本。2結(jié)果與分析2.1本研究網(wǎng)絡(luò)模型的驗(yàn)證為了驗(yàn)證本研究網(wǎng)絡(luò)模型的有效性,本研究分別用4個(gè)單獨(dú)時(shí)期的油菜數(shù)據(jù)集進(jìn)行試驗(yàn)。每期數(shù)據(jù)按照4∶1的比例劃分訓(xùn)練小區(qū)和測試小區(qū),然后將對應(yīng)小區(qū)增強(qiáng)后的數(shù)據(jù)作為訓(xùn)練數(shù)據(jù)集和測試數(shù)據(jù)集,得到參與訓(xùn)練和測試的樣本數(shù)量分別為6510張和1914張,如表2和表3所示。經(jīng)過迭代后訓(xùn)練效果如圖6所示,從圖6可以看出,隨著迭代次數(shù)的增加,精度提升,誤差降低,大約訓(xùn)練150個(gè)周期后,誤差和精度趨于平穩(wěn),說明網(wǎng)絡(luò)模型的偏差、方差和精度接近完全收斂。在試驗(yàn)中基本參數(shù)設(shè)置,學(xué)習(xí)率為0.01,batch_size為32,epoch為300。試驗(yàn)得到6個(gè)性能指標(biāo)在4個(gè)數(shù)據(jù)集里的整體性能如表4所示。對比不同油菜苗期數(shù)據(jù)集上的識別結(jié)果,總體上前期識別精度更高,各項(xiàng)性能指標(biāo)更好,油菜在六葉期更加適合品種識別。為了評價(jià)本研究網(wǎng)絡(luò)模型識別不同品種油菜的效果,對24個(gè)油菜品種p1~p24進(jìn)行歸類分析,每個(gè)品種識別精確度如圖7所示。對4個(gè)采集時(shí)期的每個(gè)油菜品種識別精度求平均,將平均識別精度效果分為4個(gè)層次,高于95.0%為識別效果最好,85.1%~95.0%為較好,75.1%~85.0%為一般,低于75%為較差,具體識別效果如表5所示。結(jié)果表明,本研究模型對p3、p5、p11、p12、p19、p22、p23、p24這8個(gè)油菜品種識別效果最好,平均精度都是95%以上,尤其是品種p12和p22,其識別精度分別達(dá)到了99.45%和99.19%;但是對品種p1和p7識別效果較差,其識別精度只有68.62%和72.73%,分析原因可能是品種p1和p7整體表型差異性較小,葉片密集且極度相似,視覺上難以區(qū)分(圖8),網(wǎng)絡(luò)模型對其誤判嚴(yán)重,所以導(dǎo)致識別精度不高。2.2本研究網(wǎng)絡(luò)模型在不同時(shí)期采集數(shù)據(jù)上的識別精度分析在4個(gè)采集時(shí)期中,本研究網(wǎng)絡(luò)模型隨著油菜成長期的推進(jìn)對其識別的準(zhǔn)確率呈下降趨勢,F(xiàn)1、Top3、Top5指標(biāo)也相應(yīng)下降。因?yàn)檫M(jìn)入八葉期、十葉期,葉片逐漸茂盛,隨著生長發(fā)育進(jìn)程的推進(jìn),油菜葉形不斷發(fā)生變化,而氣溫長時(shí)間在零下的越冬期,葉形最復(fù)雜,因?yàn)橛筒巳~片會出現(xiàn)受凍癥狀。圖9展示了油菜品種p1在同一位置的4個(gè)采集時(shí)期的影像,從圖9中可以發(fā)現(xiàn),第4次采集的數(shù)據(jù)與前面3次采集的數(shù)據(jù)相比,差異較大。因?yàn)榈?次采集的數(shù)據(jù)采集時(shí)間正處于冬油菜的越冬期,由于氣溫較低,油菜葉片呈現(xiàn)卷曲現(xiàn)象,甚至有的葉片發(fā)紫變黃,出現(xiàn)不同程度的凍傷現(xiàn)象,從而導(dǎo)致準(zhǔn)確率及識別精度與前面3次相比有所降低。圖10為本研究模型在4個(gè)采集時(shí)期形成的混淆矩陣,其中混淆矩陣的行表示真實(shí)值的樣本,每一行之和表示真實(shí)樣本數(shù)量;混淆矩陣的列表示預(yù)測樣本類別,每一列之和表示預(yù)測為該類別的樣本數(shù)量。通過混淆矩陣可以看出,基于當(dāng)前的樣本集合,有一些類別具有較強(qiáng)相似性。2.3識別結(jié)果的可視化本研究在試驗(yàn)田的測試區(qū)展示了第2次采集數(shù)據(jù)的識別結(jié)果。這種顯示方式一定程度上可以幫助管理者快速獲得識別結(jié)果。如圖11所示,黑色實(shí)線矩形框區(qū)域?yàn)楸敬畏诸悓?shí)驗(yàn)田,黑色虛線內(nèi)的白色矩形框區(qū)域?yàn)闇y試區(qū)的47個(gè)小區(qū),種有24個(gè)品種。放大的測試區(qū)中顏色越深表明小區(qū)的分類錯(cuò)誤率越高,從試驗(yàn)結(jié)果可以看出,測試區(qū)1主要為品種p1至p6,結(jié)果顯示無錯(cuò)分類別;測試區(qū)2為品種p7至p24,其中,顏色最深的2塊小區(qū)對應(yīng)的品種p16容易被錯(cuò)分為品種p4,剩下的較淺的錯(cuò)分區(qū)域主要為品種p13和p15分類混淆。本研究將錯(cuò)分的類別影像進(jìn)行了對比,分類錯(cuò)誤的樣本與真實(shí)的樣本視覺上具有極高的相似度,導(dǎo)致本研究模型誤判,從而降低了不同油菜品種識別的區(qū)分精度,這幾個(gè)品種在幼苗期具有極強(qiáng)的相似性,油菜生長周期長,不同時(shí)期不同環(huán)境生長的油菜特征差異可能會更加明顯,因此可能需要在不同時(shí)期不同種植位置采集這幾個(gè)相似性強(qiáng)的品種,獲取更多數(shù)據(jù),增加差異性,得到更強(qiáng)的特征,從而更好地加以細(xì)分。由于本研究網(wǎng)絡(luò)模型屬于輕量化設(shè)計(jì),所以網(wǎng)絡(luò)模型訓(xùn)練參數(shù)量少,速度快,網(wǎng)絡(luò)模型結(jié)構(gòu)簡單,因此對極相似油菜品種不易區(qū)分,后續(xù)考慮改進(jìn)算法增加網(wǎng)絡(luò)模型復(fù)雜度和采集不同環(huán)境下的數(shù)據(jù),提高差異性較小的不同油菜品種的識別能力,增加網(wǎng)絡(luò)模型的魯棒性。2.4本研究網(wǎng)絡(luò)模型與傳統(tǒng)識別網(wǎng)絡(luò)模型的對比為了驗(yàn)證本研究提出的網(wǎng)絡(luò)模型的客觀性,本研究將其分別與Resnet[24]、Densenet[25]、Resnext[26]、Efficientnet[27]、Shufflenet[28]
5種經(jīng)典的網(wǎng)絡(luò)模型進(jìn)行對比,試驗(yàn)過程中采用相同的基本參數(shù),由于不同品種油菜生長不同步,有的油菜品種早期葉片極度稀少,晚期油菜葉片有大量凍傷,這些數(shù)據(jù)會影響數(shù)據(jù)集的質(zhì)量,所以本研究選擇在生長狀況較好的八葉期采集的數(shù)據(jù)。不同網(wǎng)絡(luò)模型在同一個(gè)數(shù)據(jù)集的相同基本參數(shù)下的各項(xiàng)性能指標(biāo)如表6所示。從表6可以看出,本研究提出的網(wǎng)絡(luò)模型在各項(xiàng)指標(biāo)上的精度都高于其他5個(gè)經(jīng)典網(wǎng)絡(luò)模型,準(zhǔn)確率達(dá)到89.60%。Densenet網(wǎng)絡(luò)模型是通過每層直接相連的相鄰設(shè)置,對上一層學(xué)習(xí)到的特征進(jìn)行重用,極大地減少網(wǎng)絡(luò)的參數(shù)量,加強(qiáng)了特征傳播,緩解了梯度消失的問題,便于更好訓(xùn)練,提升了識別準(zhǔn)確率,因此在5種經(jīng)典網(wǎng)絡(luò)模型中擁有最高的準(zhǔn)確率。Resnext、Efficientnet、Resnext網(wǎng)絡(luò)模型的準(zhǔn)確率相近,相比于Resnet網(wǎng)絡(luò)模型,準(zhǔn)確率提升了4個(gè)百分點(diǎn)左右,而Resnet網(wǎng)絡(luò)模型卷積層層數(shù)多,參數(shù)量大,訓(xùn)練時(shí)間長,在本研究構(gòu)造的小數(shù)據(jù)集中的準(zhǔn)確率最低。Resnext網(wǎng)絡(luò)模型利用分組卷積控制基數(shù)減少了超參數(shù),簡化了網(wǎng)絡(luò)模型結(jié)構(gòu)。Efficientnet和Shufflenet網(wǎng)絡(luò)模型也通過建立輕量級網(wǎng)絡(luò)模型減少網(wǎng)絡(luò)模型復(fù)雜度和減少訓(xùn)練時(shí)間來提升準(zhǔn)確率,這2種網(wǎng)絡(luò)模型準(zhǔn)確率、Macro_F1和Top3以及Top5的數(shù)值相近。總體而言,由于經(jīng)典網(wǎng)絡(luò)模型常具有較多的參數(shù)[29-30],因此容易發(fā)生過擬合,而本研究設(shè)計(jì)的網(wǎng)絡(luò)模型,結(jié)構(gòu)簡單,參數(shù)量較少,并且能夠更精確地識別不同品種的油菜。3討論針對傳統(tǒng)油菜品種細(xì)分需要人力統(tǒng)計(jì)及現(xiàn)有方法設(shè)備成本高的問題,本研究提出了一種基于普通消費(fèi)級無人機(jī)遙感影像的油菜品種識別方法,采用無人機(jī)遙感進(jìn)行了數(shù)據(jù)采集、數(shù)據(jù)預(yù)處理等研究工作,結(jié)合本研究提出的網(wǎng)絡(luò)模型結(jié)構(gòu),首先對4次采集的油菜數(shù)據(jù)進(jìn)行了試驗(yàn)以尋找最適合分類的油菜時(shí)期,再用油菜八葉期的2個(gè)時(shí)間段合并的數(shù)據(jù)集與傳統(tǒng)網(wǎng)絡(luò)模型進(jìn)行對比,并對識別結(jié)果進(jìn)行分析,結(jié)果表明:(1)基于SE注意力模塊的卷積神經(jīng)網(wǎng)絡(luò)能夠從油菜作物無人機(jī)遙感影像中學(xué)習(xí)到表達(dá)力更強(qiáng)的語義特征,提取特征更加充分。且本研究網(wǎng)絡(luò)模型架構(gòu)簡單,參數(shù)量較少,在增加SE注意力模塊后,網(wǎng)絡(luò)模型學(xué)習(xí)的特征信息豐富,從而能夠達(dá)到對油菜生長時(shí)期關(guān)鍵節(jié)點(diǎn)的影像快速分類的目的。與Resnet、Densenet、Resnext、Efficient、Shufflenet等傳統(tǒng)網(wǎng)絡(luò)模型相比,本研究網(wǎng)絡(luò)模型識別準(zhǔn)確率和Kappa系數(shù)最高,達(dá)到了89.60%和0.8894,為利用無人機(jī)遙感影像識別油菜品種提供了一種新的技術(shù)參考。(2)通過對24個(gè)油菜品種進(jìn)行歸類分析,發(fā)現(xiàn)在品種p1~p24中,本研究網(wǎng)絡(luò)模型最容易識別出品種p12和p22,其識別精度接近100%,對品種p3、p5、p11、p19、p23、p24這6個(gè)品種識別效果也很好,平均精度都在95%以上,但是對p1和p7識別效果較差,其精度只有70%左右,余下14個(gè)品種識別效果都處于較好級別,整體識別效果較好,表明無人機(jī)遙感影像結(jié)合增加注意力模塊的卷積神經(jīng)網(wǎng)絡(luò)能夠很好地對油菜品種進(jìn)行識別。(3)冬油菜進(jìn)入八葉期、十葉期,葉片逐漸茂盛,隨著生長發(fā)育進(jìn)程的推進(jìn),油菜葉形不斷的發(fā)生變化,而當(dāng)油菜長時(shí)間處于氣溫零下的越冬期時(shí),葉形最復(fù)雜,溫度降低導(dǎo)致部分油菜品種葉片出現(xiàn)受凍癥狀,視覺效果呈現(xiàn)為葉片卷曲和顏色變深,具體表現(xiàn)為葉片發(fā)黃或發(fā)紫、皺縮、僵化、葉柄呈水漬狀;而當(dāng)溫度回升、土壤解凍后,葉片逐漸萎蔫、變黃、脫落,導(dǎo)致同一品種的無人機(jī)遙感影像差異大,從而使網(wǎng)絡(luò)模型學(xué)習(xí)特征較難,致使網(wǎng)絡(luò)模型識別精度下降。因此,識別時(shí)期應(yīng)選擇在幼苗期前期。結(jié)合無人機(jī)遙感影像與深度學(xué)習(xí)在油菜品種識別中展現(xiàn)出的較好效果,增加SE注意力模塊后的網(wǎng)絡(luò)模型與傳統(tǒng)網(wǎng)絡(luò)模型相比,在準(zhǔn)確率上也有較大優(yōu)勢,各項(xiàng)性能指標(biāo)均有提高。但由于試驗(yàn)小區(qū)及品種的局限性,后續(xù)將考慮增加試驗(yàn)田和油菜品種,用以驗(yàn)證網(wǎng)絡(luò)模型結(jié)構(gòu)的魯棒性;另外,考慮到在幼苗期部分品種的相似性,本研究考慮添加不同物候期的油菜數(shù)據(jù)用于后續(xù)精細(xì)化的識別研究。Reference:[1]QIONGH,WEIH,YANY,etal.RapeseedresearchandproductioninChina[J].TheCropJournal,2017,5(2):127-135.[2]劉成,馮中朝,肖唐華,等.我國油菜產(chǎn)業(yè)發(fā)展現(xiàn)狀、潛力及對策[J].中國油料作物學(xué)報(bào),2019,41(4):485-489.[3]王晨宇,張亞民,吳伯彪,等.基于無人機(jī)遙感的農(nóng)作物自動分類研究[J].農(nóng)業(yè)與技術(shù),2021,41(1):52-57.[4]尹凡,劉燕,董晶晶,等.基于冠層實(shí)測光譜的油菜品種識別[J].湖北農(nóng)業(yè)科學(xué),2013,52(23):5866-5870.[5]袁培森,李潤隆,任守綱,等.表示學(xué)習(xí)技術(shù)研究進(jìn)展及其在植物表型中應(yīng)用分析[J].農(nóng)業(yè)機(jī)械學(xué)報(bào),2020,51(6):1-14.[6]JIANGY,LIC.Convolutionalneuralnetworksforimage-basedhigh-throughputplantphenotyping:areview[J].PlantPhenomics,2020,2(1):1-22.[7]MASJEDIA,CARPENTERNR,CRAWFORDMM,etal.PredictionofsorghumbiomassusingUAVtimeseriesdataandrecurrentneuralnetworks[C].LongBeach,America:IEEE/CVF,2019.[8]MASJEDIA,ZHAOJ,ZHAOJ,etal.SorghumbiomasspredictionusingUAV-Basedremotesensingdataandcropmodelsimulation[C].Valencia,Spain:IEEE,2018.[9]KOHJCO,HAYDENM,DAETWYLERH,etal.EstimationofcropplantdensityatearlymixedgrowthstagesusingUAVimagery[J].PlantMethods,2019,15(1):1-9.[10]BAUERA,BOSTROMAG,BALLJ,etal.Combiningcomputervisionanddeeplearningtoenableultra-scaleaerialphenotypingandprecisionagriculture:acasestudyoflettuceproduction[J].HorticultureResearch,2019,6(1):1-12.[11]CANDIAGOS,REMONDINOF,GIGLIOMD,etal.Evaluating
multispectralimagesandvegetationindicesforprecisionfarmingapplicationsfromUAVimages[J].RemoteSensing,2015,7(4):4026-4047.[12]VERGERA,VIGNEAUN,CHRONC,etal.Greenareaindexfromanunmannedaerialsystemoverwheatandrapeseedcrops[J].RemoteSensingofEnvironment,2014,152:654-664.[13]張豐,熊楨,寇寧.高光譜遙感數(shù)據(jù)用于水稻精細(xì)分類研究[J].武漢理工大學(xué)學(xué)報(bào),2002,24(10):36-39.[14]劉亮,姜小光,李顯彬,等.利用高光譜遙感數(shù)據(jù)進(jìn)行農(nóng)作物分類方法研究[J].中國科學(xué)院研究生院學(xué)報(bào),2006,23(4):484-488.[15]孫婷,田建平,胡新軍,等.基于高光譜成像技術(shù)的釀酒高粱品種分類[J].食品與發(fā)酵工業(yè),2021,47(5):186-192.[16]王林江,吳炳方,張淼,等.關(guān)鍵生育期冬小麥和油菜遙感分類方法[J].地球信息科學(xué)學(xué)報(bào),2019,21(7):1121-1131.[17]COLOMINAI,MOLINAP.Unmannedaerialsystemsforphotogrammetryandremotesensing:areview[J].ISPRSJournalofPhotogrammetryandRemoteSensing,2014,92:79-97.[18]陳小幫,左亞堯,王銘鋒,等
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 人事合同終止協(xié)議書樣本
- 與建筑公司簽訂的建筑合同文件模板
- 買賣合同樣本簡單格式
- 二手摩托車買賣合同范本
- 上海市保障性住房買賣合同示例
- 個(gè)人消費(fèi)借款抵押擔(dān)保合同
- 交通事故責(zé)任劃分合同協(xié)議
- 個(gè)人資產(chǎn)轉(zhuǎn)讓合同范例
- 交通銀行外匯融資合同樣本
- 中小學(xué)學(xué)生校園意外傷害賠償合同范本
- 內(nèi)燃機(jī)車鉗工(中級)職業(yè)鑒定理論考試題及答案
- 長期處方管理規(guī)范-學(xué)習(xí)課件
- 高中英語外研版 單詞表 選擇性必修3
- 2024年人教版小學(xué)六年級數(shù)學(xué)(上冊)期末試卷附答案
- 2024-2025學(xué)年江蘇省南京鼓樓區(qū)五校聯(lián)考中考模擬物理試題含解析
- 標(biāo)準(zhǔn)作文稿紙模板(A4紙)
- 中小學(xué)校園突發(fā)事件應(yīng)急與急救處理課件
- 2024年山東省普通高中學(xué)業(yè)水平等級考試生物真題試卷(含答案)
- 2024年青海省西寧市選調(diào)生考試(公共基礎(chǔ)知識)綜合能力題庫匯編
- 2024年湖南高速鐵路職業(yè)技術(shù)學(xué)院單招職業(yè)技能測試題庫及答案解析
- 廣州綠色金融發(fā)展現(xiàn)狀及對策的研究
評論
0/150
提交評論