一種深度強化學習制導控制一體化算法_第1頁
一種深度強化學習制導控制一體化算法_第2頁
一種深度強化學習制導控制一體化算法_第3頁
一種深度強化學習制導控制一體化算法_第4頁
一種深度強化學習制導控制一體化算法_第5頁
已閱讀5頁,還剩14頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權,請進行舉報或認領

文檔簡介

一種深度強化學習制導控制一體化算法

裴培,何紹溟,王江,林德福(1.北京理工大學宇航學院,北京100081;2.北京理工大學無人飛行器自主控制研究所,北京100081)0引言攔截導彈的制導和控制通常被當作兩個回路來分開設計,內(nèi)回路是產(chǎn)生舵指令的自動駕駛儀控制回路,外回路是生成加速度指令的制導回路[1]。內(nèi)回路跟蹤外回路的加速度指令產(chǎn)生舵偏角控制量,內(nèi)外回路分開設計的主要問題是制導控制系統(tǒng)存在著時間滯后問題,無法攔截高速和高機動的目標。傳統(tǒng)的外回路采用比例導引制導律設計,比例導引算法的主要思想是產(chǎn)生加速度指令使零控脫靶量在有限時間收斂到零[2]。雖然理論上已經(jīng)證明了導引增益為3的比例導引制導律對于常值速度的飛行器是能量最優(yōu)的[1],對于終端速度最大的情況也是最優(yōu)的[3];并且比例導引及其多種變化形式已經(jīng)被廣泛的用來控制終端落角和飛行時間[4-6]。但是過去經(jīng)典的制導算法的推導和理論證明都是基于忽略氣動力后的線性化運動方程得到的。當考慮制導控制一體化問題的時候,由于引入了彈體氣動模型,制導系統(tǒng)的模型就變得非線性和時變性,無法利用比例導引的形式求解?;?刂芠7]、反步法[8]和連續(xù)時間預測控制[9]等方法被用來求解制導控制一體化問題。查旭[10]針對打擊固定目標,采用終端滑模理論設計制導控制一體化算法。賴超[11-12]將其擴展成為在三維情況下打擊機動目標的制導控制一體化算法。雖然采用滑??刂瓶梢詫崿F(xiàn)目標攔截,但滑??刂茣е履芎脑黾?,且容易出現(xiàn)控制飽和現(xiàn)象。這些形式的制導控制一體化算法控制律形式復雜,需要設置的參數(shù)多,針對不同的初始情況和彈體參數(shù)需要人工調整參數(shù)的取值來獲得良好的制導控制表現(xiàn)。簡化控制律的形式和自主進行參數(shù)調節(jié)是改進制導控制一體化算法的方向之一。隨著嵌入式元器件計算能力的快速發(fā)展,計算制導算法的發(fā)展引起了學者的日益關注[13]。計算制導算法不同于傳統(tǒng)的制導律算法,它沒有一個解析形式的制導律,而是通過大量的在線計算來產(chǎn)生制導指令。計算制導可以分為基于模型和基于數(shù)據(jù)兩個類型。文獻[14]中提出了一種基于模型的三維終端落角約束計算制導算法,算法基于模型預測靜態(tài)規(guī)劃算法[15]。模型預測靜態(tài)規(guī)劃算法將動態(tài)規(guī)劃問題轉化為靜態(tài)規(guī)劃問題從而提高計算效率,因此許多制導問題利用模型預測靜態(tài)規(guī)劃的高效性來求解,例如終端落角控制制導律[16]和再入制導[17]。然而基于模型預測靜態(tài)規(guī)劃方法求解制導律需要一個很好的初始猜測值來保證算法收斂[18]?;谀P偷乃惴ㄒ竽P偷男畔⑹峭耆阎?,所以基于模型優(yōu)化方法的表現(xiàn)與模型的精度有很大的關系。制導控制一體化問題中存在著很大的模型不確定性,例如目標機動、氣動不確定性等,因此不適合使用基于模型的優(yōu)化方法求解?;跀?shù)據(jù)的優(yōu)化算法不需要模型的精確信息,因此比較適合用來求解制導控制一體化問題。采用強化學習理論解決控制問題的研究大都應用在機器人上,很少用于解決航空航天中的制導問題。文獻[19]提出了一種基于強化學習的制導算法,首先將強化學習應用到了制導領域,然而文章只考慮了一種固定的情形,魯棒性差。深度強化學習技術還被應用于求解火星著陸制導問題[20]和再入制導問題[21]。文獻[22]利用強化學習技術來學習經(jīng)典的終端落角約束制導律制導增益,并將算法應用到近直線軌道的相對運動制導問題中。文獻[23]利用Q學習方法根據(jù)傳統(tǒng)比例導引制導律,提出了基于強化學習的變系數(shù)比例導引制導律,然而其需要兩千次以上的迭代學習來保證結果收斂。針對制導控制一體化問題存在的高度不確定性和控制律設計復雜的問題,本文基于無模型強化學習理論,研究了一種基于深度強化學習理論的制導控制一體化算法,算法可以通過學習自動生成制導控制智能體,無需人工進行參數(shù)調整。為了應用強化學習算法,將導彈的運動學和動力學過程建模為環(huán)境,舵偏角指令建模為智能體的行為,并且提出了權衡制導精度、能量損耗和飛行時間的獎勵函數(shù)。強化學習模型框架建立后,采用深度確定性策略梯度(Deepdeterminsticpolicygradient,DDPG)算法學習出一個從導彈觀測量到舵偏角指令的行為策略。數(shù)值仿真表明提出的算法可以實現(xiàn)在各種不同的初始情況下的精準攔截,同傳統(tǒng)算法相比能耗更優(yōu),能夠避免控制飽和現(xiàn)象,并且算法對于彈體參數(shù)和氣動不確定性具備良好的魯棒性。1強化學習算法強化學習的最優(yōu)策略可以通過最大化值函數(shù)和最大化行為值函數(shù)得到。然而直接最大化值函數(shù)或者行為值函數(shù)都需要精確的模型信息,很難在模型不確定的情況下使用。而無模型的強化學習算法放松了對于精確模型信息的需求,因此,在存在高度模型不確定性的情況下可以使用無模型的強化學習算法。無模型的強化學習算法可以分為值函數(shù)方法和策略梯度方法兩類。值函數(shù)方法只適用于離散行為空間的情況。著名的深度Q學習[24]就屬于此類。與之相比,策略梯度算法可以應用于連續(xù)控制系統(tǒng)的問題中。由谷歌Deepmind提出的深度確定性策略梯度算法是策略梯度算法的最新解決方案之一[25]。1.1深度確定性策略梯度算法對于制導控制一體化問題,強化學習的主要目的是產(chǎn)生舵偏角指令控制導彈攔截機動目標。為了解決這個問題,本文使用了DDPG算法設計了一個制導控制一體化算法。DDPG是一個執(zhí)行-評價算法,其基本概念框架如圖1所示。圖1DDPG算法基本概念框架圖Fig.1BasicconceptofDDPG1.2訓練DDPG智能體為了避免在探索狀態(tài)空間的過程中總回報函數(shù)陷入局部最優(yōu),DDPG在執(zhí)行器網(wǎng)絡的行為上增加一個隨機噪聲vt:a′t=at+vt(1)式中:at為執(zhí)行器網(wǎng)絡輸出的行為。并且在后面的系統(tǒng)中使用這個含噪聲的行為。隨機噪聲vt使用Ornstein-Uhlenbeck過程進行更新(2)式中:μv為噪聲的均值;N(0,∑t)為0均值∑t方差的高斯分布;βattract是平均吸引常數(shù),代表噪聲被平均值吸引的速度;Ts是采樣時間。隨著訓練過程經(jīng)驗的增加,方差∑t以速率ε指數(shù)級衰減:Σt=Σt-1(1-ε)(3)DDPG的偽代碼如算法1所示。算法1深度確定性策略梯度算法1使用隨機權重μ和w來初始化執(zhí)行器和評價器網(wǎng)絡2使用權重μ'=μ和w'=w來初始化目標執(zhí)行器和評價器網(wǎng)絡3初始化經(jīng)驗緩沖區(qū)D4for片段=1:最大片段個數(shù)do5fort=1:最大步數(shù)do6執(zhí)行器依據(jù)當前狀態(tài)產(chǎn)生行為at=Aμ(st)7在行為中增加噪聲來探索a't=at+vt8執(zhí)行行為a't得到新的狀態(tài)st+1和獎勵9將轉移經(jīng)驗e(t)=(st,at,rt,st+1)存入經(jīng)驗緩沖區(qū)D10從經(jīng)驗緩沖區(qū)D中均勻抽取組隨機樣本ei11計算時序差分誤差δδt=Rt+ηQw'(st+1,Aμ'(st+1))-Qw(st,at)12計算損失函數(shù)L(w)L(w)=1N∑Ni=1δ2i13使用梯度下降法更新評價器網(wǎng)絡-12ΔwL(w)=1N∑Ni=1δiΔwQw(si,ai)wt+1=wt-αwΔwL(w)14使用策略梯度下降法更新執(zhí)行器網(wǎng)絡ΔμJ(Aμ)=1N∑Ni=1ΔμAμ(si)ΔatQw(si,ai)μt+1=μt+αμΔμJ(Aμ)15更新目標網(wǎng)絡μ'=τμ+(1-τ)μ'w'=τw+(1-τ)w'16if任務結束then17終止當前片段18endif19endfor20endfor式中:s,a,r分別為強化學習馬爾可夫過程中的狀態(tài)量,行為和獎勵,A和Q是分別由μ、μ′和w,w′參數(shù)化定義的執(zhí)行器和評價器神經(jīng)網(wǎng)絡,γ為定義的權重值,τ?1為很小的目標網(wǎng)絡更新速率,αμ,αw分別為執(zhí)行器和評價器神經(jīng)網(wǎng)絡的學習速率。2制導控制一體化強化學習模型建模這個部分將制導控制問題轉化到強化學習的框架中。2.1相對運動學模型考慮一個二維平面尋的階段,如圖2所示。慣性坐標系由(X,Y)所示。變量的下標M和T分別代表導彈和目標。λ和r分別表示視線角和導彈目標相對距離。γ為由慣性坐標系定義的彈道傾角。速度和側向加速度分別由V和a表示。則描述導彈和目標的相對運動關系方程可以表示為:(4)(5)(6)(7)式中:aTraTsin(λ-γT),aTλaTcos(λ-γT)分別為目標沿著視線和垂直于視線方向的加速度;aMraMsin(λ-γM),aMλaMcos(λ-γM)分別為導彈沿著視線和垂直于視線方向的加速度。彈道傾角和側向加速度之間存在以下關系:(8)2.2動力學模型導彈的加速度由氣動力提供,導彈的平面動力學模型可以被表示為[8,26]:(9)式中:α表示彈體攻角;m表示彈體質量;ωz表示彈體俯仰角速率;g是重力加速度;Jz是彈體的轉動慣量;θ是俯仰角。L和M分別表示升力和俯仰力矩,可以由下式計算得到[8,26](10)(11)2.3強化學習問題建模為了使用DDPG算法求解制導控制一體化問題,需要將原問題轉化到強化學習的框架中,首先要建立一個馬爾可夫決策過程。式(4)~(11)的運動學和動力學方程構成了強化學習馬爾可夫決策過程中的環(huán)境,環(huán)境st由過程狀態(tài)可以表征為:(12)對于制導控制一體化問題,馬爾可夫決策過程中智能體的行為定義為舵偏角指令δz。假設導彈裝備有主動雷達探測器,可以測量與目標的相對距離r和視線角λ以及他們的導數(shù)。并且導彈裝備有慣導裝置,可以測量自身的俯仰角θ、俯仰角速率ωz和彈道傾角γM,經(jīng)過組合導航算法后,可以得到攻角α,則馬爾可夫決策過程中智能體的觀測量ot可以定義為:(13)因此定義的馬爾可夫決策過程是全狀態(tài)可觀的。相對運動學方程(4)~(10)、過程狀態(tài)(12)、智能體觀測量(13)、智能體行為和一個合適的獎勵函數(shù)構成了制導控制問題的馬爾可夫決策過程。制導控制一體化問題的強化學習框架的概念流程圖如圖3所示。圖3制導強化學習框架概念流程圖Fig.3ConceptualflowchartoftheproposedguidanceRLframework2.4定義獎勵函數(shù)采用DDPG算法求解制導控制問題最重要的部分是設計一個合適的獎勵函數(shù)使導彈穩(wěn)定的攔截目標。最直接的獎勵函數(shù)是當導彈成功攔截目標時給智能體一個獎勵,否則給智能體一個負的懲罰獎勵。然而我們的實際測試表明這種簡單的獎勵是無效的,因為在隨機初始猜想條件下導彈成功攔截目標的概率非常低,智能體在有限數(shù)量的片段性學習中幾乎得不到正向激勵。因為零化零控脫靶量可以實現(xiàn)零脫靶量攔截[1],所以本文使用零控脫靶量來建立獎勵函數(shù)。在任意時刻,零控脫靶量定義為從t時刻起,如果導彈和目標都不機動,導彈和目標最近的距離。將零控脫靶量定義為z,其形式為[26]:(14)舵偏角的大小直接量化了由誘導阻力導致的速度損失??紤]到這個情況,獎勵函數(shù)同樣需要考慮控制能耗。并且由于尋的階段通常非常短,需要導彈快速的攔截目標。因此,將獎勵函數(shù)定義如下:Rt=Rδ+Rz+RVr+Rr(15)其中(16)(17)(18)(19)式中:kδ,kz,kVr和kr是定義獎勵函數(shù)的四個常數(shù)。δzmax為受導彈物理結構限制的最大允許的舵偏角,z0代表零控脫靶量的初始值。從式(15)中可以看出,獎勵函數(shù)的前兩項懲罰的是歸一化后的控制能耗和零控脫靶量。在獎勵函數(shù)中使用歸一化處理的原因是舵偏角大小和零控脫靶量具有不同的單位和尺度,很難在沒有歸一化的情況下直接比較。第三項rVr是激勵導彈持續(xù)減少相對距離來實現(xiàn)快速攔截。這一項同時也對任務失敗做出懲罰,因為如果在剩余飛行時間到0之后,導彈沒有命中目標,導彈和目標之間的相對距離就會增加。第四項rr是當相對距離小于一個正常數(shù)rd之后給予獎勵。這一項僅在導彈接近目標的時候產(chǎn)生作用,因此與經(jīng)典優(yōu)化控制問題中終端約束代價類似,用于約束終端狀態(tài)。簡而言之,本文提出的獎勵函數(shù)允許智能體在攔截精度、能量損耗和飛行時間之間進行權衡。由于強化學習的過程具有隨機性,目前針對獎勵函數(shù)參數(shù)的選擇沒有一個定量的解析形式,但是可以通過訓練結果定性的調整參數(shù)的取值。kδ:通常選取比較小的數(shù)值,訓練的首要目的是命中目標,其次是降低能耗,當訓練結果保證命中目標后可以適當增大取值kz:驅動零控脫靶量持續(xù)減少,參數(shù)取值過小零控脫靶量無法收斂到零,無法命中目標,參數(shù)取值過大訓練目標變?yōu)榱憧孛摪辛繙p小最快而不是零控脫靶量收斂到零。kVr:驅動相對距離持續(xù)較少,參數(shù)取值過小無法驅動相對距離持續(xù)減少,參數(shù)取值過大訓練過程無法適應相對距離先增大后減小的情況。kr:類似終端獎勵,初始值可以給的較大,參數(shù)取值過小無法命中目標,參數(shù)取值過大不利于降低控制能耗。rd:定義為導彈的毀傷半徑。通過二分法調整參數(shù)取值,通過進行大量的數(shù)值仿真后,形成獎勵函數(shù)的超參數(shù)見表1。進行訓練采取的導彈速度為VM=1000m/s,目標速度為VT=600m/s,初始攻角為α0=0°,初始俯仰角速率為ωz0=0(°)/s,初始俯仰角θ0等于導彈彈道傾角初始值γM0,其他初始條件參數(shù)見表2,彈體動力學參數(shù)如式(26)所示。表1獎勵函數(shù)的超參數(shù)取值Table1Hyper-parametersinshapingtherewardfunction3訓練DDPG制導控制智能體這個部分定義了DDPG制導控制智能體的訓練過程。智能體能夠直接學習控制指令δz,產(chǎn)生一個直接從觀測量到舵偏角指令的映射:(20)式中:fs是一個非線性函數(shù)。訓練DDPG制導控制智能體包含三個主要步驟:1)提出訓練方案;2)創(chuàng)建執(zhí)行器和評價器網(wǎng)絡;3)調整超參數(shù)。3.1提出訓練方案在本文中,考慮一個導彈迎頭攻擊的情況。為了更好的使用已經(jīng)學習到的經(jīng)驗,首先采用幾個特定的初始狀態(tài)條件進行訓練。初始條件從狀態(tài)的最大值最小值中間選取,其數(shù)值見表2。首先基于這些初始條件序列的訓練DDPG制導控制智能體,當智能體采用一種特定的初始狀態(tài)進行訓練到收斂后切換到另一種初始狀態(tài)進行訓練。通過大量的經(jīng)驗測試,我們發(fā)現(xiàn)提出的智能體在一種初始條件下200個片段以內(nèi)就能收斂。在特定的初始條件訓練完成之后,片段進行隨機初始化訓練,初始狀態(tài)從這些狀態(tài)的最小值和最大值之間均勻隨機選取。這種啟發(fā)式的訓練方法比直接從隨機狀態(tài)開始訓練收斂快的多。表2訓練初始條件取值范圍Table2Initialconditionsintraining3.2創(chuàng)建網(wǎng)絡根據(jù)原始的DDPG算法[25],使用四層全連接的神經(jīng)網(wǎng)絡來表示執(zhí)行器和評價器的網(wǎng)絡,這種四層網(wǎng)絡結構在深度強化學習中廣泛應用。這兩個網(wǎng)絡每一層的大小如表3所示。除了執(zhí)行器的輸出層以外,其他層的每一個神經(jīng)元都由一個整流線性單元(Relu)函數(shù)激活,該函數(shù)定義為:(21)由于其線性特性,能夠比其他非線性激活函數(shù)提供更快的收斂速度。并且受彈體結構限制,執(zhí)行器輸出的行為舵偏角大小受限,因此執(zhí)行器網(wǎng)絡的輸出層由雙曲正切函數(shù)激活:(22)執(zhí)行器網(wǎng)絡使用雙曲正切激活函數(shù)的優(yōu)點是限制執(zhí)行器輸出為(-1,1),避免控制輸入飽和問題。執(zhí)行器的網(wǎng)絡輸出層由常數(shù)amax進行縮放。表3網(wǎng)絡層結構Table3Networklayersize(23)式中:(·)0表示變量(·)的初始值,當初始值為0時,取值為1避免奇異現(xiàn)象。為了解決穩(wěn)定學習過程中的過度擬合問題,執(zhí)行器和評價器網(wǎng)絡都使用帶L2正則化的Adam優(yōu)化器來訓練。在使用L2正則化的情況下,執(zhí)行器和評價器的更新方式變?yōu)?(24)(25)為了增加網(wǎng)絡訓練過程的穩(wěn)定性,采用梯度截斷來限制執(zhí)行器和評價器網(wǎng)絡的更新,也就是當梯度的范數(shù)超過了一個給定的上界ρ,梯度就被縮放到等于ρ。這種方式有助于防止訓練過程中出現(xiàn)數(shù)值溢出或者下溢現(xiàn)象。3.3調整超參數(shù)當導彈和目標之間的相對距離小于rm=2m或者時間步數(shù)超過了允許的最大步數(shù),每一個片段訓練終止。本問題中DDPG算法訓練使用的超參數(shù)見表4。調整超參數(shù)對于DDPG算法的性能有很大影響,并且這種調整過程在不同的應用范圍內(nèi)是不同的,不同問題有不同超參數(shù)集。在大量數(shù)值仿真經(jīng)驗總結下,給出了表中的超參數(shù)取值。表4超參數(shù)設置Table4Hyperparameterssetting4仿真結果仿真訓練中與升力和俯仰力矩相關的參數(shù)為:(26)4.1訓練結果根據(jù)訓練方案,首先采取10個固定的初始條件來序列的訓練DDPG制導智能體。每一種初始條件采取200個片段進行DDPG制導控制智能體訓練。圖4給出了前四次固定初始條件下的學習曲線。曲線中的平均獎勵是最近30次片段獎勵的平均值。從圖中可以看出在前四次固定初始狀態(tài)訓練中,提出的DDPG制導控制智能體的訓練結果能夠在200個片段訓練內(nèi)收斂。當使用這些固定的初始狀態(tài)訓練完成之后,訓練片段的初始化變?yōu)閺臓顟B(tài)量的最小值和最大值之間隨機均勻取值。隨機初始條件訓練過程的學習曲線如圖5所示。從圖中可以看出即使是在隨機初始條件的情況下,經(jīng)過10次固定的特定初始訓練條件訓練之后的DDPG制導控制智能體的平均獎勵仍然能在200個片段訓練內(nèi)收斂到一個穩(wěn)態(tài)值。訓練過程能夠收斂的原因是智能體已經(jīng)在固定初始條件的訓練中得到了一些經(jīng)驗。在我們的數(shù)值仿真測試中,我們發(fā)現(xiàn)使用啟發(fā)式的訓練過程比使用隨機初始條件開始訓練的收斂速度要快的多。圖4特定初始條件下的學習曲線Fig.4Learningcurveswithsomefixedcharacteristicinitialconditions圖5隨機初始條件下的學習曲線Fig.5Learningcurveswithrandominitialcondition為了體現(xiàn)在訓練DDPG制導智能體的過程中對觀測量和行為進行歸一化處理的重要性,圖6給出了第一種固定初始條件下有無歸一化處理的200個片段訓練平均獎勵函數(shù)的對比結果。從圖中可以看出使用歸一化處理能夠使學習過程具有更快的收斂速度和更高的平均獎勵穩(wěn)態(tài)值,不采取歸一化處理訓練曲線無法收斂。歸一化處理使得觀測量的每個元素的權重都相等,可以使訓練過程更有效、更高效。如果沒有歸一化處理,各個元素之間的尺度相差非常大,例如相對距離的量級就比視線角速度大得多,不利于執(zhí)行器和評價器網(wǎng)絡的訓練。圖6有無歸一化處理過程學習曲線對比Fig.6Learningprocesscomparisonwithrespecttonormalization4.2結果測試為了測試提出的DDPG制導智能體的攔截表現(xiàn),將訓練得到的DDPG制導智能體應用到攔截機動目標的仿真測試中,仿真初始條件為相對距離初值r0=5000,初始彈目視線角λ0=0°,初始導彈彈道傾角為γM0=20°,初始目標彈道傾角為γT0=150°,目標常值加速度機動,加速度為20m/s2。受彈體結構限制,舵偏角指令限制為|δz|≤δzmax。為了與傳統(tǒng)設計方法進行對比,文中采用了兩種方法進行對比,第一種是制導增益為3的比例導引制導律(Proportionalnavigationguidance,PNG)與自動駕駛儀組合來產(chǎn)生舵指令,自動駕駛儀采用極點配置法設計,第二種是采用反步法設計的制導控制一體化算法[23],仿真結果如圖7所示。其中三種算法的攔截精度見表6,可以看出由于采取了大量的數(shù)據(jù)進行訓練,提出的DDPG制導控制算法精度更高。從圖7(a)可以看出,三種制導算法都能夠成功攔截目標。攻角曲線如圖7(b)所示,舵偏角曲線如圖7(c)所示,提出的算法由于懲罰了舵偏角并且采用雙曲正切函數(shù)作為輸出層,抑制了舵偏角指令飽和現(xiàn)象。圖7(d)中的加速度曲線表明,當反步法制導控制一體化算法得到的最大加速度約200m/s2時,攻角約為40°,DDPG制導控制算法得到的最大加速度約為-100m/s2時,攻角約為-20°,驗證了式(11)中導彈的側向加速度由攻角和重力加速度共同作用產(chǎn)生,同時,舵偏角作用下,為了得到更大的攻角,彈體姿態(tài)的運動更大,因此攻角過大不利于導彈穩(wěn)定飛行,提出的制導控制智能體產(chǎn)生的最大攻角比傳統(tǒng)反步法低,更利于工程實現(xiàn)。從圖7(e)中的舵偏角指令控制能耗曲線可以看出,提出的DDPG制導算法在三種算法中能耗最優(yōu)。從圖中曲線可以看出提出的DDPG制導控制算法和反步法制導控制一體化算法曲線類似,但是由于懲罰了舵偏角指令,提出的制導算法得到的舵偏角比反步法制導控制一體化算法得到的舵偏角小,減小了控制能耗。圖7目標機動情況下仿真測試曲線Fig.7Testresultswithrandominitialconditionsfornon-maneuveringtarget為了驗證算法在工程應用的可行性,考慮到從組合導航算法中得到的數(shù)據(jù)存在噪聲,在仿真過程中引入噪聲,對算法進行仿真分析。定義加入的噪聲滿足高斯分布,其標準差的值見表5。從圖8(a)中的飛行軌跡曲線可以看出提出的算法在噪聲作用下仍然能攔截目標,但是由于存在噪聲,脫靶量增大為1.12m,圖8(b)給出了舵偏角指令的曲線,可以看出控制量由于觀測量存在的高斯噪聲產(chǎn)生了高頻抖振。表5噪聲高斯分布標準差Table5StandarddeviationofGaussiandistributionnoise為了測試算法對比其他兩種算法的魯棒性,對參數(shù)(26)負向拉偏40%后,采用3種算法分別進行仿真,仿真結果如圖9所示。仿真結果表明,在參數(shù)進行負向拉偏后,比例導引和反步法制導控制一體化算法控制量飽和部分增加,而提出的DDPG制導控制算法由于懲罰了舵偏角指令且采取了抑制飽和的輸出層,很好的抑制了飽和效應。三種算法的脫靶量見表6,可以看出參數(shù)負偏導致了制導律脫靶量增大,但是相比之下提出的算法精度仍然最高。為了展現(xiàn)算

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論