![基于粒子Mean Shift遷移的紅外人體目標(biāo)跟蹤算法_第1頁(yè)](http://file4.renrendoc.com/view/0d313878c498b298f8c2926e31c6ad4b/0d313878c498b298f8c2926e31c6ad4b1.gif)
![基于粒子Mean Shift遷移的紅外人體目標(biāo)跟蹤算法_第2頁(yè)](http://file4.renrendoc.com/view/0d313878c498b298f8c2926e31c6ad4b/0d313878c498b298f8c2926e31c6ad4b2.gif)
![基于粒子Mean Shift遷移的紅外人體目標(biāo)跟蹤算法_第3頁(yè)](http://file4.renrendoc.com/view/0d313878c498b298f8c2926e31c6ad4b/0d313878c498b298f8c2926e31c6ad4b3.gif)
![基于粒子Mean Shift遷移的紅外人體目標(biāo)跟蹤算法_第4頁(yè)](http://file4.renrendoc.com/view/0d313878c498b298f8c2926e31c6ad4b/0d313878c498b298f8c2926e31c6ad4b4.gif)
![基于粒子Mean Shift遷移的紅外人體目標(biāo)跟蹤算法_第5頁(yè)](http://file4.renrendoc.com/view/0d313878c498b298f8c2926e31c6ad4b/0d313878c498b298f8c2926e31c6ad4b5.gif)
版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
基于粒子MeanShift遷移的紅外人體目標(biāo)跟蹤算法本文受教育部科研重點(diǎn)項(xiàng)目基金資助,項(xiàng)目編號(hào):108174本文受教育部科研重點(diǎn)項(xiàng)目基金資助,項(xiàng)目編號(hào):108174云廷進(jìn)郭永彩高潮(重慶大學(xué)光電技術(shù)及系統(tǒng)教育部重點(diǎn)實(shí)驗(yàn)室,重慶,400030)摘要:提出一種基于粒子MeanShift遷移過程的紅外人體跟蹤方法。算法通過采樣粒子遷移和聚類動(dòng)態(tài)建立目標(biāo)的狀態(tài)模型和量測(cè)模型。在被跟蹤區(qū)域隨機(jī)布撒粒子,以各粒子對(duì)應(yīng)像素的亮度作為特征值進(jìn)行MeanShift收斂性分析,使用收斂后的粒子集表達(dá)目標(biāo)的當(dāng)前狀態(tài);以狀態(tài)粒子的坐標(biāo)位置為特征值對(duì)其進(jìn)行MeanShift聚類,作為對(duì)目標(biāo)的量測(cè)。連續(xù)跟蹤時(shí),下一幀的采樣粒子基于上一幀的量測(cè)結(jié)果產(chǎn)生。與傳統(tǒng)的基于序貫重要性采樣的粒子濾波方法相比,算法不需要目標(biāo)的相似性測(cè)度計(jì)算,僅用少數(shù)粒子即可實(shí)現(xiàn)對(duì)目標(biāo)的可靠跟蹤。關(guān)鍵詞:粒子遷移人體跟蹤紅外圖像MeanShift粒子濾波引言紅外圖像中人體目標(biāo)的跟蹤困難主要來自兩個(gè)方面:一是人體目標(biāo)的自身特征,由于人體是非剛體目標(biāo),姿態(tài)多樣,大小不一,而且運(yùn)動(dòng)狀態(tài)復(fù)雜多變,具有高度的隨意性,沒有固定的運(yùn)動(dòng)規(guī)律,無法建立完善的運(yùn)動(dòng)模型表達(dá)形式;二是紅外圖像是灰度圖像,沒有色彩信息,紋理細(xì)節(jié)很少,使得目標(biāo)跟蹤可用的特征值較少。傳統(tǒng)的跟蹤方法如光流法是基于剛體運(yùn)動(dòng)目標(biāo),對(duì)于非剛體目標(biāo)的跟蹤受到限制[1],用于人體目標(biāo)跟蹤時(shí)必須與其它特征相結(jié)合才能完成[2][3];卡爾曼濾波及其擴(kuò)展形式等是基于線性/高斯動(dòng)態(tài)系統(tǒng),需要對(duì)目標(biāo)的運(yùn)動(dòng)特征進(jìn)行假設(shè),建立目標(biāo)運(yùn)動(dòng)模型[4],如CP,CA,CV等模型,因此使其在應(yīng)用于人體目標(biāo)跟蹤時(shí)受到一些限制。目前,用于人體目標(biāo)跟蹤的比較可行的算法是采用貝葉斯濾波跟蹤的形式[5],粒子濾波作為貝葉斯濾波的最優(yōu)近似,適用于任意非線性非Gauss的隨機(jī)系統(tǒng),適合于人體目標(biāo)的跟蹤[6][7]。粒子濾波是基于仿真的統(tǒng)計(jì)濾波方法,需要采用大量的隨機(jī)樣本粒子來估計(jì),使得運(yùn)算量很大,此外還非常依賴于相似函數(shù)的選擇,并面臨粒子退化和粒子枯竭的問題。近年來MeanShift算法[7]作為一種有效的統(tǒng)計(jì)迭代算法,在滿足一定條件下,可快速收斂到最近的一個(gè)概率密度函數(shù)的穩(wěn)態(tài)點(diǎn)而不需要任何先驗(yàn)知識(shí),實(shí)現(xiàn)非參數(shù)概率密度的估計(jì),在人體等非剛體目標(biāo)跟蹤中得到了很好的應(yīng)用[8][9][10]。但由于MeanShift跟蹤方案需要使用目標(biāo)的色彩空間分布作為特征值,使用跟蹤區(qū)域的顏色直方圖的Bhattacharyya系數(shù)進(jìn)行相似性分析,對(duì)于紅外人體目標(biāo)來說,丟失了色彩信息,而且目標(biāo)間的灰度特征都很接近,很難通過顏色直方圖的Bhat(yī)tacharyya系數(shù)進(jìn)行匹配,傳統(tǒng)的基于顏色的MeanShift算法不能適用于此類跟蹤任務(wù)。本文基于粒子濾波的思想,結(jié)合MeanShift算法非參數(shù)概率密度估計(jì)的優(yōu)點(diǎn),使用MeanShift方法對(duì)粒子進(jìn)行收斂性分析,使用達(dá)到穩(wěn)定態(tài)的傳播粒子對(duì)目標(biāo)的狀態(tài)進(jìn)行動(dòng)態(tài)建模,由此,在不需要知道目標(biāo)模型先驗(yàn)知識(shí)的基礎(chǔ)上,不依賴于相似函數(shù),與粒子濾波算法相比,克服了粒子退化及粒子耗盡的問題,僅用少數(shù)的粒子即可實(shí)現(xiàn)對(duì)人體目標(biāo)進(jìn)行可靠跟蹤,降低了運(yùn)算量。1MeanShift方法的簡(jiǎn)介圖1MeanShift迭代過程Fig.1TheiterativeprocessofMeanShiftalgorithm給定離散特征點(diǎn)集,核函數(shù),則在點(diǎn)處的概率密度估計(jì)為:(1)事實(shí)上,在實(shí)際計(jì)算時(shí),我們可以通過計(jì)算概率密度估計(jì)的梯度(2)通過沿著特征空間內(nèi)樣本點(diǎn)密度梯度方向進(jìn)行反復(fù)迭代搜索,使各樣本點(diǎn)最終收斂于臨近的局部密度極大點(diǎn)。一般的,核函數(shù)采用(3)的形式,為歸一化系數(shù),為核函數(shù)半徑。常用的核函數(shù)有[8]等幾種形式。令,則(4)代入上式(5)定義(6)為MeanShift向量,則的方向與概率密度估計(jì)函數(shù)的梯度方向一致。對(duì)樣本集中的特征點(diǎn)按(7)反復(fù)進(jìn)行遞推迭代,當(dāng)不再變化時(shí),即時(shí),則收斂于概率密度函數(shù)的局部極大值。通常,我們可以放松收斂條件,當(dāng)小于一定閾值時(shí),即可認(rèn)為收斂過程完成。2跟蹤模型的建立2.1狀態(tài)模型跟蹤模型分為兩個(gè)部分:狀態(tài)模型和量測(cè)模型。假定初始目標(biāo)所在的區(qū)域在圖像中的位置為,對(duì)于較小目標(biāo),目標(biāo)區(qū)域每個(gè)像素放置一個(gè)粒子;對(duì)于較大的目標(biāo),在目標(biāo)區(qū)域按一定概率密度布撒M個(gè)隨機(jī)粒子,相當(dāng)于對(duì)目標(biāo)的灰度分布進(jìn)行抽樣采樣,樣本數(shù)為M,降低計(jì)算量。記采樣粒子集合,對(duì)每個(gè)粒子使用其所在圖像位置的灰度值作為特征值,使用Uniform核函數(shù),進(jìn)行MeanShift收斂分析。粒子在兩軸向上MeanShift向量(8)式中、分別為所用核函數(shù)的帶寬。之所以采用Uniform核,是因?yàn)閷?duì)于較大的目標(biāo)圖像可以通過積分圖像加速M(fèi)eanShift算法的執(zhí)行[11]。當(dāng)小于設(shè)定閾值時(shí),記錄收斂位置。由于紅外圖像中人體目標(biāo)的亮度比背景亮度要高,由MeanShift算法的收斂特性可知,所有的粒子都向附近灰度概率密度函數(shù)的局部極大值遷移,即由背景向圖像中的人體目標(biāo)亮度較高的位置移動(dòng)。各粒子的最終收斂位置由目標(biāo)的灰度分布和所選取的帶寬函數(shù)決定。假定所有粒子的最終收斂位置集合為,即目標(biāo)的灰度密度函數(shù)的局部極大值所在位置可以用個(gè)粒子進(jìn)行表達(dá)。當(dāng)選取合理的帶寬函數(shù)時(shí),粒子最終收斂位置并不完全依賴于目標(biāo)的外形輪廓,使用這種狀態(tài)模型,當(dāng)目標(biāo)局部被背景遮擋時(shí),狀態(tài)模型仍然有效,只是對(duì)目標(biāo)整體狀態(tài)的刻畫轉(zhuǎn)化為對(duì)目標(biāo)局部狀態(tài)的刻畫,對(duì)跟蹤而言,只是由目標(biāo)整體跟蹤轉(zhuǎn)化為局部跟蹤,對(duì)于人體等非剛體目標(biāo)具有非常好的魯棒性。2.2量測(cè)模型對(duì)于目標(biāo)狀態(tài)的量測(cè)通過對(duì)表達(dá)目標(biāo)狀態(tài)的所有粒子的聚類分析實(shí)現(xiàn)。假定狀態(tài)粒子集中第個(gè)粒子在圖像中的坐標(biāo)位置可以用復(fù)數(shù)向量表示,以作為特征值進(jìn)行MeanShift非監(jiān)督聚類,對(duì)應(yīng)的MeanShift向量為:(9)由于粒子的坐標(biāo)位置為整數(shù),故當(dāng)?shù)慕^對(duì)值取整數(shù)為零時(shí),即可認(rèn)為聚類過程完成。假定第個(gè)量測(cè)粒子的收斂位置和包含的粒子數(shù)目為,則該量測(cè)粒子相對(duì)于圖像的絕對(duì)坐標(biāo)值為。各粒子量測(cè)值的權(quán)重系數(shù)由其對(duì)應(yīng)類別所包含的粒子數(shù)目歸一化決定:(10)式中L為聚類完成后得到量測(cè)粒子總數(shù),使用所有量測(cè)粒子坐標(biāo)位置的加權(quán)平均值作為運(yùn)動(dòng)軌跡點(diǎn)坐標(biāo)位置:(11)圖2為實(shí)現(xiàn)跟蹤模型建立的實(shí)例。(a)目標(biāo)圖像(b)狀態(tài)模型(c)量測(cè)模型(d)權(quán)系數(shù)及加權(quán)中心圖2跟蹤模型的建立Fig.2Establishingmodelsfortracking3目標(biāo)跟蹤的實(shí)現(xiàn)3.1算法的執(zhí)行過程在介紹算法的實(shí)現(xiàn)方案之前,首先介紹一下粒子濾波的思想方法,關(guān)于粒子濾波的更多理論和方案請(qǐng)參見相關(guān)文獻(xiàn)[12]。粒子濾波的基本思想是在基于大量的量測(cè)的基礎(chǔ)上,通過一組加權(quán)粒子的演化與傳播來遞推近似狀態(tài)的后驗(yàn)概率密度函數(shù)分布,基于這些樣本和權(quán)值來計(jì)算估計(jì)值。概括開來,粒子濾波主要步驟有:(1)粒子采樣,產(chǎn)生隨機(jī)量測(cè)粒子(2)權(quán)系數(shù)更新(3)相似性特征的計(jì)算。與粒子濾波策略類似,使用本文模型實(shí)現(xiàn)目標(biāo)跟蹤分為以下步驟:(1)跟蹤初始化,根據(jù)目標(biāo)分割識(shí)別算法或手工確定的目標(biāo)所在區(qū)域,按照本文的模型建立方法,建立目標(biāo)的狀態(tài)模型和量測(cè)模型,存儲(chǔ)量測(cè)粒子的坐標(biāo)位置和相應(yīng)權(quán)系數(shù)。(2)在下一幀圖像中,以上一幀圖像的量測(cè)粒子為基礎(chǔ),對(duì)各粒子周邊一定范圍內(nèi)的像素進(jìn)行MonteCarlo采樣,采樣的粒子的數(shù)目由其傳播系數(shù)決定,使用所有的無重復(fù)采樣粒子作為本幀圖像中的傳播粒子。(3)對(duì)本幀圖像中的傳播粒子進(jìn)行MeanShift分析,產(chǎn)生目標(biāo)新的狀態(tài)模型,并計(jì)算相應(yīng)的量測(cè)模型和加權(quán)中心及對(duì)應(yīng)粒子的傳播系數(shù),傳遞至下一幀圖像。反復(fù)執(zhí)行步驟(2)(3),并計(jì)算各幀圖像中的目標(biāo)運(yùn)動(dòng)軌跡坐標(biāo),實(shí)現(xiàn)對(duì)目標(biāo)的跟蹤。3.2傳播粒子的產(chǎn)生控制傳播粒子的采樣控制直接影響到跟蹤算法的性能。由于傳播粒子的位置根據(jù)上一幀的量測(cè)粒子確定,每個(gè)量測(cè)粒子的權(quán)系數(shù)控制其在下一幀中產(chǎn)生傳播粒子的數(shù)目。若量測(cè)粒子具有較大的權(quán)系數(shù),則布撒較多的粒子,對(duì)周圍區(qū)域進(jìn)行比較稠密的采樣,通過粒子的MeanShift遷移盡可能刻畫出下一幀圖像中該粒子周圍的狀態(tài)模式。以量測(cè)粒子為例,所產(chǎn)生的傳播粒子集為:(12)式中為采樣區(qū)域控制范圍,決定了探測(cè)窗口的大小,由當(dāng)前量測(cè)粒子與其最鄰近的量測(cè)粒子之間的距離決定,并使用目標(biāo)的大小進(jìn)行寬松的約束。為目標(biāo)在兩軸方向上的單步移動(dòng)距離估計(jì),M為產(chǎn)生粒子的數(shù)目。對(duì)于連續(xù)的圖像序列,針對(duì)人體目標(biāo)跟蹤而言,前后兩幀圖像中目標(biāo)位移距離不會(huì)太大,可不考慮;對(duì)于等間隔不連續(xù)的圖像序列,可設(shè)為固定值;在更復(fù)雜的無法估計(jì)的情況下,可采用Kalman濾波的方法,估計(jì)上一幀圖像中量測(cè)粒子在當(dāng)前幀中的位置取代作為粒子采樣的中心位置。3.3量測(cè)粒子傳播系數(shù)分配策略及無效量測(cè)粒子的剔除如前所述,量測(cè)粒子的權(quán)中系數(shù)的主要作用有兩個(gè):一是用于計(jì)算當(dāng)前幀圖像中加權(quán)中心的位置(運(yùn)動(dòng)軌跡),二是決定下一幀圖像中傳播粒子的數(shù)目。在假定目標(biāo)運(yùn)動(dòng)連續(xù)性的基礎(chǔ)上,我們可以認(rèn)為前后兩幀圖像中目標(biāo)的加權(quán)中心位置偏移不會(huì)太大。因此,為使得跟蹤軌跡的位置保持相對(duì)穩(wěn)定,我們對(duì)量測(cè)粒子的傳播系數(shù)分配在其對(duì)應(yīng)權(quán)系數(shù)的基礎(chǔ)上進(jìn)行了修訂,賦給上一幀量測(cè)粒子加權(quán)中心位置的粒子更大的權(quán)系數(shù),對(duì)遠(yuǎn)離加權(quán)位置的量測(cè)粒子,由于其對(duì)加權(quán)中心的計(jì)算貢獻(xiàn)較小,因此粒子權(quán)系數(shù)也較小,對(duì)其傳播系數(shù)進(jìn)行抑制。比較可靠的方法是直接將量測(cè)粒子加權(quán)中心位置作為一個(gè)新的量測(cè)粒子并賦予較大的傳播系數(shù),剩余的權(quán)系數(shù)按照其與加權(quán)中心的距離的倒數(shù)進(jìn)行分配。假定量測(cè)加權(quán)中心位置坐標(biāo)為,量測(cè)粒子,則權(quán)系數(shù)的分配規(guī)則可為(13)式中為距離函數(shù)。一般情況下,取值可設(shè)置在0.3~0.7范圍內(nèi),當(dāng)目標(biāo)較小時(shí),我們甚至不需要考慮其余的量測(cè)粒子,將全部的系數(shù)權(quán)值都分配給處于加權(quán)中心位置的量測(cè)粒子,即。由于傳播粒子產(chǎn)生的隨機(jī)性及目標(biāo)的位移,因此基于上一幀圖像中對(duì)目標(biāo)的量測(cè)產(chǎn)生的傳播粒子在當(dāng)前幀完成MeanShift遷移過程后,難免有的量測(cè)粒子游離于目標(biāo)之外,需要根據(jù)一定的參量將這些量測(cè)粒子剔除。一般的在假定目標(biāo)亮度比較均一且高于背景亮度的前提下,可以采用量測(cè)粒子所在位置的像素的灰度值作為測(cè)度,采用P-tile算法確定有效量測(cè)粒子對(duì)應(yīng)的灰度閾值,將低于這一閾值的量測(cè)粒子作為無效粒子進(jìn)行剔除,避免其在下一幀圖像中進(jìn)行傳播,使得跟蹤更加可靠并降低計(jì)算量。4實(shí)驗(yàn)結(jié)果及結(jié)論我們選取一個(gè)典型的視頻序列作為測(cè)試對(duì)象,以檢驗(yàn)算法的有效性。測(cè)試的紅外視頻來自Youtube網(wǎng)站獲得該序列對(duì)應(yīng)的原始視頻請(qǐng)?jiān)L問:/watch?v=9fx7_D0E7zg,在這段視頻中,人體目標(biāo)的姿態(tài)包括半蹲、爬行、匍匐、站立、下蹲、被背景遮擋等各種復(fù)雜狀態(tài)的運(yùn)動(dòng),并且攝像機(jī)視場(chǎng)也在變化。將視頻分解為550幀連續(xù)圖像序列,用于測(cè)試本文的算法,初始化探測(cè)窗口可手工選定,也可通過人體檢測(cè)算法確定。由于視頻背景內(nèi)容隨攝像機(jī)的移動(dòng)而改變,運(yùn)動(dòng)軌跡沒有固定的參照系而失去意義,因此未畫出目標(biāo)運(yùn)動(dòng)的軌跡。獲得該序列對(duì)應(yīng)的原始視頻請(qǐng)?jiān)L問:/watch?v=9fx7_D0E7zg第175第175幀第110幀第第210幀第第252幀第383第383幀第288幀第441第441幀第415幀第537第537幀第520幀圖3圖像序列跟蹤測(cè)試結(jié)果Fig.3Imagesequencetrackingresults從測(cè)試結(jié)果可以看出,本文算法對(duì)相機(jī)運(yùn)動(dòng)、目標(biāo)大小改變、姿態(tài)變化以及目標(biāo)遮擋時(shí)都能夠保持可靠的跟蹤。由于紅外圖像中人體頭部的亮度較高,使用少量隨機(jī)采樣粒子集未將目標(biāo)完全覆蓋的情況下,采用圖像亮度作為特征值的MeanShift收斂過程使得目標(biāo)狀態(tài)模型粒子集向目標(biāo)頭部遷移,因此對(duì)本序列中人體目標(biāo)而言,跟蹤標(biāo)記的位置最終穩(wěn)定到頭部附近。與傳統(tǒng)的粒子濾波算法(序貫重要性采樣法)相比,采用本文提出的跟蹤模型方法簡(jiǎn)單,便于執(zhí)行,而且只需要少量的粒子即可以完成對(duì)目標(biāo)的可靠跟蹤,算法的實(shí)時(shí)性非常好,克服了傳統(tǒng)粒子濾波因防止粒子退化和粒子枯竭現(xiàn)象而不得不采用大量采樣粒子的缺陷,并且消除了選擇相似函數(shù)帶來的困擾。另外,由于粒子產(chǎn)生機(jī)制的靈活性,算法可以在對(duì)目標(biāo)整體進(jìn)行跟蹤和對(duì)目標(biāo)身體的某個(gè)部分進(jìn)行跟蹤的過程自動(dòng)轉(zhuǎn)換,當(dāng)目標(biāo)身體被遮擋時(shí)仍能夠?qū)δ繕?biāo)進(jìn)行可靠跟蹤,使得算法更具有魯棒性。注意到由于隨機(jī)采樣粒子是基于每個(gè)目標(biāo)產(chǎn)生,因此在多目標(biāo)跟蹤時(shí),為解決新目標(biāo)的出現(xiàn)時(shí)的跟蹤問題,需要采用跟蹤與探測(cè)相結(jié)合的方案,并引入有限狀態(tài)機(jī)技術(shù),對(duì)目標(biāo)的復(fù)雜狀態(tài)(如目標(biāo)互相遮擋、目標(biāo)隱藏、目標(biāo)消失等)進(jìn)行處理。在下一步工作中,研究的重點(diǎn)是如何更好地控制傳播粒子的產(chǎn)生范圍和淘汰粒子時(shí)所依據(jù)參量的選擇,并研究多目標(biāo)跟蹤時(shí),目標(biāo)相交分離后粒子的重新分配方法以及前后目標(biāo)匹配的方案。參考文獻(xiàn)[1]DouglasDeCarloandDimitrisMetaxas.Opticalflowconstraintsondeformablemodelswithapplicationstofacetracking.InternationalJournalofComputerVision,2000,38(2):99-127.[2]YamaneT..Shirai,Y..Miura,J..Persontrackingbyintegratingopticalflowanduniformbrightnessregions.//IEEEInternationalConferenceonRoboticsandAutomation,Piscat(yī)away,1998.IEEEComputerSociety,1998:3267–3272.[3]OkadaR.,ShiraiY.,MiuraJ..Trackingapersonwith3-dmotionbyintegrat(yī)ingopticalflowanddepth.//TheFourthIEEEInternationalConferenceonAutomaticFaceandGestureRecognition,Grenoble,France,2000.IEEE,[4]KellyDamien,BolandFrank.Motionmodelselectionintrackinghumans.//TheProceedingsoftheIrishSignalsandSystemsConference,Dublin,Ireland,2006.IET,[5]DanielRoth,PetrDoubekandLucVanGool.Bayesianpixelclassificat(yī)ionforhumantracking.//IEEEWorkshoponMotionandVideoComputing(WACV/MOTION'05),Washington,DC,USA,2005.IEEEComputerSociety,[6]Okuma,Kenji.AliTaleghani.NandodeFreitas.JamesJ.Little.andDavidG.Lowe.Aboostedparticlefilter:multitargetdetectionandtracking.//InProceedingsofECCV2004,Prague,CzechRepublic,2004.volume3021ofLN(yùn)CS,Springer,[7]NummiaroK.,Koller-MeieE.andVan-GoolL..Anadaptivecolor-basedparticlefilter,Internat(yī)ionalJournalofImageandVisionComputing,2003,21(1):99-110.[8]ComaniciuD.andMeerP..Meanshift:arobustapproachtowardfeaturespaceanalysis.IEEETransactionsonPatternAnalysisandMachineIntelligence,2002,24(5):603-619.[9]ComaniciuD.,RameshV.andMeerP..Real-timetrackingofnon-rigidobjectsusingmeanshift.//IEEEConferenceonComputerVisionandPat(yī)ternRecognition,HiltonHeadIsland,SC,USA[10]ComaniciuD.,RameshV.andMeerP..Kernel-basedobjecttracking.IEEETransactiononPatternAnalysisandMachineIntelligence,2003,25(5):564--575.[11]BeleznaiC..FruhstuckB..BischofH..Humandetectioningroupsusingafastmeanshiftprocedure.//Internat(yī)ionalConferenceonImageProcessing,Singapore,2004(ICIP'04).IEEE,2004:349-352[12]ArulampalamS.,MaskellS.,GordonN.,ClappT..ATutorialonParticleFiltersforOn-LineNon-Linear/Non-GaussianBayesianTracking.IEEETransactionsonSignalProcessing,2002,50(2):174-189HumanTrackinginInfraredImagesbasedonParticlesMean-ShiftMigrationAlgorithmYUNTing-jinGUOYong-caiGAOChao(KeyLaborat(yī)oryofOptoelectronicTechnologyandSystemsoftheEducationMinistryofChina,ChongqingUniversity,Chongqing,400030,China)Abstract:Anovelmethodbasedonparticlesmeanshiftmigrationprocessforhumantrackingininfraredimagesisproposedinthispaper.Referencetothebasicparticlefilteringmethod,thecoreideaofthisalgorithmistoestablishtheobject’sstatemodelandmeasurementmodeldynamicallybythemigratingandclusteringofrandomsamplingparticles.Thesamplingparticlesareplacedonthetrackingwindowrandomlyandameanshiftconvergeprocessisimplementedbytakingtheparticle’scorrespondingpixels’intensityasfeature.Theobject’sstat(yī)emodelisexpressedbytheconvergentparticlesets.Then,anothermeanshiftclusteringprocessiscarriedoutontheparticlessetsofthestatemodelusingtheircoordinatesintheimageasfeatures,theclusteringresultsareregardedasthemeasurementoftheobject.Inthesequentialtrackingprocess,thesamplingparticlesinthenextframearegeneratedrandomlybasedonitspreviousframemeasurementresults.ComparingwiththetraditionalSequentialImportanceSampling(SIS)basedparticlefilter,ourtrackingmethoddoesn’tnee(cuò)dtheobject’slikelihoodcriterion,whichisabigproblemforinfraredhumantracking,andtherobusttrackingprocesscanbeachievedonlybyusingafewsamplingparticles.Keyword:ParticlesMigrationHumanTrackingInfraredImageMeanShiftParticleFiltering本文受教育部科研重點(diǎn)項(xiàng)目基金資助,項(xiàng)目編號(hào):108174課題英文背景介紹Infrared-image,especiallythefar-infraredimagehasprominentadvantagecomparingwiththevisible-image.Asaresultofthermalimaging,infraredimageisindependentofexternalluminousqualificationandisabletoseetheinterestedobjectsindarkandfrogenvironments,whichisalmostimpossibleinvisibleopticalimaging.Humandetectionandtrackingareveryimportantissueswhichcanprovidethemostactiveandvaluableinformationinmanyoccasions.Thesystemsbasedoninfraredimagingcanalmostworkinanyenvironmentandall-weatherconditions.Itisirreplaceableinsomesituationsandhaswidelypotentialapplicat(yī)ionsinmanyaspects,suchastheInfraredNavigationSystem,theInfraredLife-SavingSystem,theFrontierDefensePrecautionSystem,theSmartSurveillanceSystem,theNightDriver-AssistanceSystem,theFireRescueandPublicSafetySystem,theMan-MachineInterfaceSystemandtheRobotVisionSystem,etc.However,humandetectionandtrackingininfraredimagesisachallengeabletaskfromthetechnicalviewpoint,dealingwithmanyfieldsofknowledge,suchasimagesegmentat(yī)ion,featureextraction,patternrecognition,objecttrackingetc..Sincehumanareno-rigidcomplexobjects,themaindifficultieswehavetoconfrontfirstlyistheun-reliabilityofhumandetectionresultsininfraredimage,causedbyhuman’svariousappearanceandtheintrinsicpropertiesofinfraredimage.Becauseofinfraredimageisgrayimage,nocolorinformationisavailableandtherearesomeotherdrawbackssuchasimageblur,lowtextures.Withcomplicatedandchangeablepostures&appearances,itisverydifficulttoextractanddescripthumanfeaturesininfraredimageeffectivelyandtodistinguishthemfromdisturbances.Secondly,human’smovementsareverysubjectiveandunbending;therearenoroutinestorecapitulatethem.Meanwhile,themovementsalsoaccompanywithhumanposturesandappearanceschange,thetrackingmethodsusedinrigidobjectsarenotsuitableforhumantracking.Thirdly,beingshortoffeaturesfortracking,someexcellenthumantrackingalgorithmsbasedoncolorinformationandtexturescan’tworkefficientlyforinfraredhumantracking.Currently,themainresearchonthisfieldisfocusedonpedestriandetectionandtracking,mainlyusedinsurveillanceandnightdriver-assistanceincasesofhumanaremostlywalkingupright.Actually,human’smotionmannersaremuchmorecomplexthandescription,sotrackinghumanofarbitrarystatusisalmostanimpossiblemissionexactly.Thispaperisapartofthekeyresearchprojectof“HumanMotionObjectRecognitionbasedonInfraredImages”foundedbyChinaEducat(yī)ionMinistry(No.108174),inthisproject,wehavesomeachievementsonhumansegmentat(yī)ionandrecognitionininfraredimages.Thealgorithmproposedinthispaperismainlytosolvethetrackingproblemofhuman’sabnormalmovements.Theexperimentsresultsshowthatparticlesmean-shiftmigrationalgorithmweproposedisindependentonaplicat(yī)edmovementmannerofh
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 2025年無菌包裝用包裝材料項(xiàng)目規(guī)劃申請(qǐng)報(bào)告模范
- 2025年健康護(hù)理產(chǎn)品購(gòu)銷合同書樣本
- 2025年新股權(quán)分配策劃協(xié)議
- 2025年環(huán)境有害生物防治合同
- 2025年健身房個(gè)人教練聘請(qǐng)合同范本
- 2025年子女撫養(yǎng)費(fèi)用分擔(dān)策劃協(xié)議
- 2025年共同研發(fā)知識(shí)產(chǎn)權(quán)合同
- 2025年合作雙方產(chǎn)品協(xié)議范本
- 2025年全年圖書選購(gòu)合作協(xié)議書樣本
- 2025年公園景觀照明設(shè)備定期維護(hù)服務(wù)申請(qǐng)協(xié)議
- 孝悌課件教學(xué)課件
- 病歷書寫規(guī)范細(xì)則(2024年版)
- 2024-2025學(xué)年人教版八年級(jí)上冊(cè)地理期末測(cè)試卷(二)(含答案)
- 做賬實(shí)操-牙科診所的賬務(wù)處理
- 《期末總結(jié)》課件
- 雙方共同買車合同范例
- 01-衛(wèi)生法學(xué)與衛(wèi)生法概述課件
- 汽車智能制造技術(shù)課件
- 中醫(yī)外治法課件
- CRISPR-Cas9-基因編輯技術(shù)簡(jiǎn)介
- 2025屆山東省濱州市三校聯(lián)考語(yǔ)文高三第一學(xué)期期末質(zhì)量跟蹤監(jiān)視試題含解析
評(píng)論
0/150
提交評(píng)論