《基于三維點云數(shù)據(jù)的工件識別實驗探究》14000字(論文)_第1頁
《基于三維點云數(shù)據(jù)的工件識別實驗探究》14000字(論文)_第2頁
《基于三維點云數(shù)據(jù)的工件識別實驗探究》14000字(論文)_第3頁
《基于三維點云數(shù)據(jù)的工件識別實驗探究》14000字(論文)_第4頁
《基于三維點云數(shù)據(jù)的工件識別實驗探究》14000字(論文)_第5頁
已閱讀5頁,還剩40頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

第4章點云配準(zhǔn)算法4.1點云配準(zhǔn)的剛體變換理論在工業(yè)現(xiàn)場,工業(yè)機(jī)器人在完成工件識別后,還需進(jìn)行工件抓取,因此需要將經(jīng)過處理的場景點云和工件的模型點云進(jìn)行配準(zhǔn),獲取工件在實際場景中的六自由度位姿形態(tài)。兩坐標(biāo)系下的點云配準(zhǔn)可以通過固定模型坐標(biāo)系,將相機(jī)坐標(biāo)系下的點云通過旋轉(zhuǎn)和平移轉(zhuǎn)換到模型坐標(biāo)系下使兩片點云完成重合,這實際上是一個剛體變換的過程。4.1.1旋轉(zhuǎn)變換和平移變換定義:模型點云;場景點云;其中和表示三維空間中點云和中的數(shù)據(jù)點,點云,點云可用的矩陣來表示,則場景點云可通過平移和旋轉(zhuǎn)與模型點云重合,記平移矩陣為,旋轉(zhuǎn)矩陣為,則兩片點云之間的剛體變換可用式(4-1)來表示: (4-1)下面用四階矩陣形式進(jìn)行數(shù)學(xué)表示:記場景點云中一點坐標(biāo),平移矩陣,點經(jīng)平移變換后的坐標(biāo)為,則平移變換可用式(4-2)表示: (4-2)記點繞x軸旋轉(zhuǎn),繞y軸旋轉(zhuǎn),繞z軸旋轉(zhuǎn)變換后的坐標(biāo)為,則旋轉(zhuǎn)變換可用式(4-3)和式(4-4)表示: (4-3) (4-4)綜上所述,剛體變換可用式(4-5)描述: (4-5)其中為旋轉(zhuǎn)矩陣,為平移矩陣,為矩陣。4.1.2剛體變換矩陣的求解在確定點云和后,點云的配準(zhǔn)過程實際上是求解兩片點云的剛體變換矩陣,即求解旋轉(zhuǎn)矩陣和平移矩陣的過程,目前一般采用奇異值分解法[71-76]或四元數(shù)法來求解。奇異值分解法定義模型點云,場景點云首先求取兩片點云的質(zhì)心: (4-6)所要進(jìn)行最小化的目標(biāo)函數(shù)為: (4-7)其中代表從點云Q中尋找與歐氏距離最近的點,其中使誤差函數(shù)達(dá)到最小的旋轉(zhuǎn)矩陣和位移矩陣即為最優(yōu)解。令,當(dāng)時,誤差函數(shù)達(dá)到最小。記: (4-8)此時的誤差函數(shù)為: (4-9)只需令誤差函數(shù)的負(fù)數(shù)項達(dá)到最小。設(shè),要讓達(dá)到最小,則可以計算最優(yōu)旋轉(zhuǎn)矩陣: (4-10) (4-11)可以計算最優(yōu)位移矩陣: (4-12)四元數(shù)法四元數(shù)法是一種應(yīng)用于三維空間旋轉(zhuǎn)計算的方法,表達(dá)式如式(4-13):

(4-13)其中是實數(shù)單位,是虛數(shù)單位。在點云配準(zhǔn)過程中,一般通過矩陣求取、特征分解等方法求取兩片點云作剛體變換的四元數(shù)表達(dá)式,從而求取旋轉(zhuǎn)矩陣和平移矩陣,這種方法穩(wěn)定性和計算效率都較高。四元數(shù)法的計算步驟如下,定義:模型點云,場景點云(1)求取兩片點云的質(zhì)心: (4-14)(2)將兩片點云做相對質(zhì)心平移: (4-15)得到移動后的點集:,(3)利用移動后的點集構(gòu)造協(xié)方差矩陣:

(4-16)(4)將中元素組合構(gòu)建四維對稱矩陣: (4-17)對稱矩陣的特征向量即為四元數(shù)的四個分量: (4-18)可以由四元數(shù)計算得到旋轉(zhuǎn)矩陣和平移矩陣: (4-19) (4-20)4.2基于SAC-IA算法的點云粗配準(zhǔn)在進(jìn)行精配準(zhǔn)之間,需要先對兩片點云進(jìn)行粗配準(zhǔn),初步估計旋轉(zhuǎn)矩陣和平移矩陣。傳統(tǒng)的貪婪算法計算效率較低且容易陷入局部最優(yōu)解。目前主流的粗配準(zhǔn)算法包括采樣一致性配準(zhǔn)算法(SAC-IA)、Super4PCS算法、3D-NDT算法等,本文著重介紹SAC-IA算法。SAC-IA算法是一種基于局部特征描述符的粗配準(zhǔn)算法,這種方法基于FPFH描述符,具有較好的描述性和抗干擾性,對初始位姿偏差較大的點云也能夠有較好的粗配準(zhǔn)效果。需要計算點云的FPFH,采用采樣一致性思想,通過大量的點對應(yīng)關(guān)系來尋找誤差最小的矩陣,認(rèn)為這個矩陣就是最佳變換矩陣。SAC-IA算法步驟如下:(1)采樣。樣本點盡量要求FPFH特征分散,要求樣本點的距離大于最小值。(2)將采樣點的FPFH特征和模型點云的FPFH特征進(jìn)行比對,將距離相近的點作為匹配點對存入列表中。(3)利用上述的匹配點對進(jìn)行初步的剛體變換矩陣計算,通過Huber懲罰函數(shù)來描述配準(zhǔn)誤差,懲罰函數(shù)計算公式如式(4-21): (4-21)其中為給定的閾值,表示第對的變換距離誤差。(4)重復(fù)(1)-(3)操作,選取誤差和最小的變換矩陣,作為粗配準(zhǔn)的最佳變換矩陣。由于計算FPFH特征在點云數(shù)據(jù)量較大的情況下效率較低,一般在進(jìn)行SAC-IA粗配準(zhǔn)之前需要進(jìn)行點云的降采樣,本文在第2章已經(jīng)對點云進(jìn)行精簡處理。SAC-IA算法流程圖如圖4.1所示:圖4.1SAC-IA算法流程圖4.3基于ICP算法的點云精配準(zhǔn)通過粗配準(zhǔn)后的兩片點云已經(jīng)具備了較好的初始形態(tài),但是通過粗配準(zhǔn)計算得到的旋轉(zhuǎn)變換矩陣數(shù)據(jù)還不夠精確,因此需要對待配準(zhǔn)點云進(jìn)行精配準(zhǔn),獲得更加精確的物體姿態(tài)。迭代最近點算法(IterativeClosestPoint,ICP)是點云精配準(zhǔn)領(lǐng)域中一種最常見的算法。ICP算法事實上是一個基于最小二乘法的匹配最優(yōu)解問題,通過確立一種正確匹配的收斂準(zhǔn)則,反復(fù)進(jìn)行點集的確定和最優(yōu)剛體變換的計算過程,當(dāng)收斂準(zhǔn)則滿足則可認(rèn)為達(dá)到解最優(yōu)。這種算法精確度高,無需對點云集進(jìn)行分割提取處理,且在初始形態(tài)較好的情況下能夠達(dá)到極高的收斂精度。但是ICP法也具有一定的缺陷,這種方法需要遍歷點云集中所有的點都進(jìn)行歐氏距離的迭代計算,針對閾值較為集中的點需要進(jìn)行多次迭代,這會造成極大的計算量。其次ICP法所定義的目標(biāo)函數(shù)存在一定的局限性,算法認(rèn)為歐氏距離最近的點即為對應(yīng)點,在目標(biāo)點云初始位置不理想的情況下使用ICP法,容易產(chǎn)生點與點之間的錯誤對應(yīng)和局部最優(yōu)解,造成配準(zhǔn)的錯誤。ICP算法通過尋找距離誤差最小的剛體變換矩陣來使兩片點云達(dá)到理想的匹配效果[77-81]。這種算法的基本思路是在兩片點云下尋找歐氏距離最近的點,利用所形成的點集計算待配準(zhǔn)點云數(shù)據(jù)和參考點云數(shù)據(jù)之間的旋轉(zhuǎn)矩陣和位移矩陣,通過定義誤差函數(shù)和收斂閾值對點集數(shù)據(jù)進(jìn)行迭代計算,當(dāng)誤差函數(shù)值小于閾值時停止計算,即可輸出最優(yōu)解和。不妨設(shè)場景點云為,模板點云為,求解點云之間變換矩陣的問題事實上就是基于最小二乘法的最優(yōu)解匹配問題。在沒有誤差的情況下,從P坐標(biāo)系轉(zhuǎn)化到Q的公式為: (4-22)所要進(jìn)行最小化的目標(biāo)函數(shù)為: (4-23)其中代表從點云Q中尋找與歐氏距離最近的點。其中使誤差函數(shù)達(dá)到最小的旋轉(zhuǎn)矩陣和位移矩陣即為最優(yōu)解。ICP算法步驟如下:(1)記粗配準(zhǔn)后的變換點集為,記參考點集為,將和作為算法的原始點集。(2)采樣。計算中每一個點在中歐氏距離最小的點作為對應(yīng)點,建立對應(yīng)點集。(3)計算變換矩陣。計算關(guān)于上述對應(yīng)點集距離最小的剛體變換旋轉(zhuǎn)矩陣和位移矩陣。(4)計算誤差函數(shù)。定義匹配點對的均方誤差函數(shù):將剛體變換矩陣和代入計算,要求均方誤差函數(shù)的值達(dá)到最小。(5)使用變換矩陣對點集進(jìn)行更新。公式為: (4-24)(6)迭代計算。規(guī)定點云距離閾值和最大迭代次數(shù),迭代計算每一次經(jīng)過剛體變換后的點云和模型點云之間的距離誤差。當(dāng)均方誤差小于距離閾值或迭代次數(shù)大于時,循環(huán)結(jié)束。每一步剛體變換的更新步驟如下:(1)在第次剛體變換后建立點云的對應(yīng)關(guān)系: (4-25)(2)基于(1)中的對應(yīng)關(guān)系,利用均方誤差最小來計算新的剛體變換和: (4-26)(3)更新第k步的剛體變換: (4-27)ICP算法流程圖如圖4.2所示:圖4.2ICP算法流程圖4.4本章小結(jié)(1)本章主要介紹了基于點云配準(zhǔn)的剛體變換理論,介紹了計算點云旋轉(zhuǎn)變換矩陣和平移變換矩陣的奇異值分解法和四元數(shù)法。(2)介紹了一種基于采樣性一致算法的點云粗配準(zhǔn)算法,并使用ICP算法進(jìn)一步對點云進(jìn)行精配準(zhǔn)。第5章實驗與分析5.1實驗場景為了驗證算法的可行性,本文搭建了如圖5.1所示的實驗平臺進(jìn)行實驗。本文選取的研究對象是箱體類機(jī)械工件,圖中已用紅色圓形圈出來,工作臺上有兩個工件,本文的研究對象是①號工件,因此在實驗過程中首先需要將環(huán)境中的無效數(shù)據(jù)濾除,并將工件與工作臺、工件與工件分割開來,獲得獨立的①號工件的點云數(shù)據(jù)。圖5.1實驗場景5.2點云的預(yù)處理獲取的點云數(shù)據(jù)如圖5.2所示,從點云的分布情況來看,目標(biāo)工件點云在Z軸的最下面,沿著Z軸可以將點云分為幾個部分,將不同部分用不同的顏色標(biāo)出,其中工件部分用藍(lán)色標(biāo)記。沿著Z軸對點云進(jìn)行統(tǒng)計,得到一個數(shù)組,保存為CloudStatics.csv文件,繪制后如圖5.3所示。由于物體的頂面點云比較完整,物體側(cè)面基本沒有點云,可以從Z軸的最低點,根據(jù)固定的間隔到Z軸的最高點,去統(tǒng)計每個間隔范圍內(nèi)的點云的數(shù)量,本文設(shè)定點云數(shù)量閾值為200個,即第一次超過200個點云數(shù)據(jù)的節(jié)點開始尋找下一個波谷,在低于200個點云數(shù)據(jù)的位置即是分割節(jié)點。通過直通濾波,即可將無效的點云數(shù)據(jù)濾除,獲取位于工作臺上的兩個點云數(shù)據(jù)。圖5.2場景點云初沿z軸分布圖圖5.3沿z軸點云數(shù)量分布圖經(jīng)過濾波后的點云如圖5.4、圖5.5所示,兩張圖表示的是兩個不同的視角觀測得到的點云數(shù)據(jù),其中綠色的表示的是模型點云,紅色的是經(jīng)過過濾后得到的工件的場景點云。圖5.4過濾后的模型點云和場景點云圖5.5過濾后的模型點云和場景點云在濾除初始點云數(shù)據(jù)中的無效點后,目前已經(jīng)獲得較為完整的工件點云數(shù)據(jù),下一步需要將兩個工件進(jìn)行分割,獲得目標(biāo)工件點云數(shù)據(jù)。本文采用一種基于歐式距離的分割算法,將距離閾值范圍內(nèi)的點進(jìn)行聚類,達(dá)到分割的效果。本文設(shè)置搜索近鄰半徑為2厘米,聚類所需最少點數(shù)目占比為20%,聚類所需最多點數(shù)目占比為100%,分割效果如圖5.6、圖5.7所示,其中圖5.6代表目標(biāo)工件點云,圖5.7代表干擾工件點云。圖5.6分割得到的目標(biāo)工件點云數(shù)據(jù)圖5.7分割得到的干擾工件點云數(shù)據(jù)在上一階段,通過對場景點云數(shù)據(jù)的濾波和分割,已經(jīng)獲得了目標(biāo)工件點云數(shù)據(jù),現(xiàn)在需要對工件的模型點云和場景點云進(jìn)行體素下采樣,在保留點云幾何特征的同時精簡冗余數(shù)據(jù),提高后續(xù)法線特征計算以及FPFH描述符構(gòu)建的計算效率。本文選取體素柵格邊長為0.05厘米,對工件點云進(jìn)行下采樣,圖5.8表示模板點云下采樣效果圖,圖5.9表示目標(biāo)點云下采樣效果圖。圖5.8模板工件點云下采樣效果圖圖5.9目標(biāo)工件點云下采樣經(jīng)過點云下采樣,模板工件、目標(biāo)工件點云數(shù)據(jù)在保留幾何特征的同時大幅精簡了數(shù)據(jù),提高了后續(xù)計算的效率。經(jīng)過下采樣后的點云數(shù)據(jù)量如表5.1所示。表5.1下采樣后的點云數(shù)據(jù)量點云類別點云數(shù)據(jù)量(個)模板點云750目標(biāo)點云10025.3點云的幾何特征提取和FPFH描述符構(gòu)建本節(jié)首先對模板點云進(jìn)行法線特征提取。在鄰域半徑選取過程中,如果鄰域范圍過大,將無法描述點云表面細(xì)節(jié),容易造成法線失真。如果鄰域范圍過小,容易受噪聲影響,計算效率將會降低。本文選取點云球形鄰域半徑為1厘米,能夠有較好的法向量提取效果。如圖5.10、圖5.11所示,這兩張圖是不同視角下模板點云的法向量。圖5.10模板點云法向量示意圖圖5.11模板點云法向量示意圖同樣的,對目標(biāo)工件點云進(jìn)行法線特征提取,如圖5.12、圖5.13所示,這兩張圖是不同視角下目標(biāo)工件點云的法向量。圖5.12目標(biāo)工件點云法向量示意圖圖5.13目標(biāo)工件點云法向量示意圖在提取得到法向量后,設(shè)定鄰域半徑為0.5厘米,利用PCL庫計算模型點云和目標(biāo)弓箭工件點云的FPFH特征描述符,并將其可視化,得到圖5.14,其中黑色折線代表的是模型點云的FPFH,紅色折線代表的是目標(biāo)工件點云的FPFH。圖5.14模板工件點云和目標(biāo)工件點云FPFH本節(jié)模板點云和目標(biāo)點云的法向量和FPFH特征點數(shù)量如表5.2所示。表5.2模板點云和目標(biāo)點云的法向量和FPFH特征點數(shù)量數(shù)據(jù)種類數(shù)量(個)模板點云法向量數(shù)量750模板點云FPFH特征點數(shù)量750目標(biāo)點云法向量數(shù)量1002目標(biāo)點云FPFH特征點數(shù)量10025.4點云的位姿估計在提取模板工件點云和目標(biāo)工件點云的FPFH特征后,如圖5.14所示,在同一張直方圖中將二者的FPFH特征進(jìn)行比對,發(fā)現(xiàn)二者的FPFH特征相似度很高,因此本節(jié)將針對二者的特征點使用SAC-IA算法進(jìn)行初步配準(zhǔn),隨后使用ICP算法進(jìn)行進(jìn)一步的精配準(zhǔn)。5.4.1SAC-IA算法粗配準(zhǔn)在粗配準(zhǔn)中,使用PCL庫默認(rèn)的參數(shù),設(shè)置樣本之間的最小距離為1厘米,每次迭代計算使用的樣本數(shù)量為2,計算協(xié)方差所選擇的近鄰點個數(shù)為20,對模型點云和目標(biāo)點云進(jìn)行粗配準(zhǔn)。根據(jù)式(4-10)、式(4-12),SAC-IA算法進(jìn)行粗配準(zhǔn)得到的齊次坐標(biāo)變換矩陣如圖5.15所示。粗配準(zhǔn)效果圖如圖5.16、圖5.17所示。其中綠色的是模板點云,紅色的是目標(biāo)點云,藍(lán)色的是模板點云在粗配準(zhǔn)后,根據(jù)SAC-IA得到的坐標(biāo)變換矩陣進(jìn)行坐標(biāo)變換后的結(jié)果,兩張圖是不同視角下的同一個結(jié)果。圖5.15SAC-IA算法計算得到的坐標(biāo)變換矩陣圖5.16SAC-IA粗配準(zhǔn)效果圖圖5.17SAC-IA粗配準(zhǔn)效果圖5.4.2ICP算法精配準(zhǔn)粗配準(zhǔn)過程已經(jīng)求解得到了一個初始的剛體變換矩陣,這能大幅提高ICP算法的計算效率。使用ICP算法進(jìn)行精配準(zhǔn)過程,本章設(shè)定參數(shù)如下:點云配準(zhǔn)后的最大距離為4厘米,最大迭代次數(shù)為20次,兩次變化矩陣之間的差值為10-10,結(jié)束的均方誤差條件為0.1。ICP算法進(jìn)行精配準(zhǔn)得到的變換矩陣如圖5.18所示。圖5.18ICP算法得到的坐標(biāo)變換矩陣精配準(zhǔn)效果圖如圖5.19所示。其中綠色的代表模板點云,紅色的代表目標(biāo)工件點云,黃色的代表模板點云根據(jù)精配準(zhǔn)計算得到的坐標(biāo)變換矩陣進(jìn)行坐標(biāo)變換后得到的點云。從圖中可以看出,點云之間已經(jīng)達(dá)到較好的配準(zhǔn)效果。圖5.19ICP精配準(zhǔn)效果圖5.5本章小結(jié)本章基于放置于工作平臺上的箱體類零件展開目標(biāo)識別和位姿估計。5.1節(jié)根據(jù)點云分布使用濾波技術(shù)獲取工件點云數(shù)據(jù),并使用歐式聚類方法對兩團(tuán)工件點云進(jìn)行分割,獲得目標(biāo)工件點云數(shù)據(jù)。5.2節(jié)針對點云數(shù)據(jù)量龐雜這個問題,本章采用了一種基于體素柵格的下采樣方法,在保留點云幾何特征的同時精簡了點云數(shù)據(jù)。5.3節(jié)進(jìn)行點云的法線特征計算并構(gòu)建點云的FPFH描述符,提高點對的對應(yīng)正確率。5.4節(jié)對模型點云和目標(biāo)點云的FPFH特征進(jìn)行比對,并使用SAC-IA算法進(jìn)行粗配準(zhǔn),并使用ICP算法進(jìn)行精配準(zhǔn),獲得較好的配準(zhǔn)結(jié)果。

第6章總結(jié)與展望6.1工作總結(jié)本文在綜合分析了基于三維點云的目標(biāo)識別和位姿估計的國內(nèi)外研究現(xiàn)狀的基礎(chǔ)上,提出了一種基于點云法線特征和FPFH描述符的點云配準(zhǔn)方法,使用SAC-IA算法和ICP算法相結(jié)合的方法對點云進(jìn)行配準(zhǔn),獲得了點云的工件類別和位姿信息,獲得較好的配準(zhǔn)效果。本文的具體研究工作總結(jié)如下:(1)總結(jié)了基于三維點云的目標(biāo)識別和位姿估計研究現(xiàn)狀及發(fā)展趨勢,并對點云的預(yù)處理、識別和配準(zhǔn)等基礎(chǔ)理論進(jìn)行介紹。本文首先基于三維點云的識別和配準(zhǔn)研究現(xiàn)狀,闡述了研究的背景和意義,并介紹了點云的濾波技術(shù)、基于歐式聚類的分割算法、基于體素柵格的下采樣方法、點云的鄰域搜索理論、點云配準(zhǔn)的剛體變換理論等。(2)提出一種基于點云表面法線和FPFH特征的配準(zhǔn)方法。本文提出一種基于最小二乘擬合平面的表面法線計算方法,并對關(guān)鍵點使用FPFH作為點云的局部幾何特征描述,對模型點云和目標(biāo)點云進(jìn)行FPFH特征比對確定對應(yīng)點集,有效地提高了點云識別的計算效率。(3)使用SAC-IA算法進(jìn)行粗配準(zhǔn),并使用ICP算法進(jìn)行精配準(zhǔn)。本文通過對兩團(tuán)點云特征點FPFH特征的比對,使用SAC-IA算法計算得到初步的剛體變換矩陣,并使用ICP算法獲得最終的剛體變換矩陣,得出最終的位姿結(jié)果,實驗結(jié)果顯示配準(zhǔn)效果較好。6.2研究展望本文提出一種基于點云表面法線和FPFH特征的點云識別配準(zhǔn)方法,使用SAC-IA算法和ICP算法結(jié)合的方式對點云進(jìn)行配準(zhǔn),取得了較好的效果。但是本課題以下方面仍有待進(jìn)一步研究:(1)增加算法的通用性。本文只對箱體類零件的點云數(shù)據(jù)進(jìn)行目標(biāo)識別和位姿估計,還未對其他類型的工件進(jìn)行測試,后續(xù)可以針對不同種類的工件進(jìn)行實驗,增加算法的通用性。(2)增加關(guān)于工件抓取方面的研究。本文只完成了對目標(biāo)工件的點云識別和位姿估計,得出了兩片點云之間的旋轉(zhuǎn)平移矩陣,但是沒有涉及到關(guān)于工件抓取的研究,后續(xù)可以增加關(guān)于工件抓取和機(jī)器人移動方面的研究。參考文獻(xiàn)[1]隋婧,金偉其.雙目立體視覺技術(shù)的實現(xiàn)及其進(jìn)展[J].電子技術(shù)應(yīng)用,2004,30(010):4-6.[2]DavidMarr,Vision:AcomputationalInvestigationintothehumanrepresentationandprocessingofvisualinformation,W.H.FreemanandCompany,1982.[3]ChenX,HuangY,ChenS.Modelanalysisandexperimentaltechniqueoncomputingaccuracyofseamspatialpositioninformationbasedonstereovisionforweldingrobot[J].IndustrialRobot,2012,39(4):192–204.[4]FangY,MasakiI,HornB.Depth-BasedTargetSegmentationforIntelligentVehicles:FusionofRadarandBinocularStereo[J].IEEETransactionsonIntelligentTransportationSystems,2002,3(3):196-202.[5]OhJK,LeeCH.Developmentofastereovisionsystemforindustrialrobots[C].InternationalConferenceonControl.2007.[6]任慧娟,金守峰,程云飛,等.面向分揀機(jī)器人的多目標(biāo)視覺識別定位方法[J].機(jī)械與電子,2019,037(012):64-68.[7]Salehian,Behzad,Fotouhi,etal.Dynamicprogramming-baseddensestereomatchingimprovementusinganefficientsearchspacereductiontechnique[J].Optik:ZeitschriftfurLicht-undElektronenoptik:=JournalforLight-andElectronoptic,2018,160:1-12.[8]H.Hirschmuller,StereoProcessingbySemiglobalMatchingandMutualInformation[J].inIEEETransactionsonPatternAnalysisandMachineIntelligence,vol.30,no.2,pp.328-341,Feb.2008.[9]龔文.基于動態(tài)規(guī)劃的立體匹配算法研究[D].南昌航空大學(xué),2015.[10]Abdellali,H.,Kato,Z.3Dreconstructionwithdepthpriorusinggraph-cut[J].CentEurJOperRes29,387–402(2021).[11]K.Zhang,Y.Fang,D.Min,etal.Cross-ScaleCostAggregationforStereoMatching[C].2014IEEEConferenceonComputerVisionandPatternRecognition(CVPR),Columbus,America,2014.[12]A.Klaus,M.SormannandK.Karner,Segment-BasedStereoMatchingUsingBeliefPropagationandaSelf-AdaptingDissimilarityMeasure[C],18thInternationalConferenceonPatternRecognition(ICPR'06),2006,pp.15-18,[13]劉振.基于結(jié)構(gòu)光的雙目立體成像技術(shù)研究[D].中國科學(xué)院大學(xué),2013.[14]張洪龍.基于結(jié)構(gòu)光的室內(nèi)場景精確三維重建技術(shù)研究[D].深圳:中國科學(xué)院深圳先進(jìn)技術(shù)研究院,2018.[15]MaS,ShenY,QianJ,etal.Binocularstructuredlightstereomatchingapproachfordensefacialdisparitymap[J].AI2011:AdvancesinArtificialIntelligence,2011:550-559.[16]CarrihillB,HummelR.Experimentswiththeintensityratiodepthsensor[J].Cvgip,1985,32(3):337-358.[17]BrunoF,BiancoG,MuzzupappaM,etal.Experimentationofstructuredlightandstereovisionforunderwater3Dreconstruction[J].ISPRSJournalofPhotogrammetryandRemoteSensing,2011,66(4):508-518.[18]BickelmannC,MorrowJM,DuJ,etal.Themolecularoriginandevolutionofdim-lightvisioninmammals[J].Evolution,2015,69(11):2995.[19]KazhdanM,HoppeH.ACMtransactionsongraphics[M].AssociationforComputingMachinery,2005:1-11.[20]曲學(xué)軍,李海固,樊龍欣,etal.基于組合編碼的條紋結(jié)構(gòu)光主動立體視覺匹配[J].計算機(jī)測量與控制,2014,22(011):3712-3714.[21]劉子偉,許廷發(fā),王洪慶,深度成像理論與實現(xiàn)[J].紅外與激光工程,2016,45(7):242-246.[22]PrusakA,MelnychukO,RothH,etal.PoseestimationandmapbuildingwithaTime-Of-Flightcameraforrobotnavigation[J].InternationalJournalofIntelligentSystemsTechnologiesandApplications,2008,5(3/4):355.[23]JohnS.Massa,GeraldS.Buller,AndrewC.Walker,etal.Time-of-flightopticalrangingsystembasedontime-correlatedsingle-photoncounting[J].AppliedOptics,1998,37(31):7298-304.[24]LindnerM,SchillerI,KolbA,etal.Time-of-Flightsensorcalibrationforaccuraterangesensing[J].ComputerVision&ImageUnderstanding,2010,114(12):1318-1328.[25]S.Chua,X.Wang,N.Guo,etal.Improvingthree-dimensional(3D)rangegatedreconstructionthroughtime-of-flight(TOF)imaginganalysis[J].JournaloftheEuropeanOpticalSocietyRapidPublications,2016(11):101-123.[26]HussmannS,LiepertT.RobotVisionSystembasedona3D-TOFCamera[C].Instrumentation&MeasurementTechnologyConference.IEEE,2007.[27]FalieD,BuzuloiuV.DistanceerrorscorrectionfortheTimeofFlight(ToF)cameras[C]//IEEEInternationalWorkshoponImagingSystems&Techniques.IEEE,2008,pp:123-126.[28]楊晶晶,馮文剛.連續(xù)調(diào)制TOF圖像誤差來源及降噪處理[J].合肥工業(yè)大學(xué)學(xué)報(自然科學(xué)版),2012,35(04):485-488.[29]SotoodehS,ZurichE,Hierarchicalclusteredoutlierdetectioninlaserscannerpointclouds[C].36thISPRS,2007.[30]CLARENZU,DROSKED,HENNS.Computationalmethodsfornonlinearimageregistration[C].MathematicalModelsforRegistrationandApplicationstoMedicalImagingMathematicsinIndustry,2006:81-101.[31]CHOUDHURYP,TUMBLINJ.Thetrilateralfilterforhighcontrastimagesandmeshes[C].EurographicsSymposiumonRendering,2003:186-196.[32]趙燦,湯春瑞,劉丹丹.基于表面波變換的散亂點云去噪方法[J].組合機(jī)床與自動化加工技術(shù),2009(2):31-34.[33]CHENYH,NGCT,WANGYZ.Datareductioninintegratedreverseengineeringandrapidprototyping[J].InternationalJournalofComputerIntegratedManufacturing,1999,12(2):97-103[34]KakadiarisIA,TodericiG,EvangelopoulosG,etal.3D-2DFaceRecognitionwithPoseandIlluminationNormalization[J].ComputerVisionandImageUnderstanding,2016,154:137-151.[35]RabbaniT,HeuvelFAVD,VosselmanG.Segmentationofpointcloudsusingsmoothnessconstraint[C]//InternationalArchivesofPhotogrammetry,RemoteSensingandSpatialInformationSciences.2006.[36]FischlerMA,BollesRC.Randomsampleconsensus:aparadigmformodelfittingwithapplicationstoimageanalysisandautomatedcartography[J].CommunicationoftheACM,1981,24(60):381-395.[37]李寶,程志全,黨崗,等.一種基于RANSAC的點云特征線提取算法[J].計算機(jī)工程與科學(xué),2013,35(02):147-153.[38]LariZ,HabibA.Anadaptiveapproachforthesegmentationandextractionofplanarandlinear/cylindricalfeaturesfromlaserscanningdata[J].ISPRSJournalofPhotogrammetryandRemoteSensing,2014,93(11):192-212.[39]LigonJ,BeinD,LyP,etal.3Dpointcloudprocessingusingspinimagesforobjectdetection[C]//2018IEEE8thAnnualComputingandCommunicationWorkshopandConference(CCWC).IEEE,2018:731-736.[40]DengX,DaF,ShaoH.Efficient3DfacerecognitionusinglocalcovariancedescriptorandRiemanniankernelsparsecoding[J].Computers&ElectricalEngineering,2017,62:81-91.[41]GuoY,BennamounM,SohelF,LuM,WanJ.3Dobjectrecognitioninclutteredsceneswithlocalsurfacefeatures:asurvey[J].IEEETransactionsonPatternAnalysisandMachineIntelligence,2014,36(11):2270-2287.[42]JohnsonAE,HebertM.Usingspinimagesforefficientobjectrecognitionincluttered3Dscenes[J].IEEETransactiononPatternAnalysisandMachineIntelligence,1999,21(5):433-449.[43]FeldmarJ,AyacheN.Rigid,affineandlo

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論