亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        三維目標(biāo)位姿跟蹤與模型修正

        2018-06-25 03:17:02孫曉亮張躍強(qiáng)于起峰
        測繪學(xué)報(bào) 2018年6期
        關(guān)鍵詞:位姿直線誤差

        尚 洋,孫曉亮,張躍強(qiáng),李 由,于起峰

        國防科技大學(xué)空天科學(xué)學(xué)院圖像測量與視覺導(dǎo)航湖南省重點(diǎn)實(shí)驗(yàn)室,湖南 長沙 410072

        高效、穩(wěn)定的目標(biāo)位姿跟蹤技術(shù)對于諸多應(yīng)用領(lǐng)域具有重要意義,如空間應(yīng)用(交會對接、在軌服務(wù)等)、無人機(jī)應(yīng)用(自主降落等)、機(jī)器人應(yīng)用(抓取、裝配等)等?;谝曈X的位姿跟蹤方法具有精度高、自主性強(qiáng)等優(yōu)勢,已成為上述應(yīng)用中近距離階段的主要位姿測量手段?;趫D像的精密位姿跟蹤方法涵蓋目標(biāo)特征提取、參數(shù)優(yōu)化求解等,屬于攝影測量與計(jì)算機(jī)視覺、數(shù)字圖像處理交叉的攝像測量或圖像測量范疇[1]。

        研究人員將目標(biāo)固有的紋理、幾何特征用于對位姿參數(shù)的精密測量,基本思路是通過建立目標(biāo)圖像2D特征與3D模型之間的對應(yīng)關(guān)系,解算目標(biāo)位姿參數(shù)。雙目視覺方法[2]利用雙目交會成像理論對目標(biāo)位姿參數(shù)進(jìn)行測量,相關(guān)技術(shù)已經(jīng)較為成熟,且已得到廣泛應(yīng)用。本文關(guān)注更為通用、更富挑戰(zhàn)的利用單目圖像基于目標(biāo)3D模型的目標(biāo)精密位姿跟蹤方法。

        本文開展基于目標(biāo)3D模型的精密位姿跟蹤相關(guān)研究,具體內(nèi)容如下:①已知目標(biāo)3D精確模型,對于包含豐富直線特征的特殊目標(biāo),提出基于直線模型的目標(biāo)位姿跟蹤方法;為處理更為一般目標(biāo),提出法向距離迭代加權(quán)最小二乘位姿估計(jì)方法及距離圖迭代最小二乘位姿跟蹤方法。②針對目標(biāo)3D直線模型參數(shù)不準(zhǔn)確的情況,結(jié)合光束法平差思想,提出一種聯(lián)合優(yōu)化求解目標(biāo)位姿及直線參數(shù)的方法。③對于包含豐富直線特征的目標(biāo),在其3D直線模型完全未知的情況下,利用序列圖像信息,在SFM框架下同時(shí)實(shí)現(xiàn)目標(biāo)直線模型重建與位姿參數(shù)的求解。

        1 基于目標(biāo)3D模型位姿跟蹤相關(guān)研究現(xiàn)狀

        針對基于目標(biāo)3D模型的位姿跟蹤問題,本文依據(jù)目標(biāo)3D模型已知與否對相關(guān)工作進(jìn)行梳理。

        1.1 目標(biāo)3D精確模型已知

        在已知精確目標(biāo)3D模型的情況下,基于圖像特征,建立2D-3D對應(yīng)關(guān)系即可求解目標(biāo)位姿參數(shù)。廣泛采用的方法包含點(diǎn)、直線、邊緣輪廓幾何結(jié)構(gòu)特征、2D特征描述及深度學(xué)習(xí)等。

        基于點(diǎn)特征的位姿解算即為熟知的“PnP(perspective-n-point)”問題,通過建立n個(gè)3D空間點(diǎn)與2D圖像點(diǎn)之間的對應(yīng)關(guān)系,求解目標(biāo)位姿參數(shù)。常用的點(diǎn)特征有SIFT[3]、ORB[4]等。對于后續(xù)求解,F(xiàn)ischler等[5]對P3P問題進(jìn)行了研究,并給出了閉式解。對于n≥6的情況,PnP問題存在線性最小二乘解,因此后續(xù)研究工作主要集中在n≤5的情況。為提高求解的穩(wěn)定性及精度,迭代優(yōu)化求解的策略被引入到PnP問題中,如POSIT[6]算法及正交迭代算法[7]等。點(diǎn)特征較為依賴于目標(biāo)的紋理信息,易受紋理分布、光照、噪聲等因素的影響,算法穩(wěn)健性不高。

        相比于點(diǎn)特征,直線特征包含了更多信息,更有利于實(shí)現(xiàn)穩(wěn)定、精確、可靠的匹配。基于直線對應(yīng)的位姿測量方法即為被廣泛研究的“PnL(Perspective-n-Line)”問題,已有算法可歸為以下兩類:

        (1) 線性求解方法。文獻(xiàn)[8]給出了3條直線對應(yīng)情況下的封閉式解法。文獻(xiàn)[9]同樣對P3L問題進(jìn)行了研究,并指出最多存在8個(gè)解。文獻(xiàn)[10]依據(jù)旋轉(zhuǎn)主軸構(gòu)建局部坐標(biāo)系,將直線分為3條一組,求解局部坐標(biāo)系與相機(jī)坐標(biāo)系之間的變換關(guān)系,以確定目標(biāo)位姿參數(shù)。文獻(xiàn)[11]提出一種直接最小二乘位姿求解方法,通過最小化一個(gè)關(guān)于姿態(tài)矩陣的二次目標(biāo)函數(shù),得到旋轉(zhuǎn)矩陣的全局最優(yōu)解。

        (2) 非線性優(yōu)化求解方法。為得到更為精確的位姿參數(shù),一般采用迭代求解方法對線性求解結(jié)果進(jìn)行優(yōu)化,通常選擇像方誤差或物方誤差構(gòu)建目標(biāo)函數(shù)。文獻(xiàn)[12]提出先迭代求解旋轉(zhuǎn)參數(shù),再線性求解平移參數(shù)的方法。文獻(xiàn)[13]針對仿射相機(jī)模型下的位姿迭代估計(jì)方法進(jìn)行了研究。文獻(xiàn)[14]中針對未知模型圖像直線對應(yīng)的情況進(jìn)行探討,綜合考慮匹配與位姿迭代解算,同時(shí)求解直線對應(yīng)關(guān)系和位姿參數(shù)。文獻(xiàn)[15]通過引入同名點(diǎn)及高程平面約束,實(shí)現(xiàn)可靠的航空影像中直線特征匹配。文獻(xiàn)[16]將直線特征約束引入到衛(wèi)星影像區(qū)域網(wǎng)平差優(yōu)化中。

        在目標(biāo)位姿測量中,對目標(biāo)邊緣輪廓進(jìn)行離散采樣是廣泛采用的處理思路。文獻(xiàn)[17]提出的RAPiD(real-time attitude position determination)是最為研究人員熟知的基于邊緣輪廓特征的位姿跟蹤算法,其通過對輪廓進(jìn)行離散采樣,沿采樣點(diǎn)法向方向搜索匹配點(diǎn),求解位姿參數(shù)。視覺伺服相關(guān)方法[18]在視覺伺服的框架下完成位姿跟蹤,其在本質(zhì)上等價(jià)于RAPiD算法[19]。為克服RAPiD類方法欠穩(wěn)健性的缺陷,已有改進(jìn)可分為以下三類[20]:

        (1) 多特征融合:此類方法將其他圖像特征同邊緣輪廓特征融合,以提高方法的穩(wěn)健性。關(guān)鍵點(diǎn)特征[21]、紋理特征[22]等被引入提升位姿跟蹤的穩(wěn)健性。

        (2) 穩(wěn)健估計(jì):此類方法在匹配階段引入穩(wěn)健估計(jì)方法,以剔除誤匹配對位姿跟蹤算法性能的影響。Drummond等[23]將在最小二乘框架下引入M-估計(jì),通過求解加權(quán)最小二乘問題實(shí)現(xiàn)位姿跟蹤。RANSAC方法被Armstrong等[24]應(yīng)用于邊緣擬合中。

        (3) 貝葉斯估計(jì):此類方法主要包含卡爾曼濾波相關(guān)方法[25]及粒子濾波相關(guān)方法[26]??柭鼮V波適用于噪聲滿足高斯分布假設(shè)的情況,粒子濾波更為適用于目標(biāo)作非線性運(yùn)動且為非高斯隨機(jī)過程的情況。

        基于邊緣輪廓特征的位姿測量方法通過搜索或迭代優(yōu)化,無須顯式提取點(diǎn)、直線,更為穩(wěn)健、通用。文獻(xiàn)[27]對相關(guān)工作進(jìn)行了系統(tǒng)總結(jié),指出最主要的問題集中在幾何結(jié)構(gòu)特征的提取與匹配上,易受復(fù)雜背景、光照變化、噪聲等因素干擾。

        2D圖像中目標(biāo)檢測與識別領(lǐng)域取得了突出的研究成果,其中涉及的2D特征描述被推廣到目標(biāo)位姿參數(shù)的估計(jì)中,基本思路是基于虛擬離散位姿參數(shù)[28-29]、目標(biāo)不同側(cè)面[30]等,將針對3D目標(biāo)的位姿求解問題轉(zhuǎn)換為若干2D圖像之間的匹配問題,進(jìn)而采用2D特征描述建立對應(yīng)。

        基于HOG(histogram of oriented gradient)特征的DPM(deformable parts model)被推廣用于目標(biāo)位姿估計(jì)中[30]。文獻(xiàn)[28]綜合HOG特征、目標(biāo)結(jié)構(gòu)顯著性特征、區(qū)域特征及紋理特征等信息,進(jìn)一步改善匹配結(jié)果。基于離散采樣視點(diǎn)或目標(biāo)不同側(cè)面的方法,僅能得到粗略的目標(biāo)位姿參數(shù)。對此,文獻(xiàn)[29]將離散采樣視點(diǎn)條件下得到的位姿參數(shù)估計(jì)作為初值,采用MCMC(Markov chain monte carlo)采樣方法對位姿參數(shù)進(jìn)一步求精。

        2D圖像特征描述在定位精度上尚不及點(diǎn)、直線等幾何特征,因此,位姿求解精度不高。另外,位姿求解的精度同樣受位姿參數(shù)離散的粗細(xì)粒度的影響。

        深度學(xué)習(xí)已經(jīng)成為機(jī)器視覺、圖像處理等領(lǐng)域的熱點(diǎn)。相關(guān)研究成果也被推廣到目標(biāo)位姿跟蹤中,已有應(yīng)用主要集中在兩個(gè)方面:①類似于2D特征描述,將學(xué)習(xí)得到的2D深度特征描述應(yīng)用于離散位姿參數(shù)后的2D圖像之間的匹配中[31-32];②構(gòu)建卷積神經(jīng)網(wǎng)絡(luò),直接通過2D圖像信息預(yù)測控制點(diǎn)圖像坐標(biāo),進(jìn)而建立2D-3D控制點(diǎn)對應(yīng),實(shí)現(xiàn)位姿參數(shù)的求解[33]。

        類似于2D圖像特征,深度特征同樣存在定位精度不高的缺陷,且位姿參數(shù)估計(jì)的精度依賴于離散的粒度。另外,深度學(xué)習(xí)是一項(xiàng)數(shù)據(jù)驅(qū)動的技術(shù),樣本數(shù)據(jù)是決定算法性能的關(guān)鍵因素。

        1.2 目標(biāo)3D模型未知

        針對目標(biāo)3D模型未知的情況,需完全利用圖像信息實(shí)現(xiàn)目標(biāo)模型參數(shù)與位姿參數(shù)的求解。已有相關(guān)方法可歸為兩類:

        (1) 利用序列圖像(或立體視覺)對目標(biāo)進(jìn)行重建,依據(jù)重建目標(biāo)模型,采用絕對定向方法求解目標(biāo)位姿參數(shù),并利用光束平差方法對結(jié)果進(jìn)行優(yōu)化。

        (2) 將目標(biāo)模型參數(shù)與位姿參數(shù)的估計(jì)轉(zhuǎn)化為機(jī)器人領(lǐng)域中經(jīng)典的視覺SLAM(simultaneous localization and mapping)問題[34]進(jìn)行考慮。已有求解方法主要有基于貝葉斯濾波器的方法[35]及基于非線性優(yōu)化的方法[36]兩類。文獻(xiàn)[37]基于特征點(diǎn),在FastSLAM[36]框架下同時(shí)求解目標(biāo)模型參數(shù)及位姿參數(shù)。

        針對模型未知情況下的目標(biāo)位姿估計(jì)問題,當(dāng)前已公開發(fā)表的研究工作相對較少,且已有工作大多基于特征點(diǎn)的思路,對紋理分布、光照變化及噪聲等干擾因素的魯棒性較差。

        2 基于目標(biāo)3D模型的同時(shí)位姿跟蹤與模型修正方法

        開展基于目標(biāo)3D模型的位姿跟蹤研究,分別針對目標(biāo)3D模型精確已知、不準(zhǔn)確及未知的情況提出位姿跟蹤與模型修正方法。

        2.1 基于目標(biāo)3D直線模型的位姿跟蹤算法

        在目標(biāo)3D直線模型已知的情況下,提出基于目標(biāo)3D直線模型的位姿跟蹤方法,包含基于直線間積分距離度量的位姿跟蹤方法及基于多假設(shè)直線對應(yīng)的位姿跟蹤方法。

        2.1.1 基于直線間積分距離度量的位姿跟蹤方法

        端點(diǎn)距離導(dǎo)出的直線間相似性度量對直線間斷、誤差及觀測距離等干擾的穩(wěn)健性較差,影響位姿參數(shù)的估計(jì)精度。對此,本節(jié)提出基于積分距離的直線相似性度量[18]

        (1)

        (2)

        (3)

        仿真試驗(yàn)?zāi)M衛(wèi)星位姿跟蹤,虛擬相機(jī)參數(shù)(fx=fy=1 814.8,分辨率640×640,cx=320,cy=320,無像差)。衛(wèi)星目標(biāo)模型參數(shù)(主立方體尺寸為1000×1000×1000 mm3,太陽能帆板2860×0×557 mm3)。設(shè)定目標(biāo)旋轉(zhuǎn)靠近,沿光軸方向的運(yùn)動距離為50 m到20 m,采樣間隔0.1 s,共得到450幀圖像數(shù)據(jù),本節(jié)方法實(shí)現(xiàn)全程穩(wěn)定跟蹤,垂直于光軸方向上位置誤差約0.4 mm,沿光軸方向誤差約為10 mm,x、y方向上的角度誤差約為0.04°,z方向上的角度誤差約為0.01°。采用實(shí)驗(yàn)室真實(shí)場景獲取的圖像數(shù)據(jù)對算法進(jìn)行測試,圖1給出部分實(shí)物位姿跟蹤試驗(yàn)輪廓投影疊加結(jié)果,可見本節(jié)算法實(shí)現(xiàn)了有效跟蹤。

        圖1 基于直線間積分距離度量的位姿跟蹤實(shí)物試驗(yàn)Fig.1 Experiment results of integral distance between lines based pose tracking

        相比于基于端點(diǎn)距離的方法,基于積分距離的直線相似性度量對直線段間斷、觀測距離等穩(wěn)健性更好,對位姿參數(shù)跟蹤的精度更高。

        2.1.2 基于多假設(shè)直線對應(yīng)的位姿跟蹤方法

        基于模型圖像直線對應(yīng)的位姿跟蹤方法需先在圖像中檢測直線,進(jìn)而建立模型圖像直線對應(yīng)。在雜亂背景干擾或特殊觀測條件等不易建立直線對應(yīng)的情況下,位姿估計(jì)的性能將受到影響。對此,本節(jié)提出基于多假設(shè)直線對應(yīng)的位姿跟蹤方法[20],為每條模型直線保留多條圖像直線對應(yīng),在加權(quán)最小二乘框架下,通過最小化法向距離實(shí)現(xiàn)位姿參數(shù)的優(yōu)化。

        為適應(yīng)邊緣檢測中野值點(diǎn)、圖像畸變、噪聲等因素的影響,采用加權(quán)最小二乘方法優(yōu)化位姿參數(shù),權(quán)值由兩部分組成:直線約束權(quán)值wl(包含擬合誤差、直線間距離與夾角)及采樣點(diǎn)約束權(quán)值wp(包含法向距離、梯度模值與法向)?;诖耍捎玫訖?quán)最小二乘方法,通過優(yōu)化模型直線采樣點(diǎn)到圖像點(diǎn)的距離,求解目標(biāo)位姿參數(shù)μ,如下式所示

        (4)

        (5)

        W為權(quán)值矩陣。

        仿真試驗(yàn)同基于模型圖像直線對應(yīng)的位姿跟蹤方法中設(shè)置。本節(jié)方法實(shí)現(xiàn)全程穩(wěn)定跟蹤,垂直于光軸方向上誤差約8 mm,沿光軸方向誤差約為70 mm,x、y、z方向上的角度誤差分別約為0.5°、0.7°及0.1°。相比于基于模型圖像直線對應(yīng)的位姿跟蹤方法,本節(jié)算法精度稍差,主要原因是沿法向搜索得到的候選點(diǎn)集為單像素精度。圖2給出部分實(shí)物位姿跟蹤試驗(yàn)輪廓重投影疊加結(jié)果,可見本節(jié)算法在復(fù)雜光照、雜亂背景等情況下都給出了可靠的位姿跟蹤結(jié)果。

        圖2 基于多假設(shè)直線對應(yīng)的位姿跟蹤實(shí)物試驗(yàn)Fig.2 Experiment results of multi-assumption line correspondence based pose tracking

        基于多假設(shè)直線對應(yīng)的位姿跟蹤方法能夠有效適應(yīng)復(fù)雜光照、雜亂背景、特殊視圖條件下直線對應(yīng)錯(cuò)誤等情況,表現(xiàn)出了較強(qiáng)的魯棒性。

        2.2 基于目標(biāo)3D邊緣輪廓模型的位姿跟蹤方法

        為處理更為一般的目標(biāo),本節(jié)利用目標(biāo)的輪廓特征,提出法向距離迭代加權(quán)最小二乘位姿跟蹤方法及距離圖迭代最小二乘位姿跟蹤方法。

        2.2.1 法向距離迭代加權(quán)最小二乘位姿跟蹤方法

        法向距離迭代加權(quán)最小二乘位姿跟蹤方法[36]通過沿采樣點(diǎn)法向一維搜索確定匹配點(diǎn),采用最小二乘方法迭代尋找一個(gè)位姿參數(shù)修正量,使得位姿修正后邊緣輪廓與圖像中輪廓重合。

        (6)

        式中,μ′為位姿參數(shù)修正量;Je為描述圖像運(yùn)動與空間運(yùn)動之間的雅克比矩陣。

        為提升方法對雜亂背景、復(fù)雜紋理、噪聲等因素的穩(wěn)健性,引入穩(wěn)健估計(jì)ρ(·)及加權(quán)策略,針對每一采樣點(diǎn)綜合考慮法向距離加權(quán)w1、候選點(diǎn)數(shù)目加權(quán)w2、邊緣強(qiáng)度加權(quán)w3及圖像位姿加權(quán)w4,最終權(quán)值w=w1w2w3w4,則式(6)可改寫為

        (7)

        通過迭代求解上述加權(quán)最小二乘問題得到位姿參數(shù)的優(yōu)化結(jié)果。

        仿真試驗(yàn)?zāi)M衛(wèi)星位姿跟蹤,虛擬相機(jī)參數(shù)(fx=fy=4 434.33,分辨率764×574,cx=382,cy=287,無像差)。衛(wèi)星目標(biāo)模型參數(shù)(主立方體尺寸為1000×1000×1000 mm3,太陽能帆板2000×0.5×400 mm3)。設(shè)定目標(biāo)運(yùn)動從(0,0,30 000,10,30,40)(Tx(mm),Ty,Tz,Ax(°),Ay,Az)以速率(0,0,-300,0,0,-1)勻速運(yùn)動到(0,0,12 900,10,30,-17),共采集58幀圖像,本節(jié)方法實(shí)現(xiàn)全程穩(wěn)定跟蹤,垂直于光軸方向上誤差約6 mm,沿光軸方向誤差約為340 mm,x、y、z方向上的角度誤差約為1°。圖3給出部分實(shí)物位姿跟蹤試驗(yàn)輪廓重投影疊加結(jié)果,可見本節(jié)算法給出了正確的位姿跟蹤結(jié)果。

        圖3 法向距離迭代加權(quán)最小二乘位姿跟蹤實(shí)物試驗(yàn)Fig.3 Experiment results of normal distance iterative reweighted least squares based pose tracking

        2.2.2 距離圖迭代最小二乘位姿跟蹤方法

        基于Chamfer匹配思想,本節(jié)提出距離圖迭代最小二乘位姿跟蹤方法[38],通過最小二乘方法迭代修正位姿參數(shù),使得模型投影輪廓在距離圖中的取值達(dá)到最小。

        采用Sobel算法對圖像進(jìn)行邊緣檢測得到邊緣圖I,距離圖DI定義如(8),每個(gè)像素點(diǎn)x的灰度值為其到最近邊緣點(diǎn)的歐氏距離,

        (8)

        DI(pi)+(DIx(pi),DIy(pi))Je(pi)μ′

        (9)

        DIx(pi)及DIy(pi)分別為DI在pi處x及y方向上的差分,綜合式(8)及式(9),并引入穩(wěn)健估計(jì),可得如下最小二乘問題

        (DIx(pi),DIy(pi))Je(pi)μ′)2)

        (10)

        迭代求解上述最小二乘問題得到位姿參數(shù)的優(yōu)化結(jié)果。

        仿真試驗(yàn)中以月球著陸器為對象,模擬著陸過程。著陸器主體結(jié)構(gòu)尺寸約為2×3×3 m3,虛擬相機(jī)參數(shù)(fx=fy=10 000,分辨率1024×1024,cx=512,cy=512,無像差),著陸器下落的過程,目標(biāo)由位姿初始位姿(0,0,53.9,0,0,1)(Tx(m),Ty,Tz,Ax(°),Ay,Az),以(0,0,-0.1,0,0,1)的速度運(yùn)動到(0,0,48.9,0,0,51),采集到51幀圖像,本節(jié)方法實(shí)現(xiàn)全程穩(wěn)定跟蹤,垂直于光軸方向上誤差約為0.8 m,沿光軸方向上誤差約為1 m,x、y方向上的角度誤差約為0.7°,z方向上的角度誤差約為0.3°。采用蘭利發(fā)布的多段實(shí)物試驗(yàn)視頻對算法進(jìn)行測試,圖4給出兩段視頻中的部分輪廓投影疊加結(jié)果,本節(jié)方法對著陸器實(shí)現(xiàn)了穩(wěn)定跟蹤。

        圖4 距離圖迭代最小二乘位姿跟蹤實(shí)物試驗(yàn)Fig.4 Experiment results of distance image iterative least squares based pose tracking

        本節(jié)描述的兩種位姿估計(jì)方法基于目標(biāo)邊緣輪廓特征,使得對于一般目標(biāo)的位姿估計(jì)成為可能,并在處理過程中引入加權(quán)、穩(wěn)健估計(jì)等策略,使得算法對光照變化、復(fù)雜背景、紋理等干擾具有較高穩(wěn)健性。與2.1節(jié)中描述的基于直線特征的方法相比,本節(jié)方法僅基于單像素精度的匹配點(diǎn)對實(shí)現(xiàn)位姿解算,因此算法精度稍差。

        2.3 基于目標(biāo)3D直線模型的同時(shí)位姿跟蹤與模型修正方法

        本節(jié)針對目標(biāo)3D直線模型參數(shù)不準(zhǔn)確的情況,結(jié)合光束法平差的思想,同時(shí)優(yōu)化求解位姿參數(shù)及直線模型參數(shù),提出針對序列圖像的基于目標(biāo)3D直線模型的位姿跟蹤與模型修正方法。

        (11)

        (12)

        式(11)中待優(yōu)化參數(shù)共有4M+6N個(gè),每條圖像直線提供2個(gè)約束,N幀圖像中共可提供2MN個(gè)約束,為完成優(yōu)化求解,M及N需滿足2MN≥4M+6N。

        采用衛(wèi)星仿真圖像序列對算法進(jìn)行測試,仿真參數(shù)設(shè)置同2.1節(jié),衛(wèi)星模型包含24條直線,試驗(yàn)中,在模型直線參數(shù)中加入隨機(jī)誤差,其中位置誤差水平為30 mm,方向誤差水平為1°,圖像序列長度為36幀,重復(fù)100次試驗(yàn)。統(tǒng)計(jì)試驗(yàn)結(jié)果,模型直線朝向誤差約為0.3°,位置誤差約為3.5 mm;目標(biāo)位姿平均角度誤差[20]為0.12°,平均位置誤差[18]為20.1 mm。另外,模型直線參數(shù)修正精度及位姿參數(shù)求解精度隨著參與優(yōu)化視圖數(shù)的增加而提升。

        2.4 基于序列圖像直線對應(yīng)的目標(biāo)結(jié)構(gòu)重建與位姿跟蹤方法

        針對目標(biāo)3D直線模型完全未知的情況,本節(jié)利用序列圖像信息,在SFM框架下實(shí)現(xiàn)目標(biāo)直線模型的重建與位姿參數(shù)的求解[20]。

        式(11)描述的優(yōu)化問題具有較多參數(shù),直接進(jìn)行優(yōu)化求解,若初值設(shè)置不當(dāng)會造成算法不收斂。對此,本節(jié)對式(11)求解前先對部分變量進(jìn)行優(yōu)化求解:

        (13)

        (14)

        (15)

        采用仿真圖像序列測試算法性能,同2.1節(jié)中仿真試驗(yàn)設(shè)置,模型直線參數(shù)完全未知,本節(jié)算法僅基于圖像序列完成目標(biāo)直線模型重建與位姿跟蹤。采用LSD[39]算法完成直線特征的提取,相關(guān)參數(shù)采用文獻(xiàn)[37]推薦的設(shè)置(scale=0.8,sigma_scale=0.6,quant=2,ang_th=22.5,n_bins=1024,density_th=0.7)。完成在序列長度為36幀情況下,對多次試驗(yàn)結(jié)果統(tǒng)計(jì)得模型直線朝向及位置誤差約為0.4°及7.5 mm;目標(biāo)位姿平均角度及平均位置誤差約為0.16°及23.5 mm。另外,選取一段真實(shí)場景拍攝的圖像序列,對其中未知模型參數(shù)的紙盒目標(biāo)進(jìn)行結(jié)構(gòu)重建與位姿跟蹤,相機(jī)內(nèi)參數(shù)已事先標(biāo)定。圖5(a)給出同名直線匹配結(jié)果示例,圖5(b)給出目標(biāo)結(jié)構(gòu)重建與位姿跟蹤結(jié)果的可視化顯示。本節(jié)方法準(zhǔn)確重建了目標(biāo)結(jié)構(gòu),并給出了準(zhǔn)確、穩(wěn)定的位姿跟蹤結(jié)果。

        3 結(jié) 論

        本文引入機(jī)器視覺領(lǐng)域的研究成果,對三維數(shù)字?jǐn)z影測量智能構(gòu)象基礎(chǔ)工作之一——基于目標(biāo)3D模型的位姿跟蹤及模型修正問題進(jìn)行研究。文中對已有相關(guān)工作進(jìn)行了較為系統(tǒng)地總結(jié),分別針對目標(biāo)3D模型精確已知、不準(zhǔn)確及完全未知的情況下目標(biāo)位姿跟蹤及模型修正問題,依據(jù)目標(biāo)直線、邊緣輪廓特征,提出系列處理方法,形成了較為系統(tǒng)、完整的解決方案。

        圖5 目標(biāo)結(jié)構(gòu)重建與位姿跟蹤試驗(yàn)結(jié)果Fig.5 Experiment results of model reconstruction and pose tracking

        在目標(biāo)3D模型精確已知的情況下,基于直線特征的方法在精度方面優(yōu)于基于一般輪廓特征的方法,其中基于直線間積分距離度量的位姿估計(jì)方法在仿真試驗(yàn)條件下,在垂直與沿光軸方向上位置誤差分別約為0.4 mm及10 mm,x、y及z方向上的角度誤差分別約為0.4°、0.4°及0.1°;但是,基于多假設(shè)直線對應(yīng)的方法對復(fù)雜光照、雜亂背景等干擾表現(xiàn)出更強(qiáng)的穩(wěn)健性,基于一般輪廓特征的方法能夠處理結(jié)構(gòu)更為一般的目標(biāo);大量實(shí)際場景數(shù)據(jù)試驗(yàn)驗(yàn)證了相關(guān)方法能夠?qū)崿F(xiàn)穩(wěn)定、可靠的位姿跟蹤。針對目標(biāo)3D直線模型不準(zhǔn)確的情況,提出同時(shí)優(yōu)化求解模型參數(shù)及位姿參數(shù)方法,統(tǒng)計(jì)多次仿真試驗(yàn)結(jié)果,模型直線朝向及位置誤差分別約為0.3°及3.5 mm,目標(biāo)位姿參數(shù)平均角度誤差及平均位置誤差分別約為0.12°及20.1 mm,本文方法實(shí)現(xiàn)了可靠跟蹤并有效修正了模型參數(shù)。對于目標(biāo)3D模型完全未知的情況,本文提出基于序列圖像直線對應(yīng)的目標(biāo)重建與位姿跟蹤方法,仿真及實(shí)際場景數(shù)據(jù)試驗(yàn)驗(yàn)證了方法能夠準(zhǔn)確重建目標(biāo)直線模型并實(shí)現(xiàn)可靠位姿跟蹤,在多次仿真試驗(yàn)中,重建模型直線朝向及位置誤差分別約為0.4°及7.5 mm,位姿參數(shù)平均角度及平均位置誤差約為0.16°及23.5 mm。

        針對進(jìn)一步的研究工作,可在以下方面進(jìn)行著重考慮:多特征融合,在同一的框架下合理、綜合利用可獲取的多種特征,形成互補(bǔ),提升算法性能。深度學(xué)習(xí),可充分挖掘深度學(xué)習(xí)特征的強(qiáng)大表征能力,用于2D-3D對應(yīng)的建立;或直接建立端到端的機(jī)制,直接由2D圖像得到3D位姿參數(shù)估計(jì)結(jié)果;深度學(xué)習(xí)是數(shù)據(jù)驅(qū)動的技術(shù),為克服訓(xùn)練數(shù)據(jù)制備的難題,可探索利用目標(biāo)3D模型仿真構(gòu)建訓(xùn)練樣本。

        參考文獻(xiàn):

        [1] 于起峰, 尚洋. 攝像測量學(xué)原理與應(yīng)用研究[M]. 北京: 科學(xué)出版社, 2009.

        YU Qifeng, SHANG Yang. Videometrics: Principles and Researches[M]. Beijing: Science Press, 2009.

        [2] 尚洋. 基于視覺的空間目標(biāo)位置姿態(tài)測量方法研究[D]. 長沙: 國防科技大學(xué), 2006.

        SHANG Yang. Researches on Vision-based Pose Measurements for Space Target[D]. Changsha: National University of Defense Technology, 2006.

        [3] LOWE D G. Distinctive Image Features from Scale-invariant Keypoints[J]. International Journal of Computer Vision, 2004, 60(2): 91-110.

        [4] RUBLEE E, RABAUD V, KONOLIGE K, et al. ORB: An Efficient Alternative to SIFT or SURF[C]∥IEEE International Conference on Computer Vision. Barcelona, Spain: IEEE, 2011: 2564-2571.

        [5] FISCHLER M A, BOLLES R C. Random Sample Consensus: A Paradigm for Model Fitting with Applications to Image Analysis and Automated Cartography[J]. Communications of the ACM, 1981, 24(6): 381-395.

        [6] DEMENTHON D F, DAVIS L S. Model-based Object Pose in 25 Lines of Code[J]. International Journal of Computer Vision, 1995, 15(1-2): 123-141.

        [7] LU C P, HAGER G D, MJOLSNESS E. Fast and Globally Convergent Pose Estimation from Video Images[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2000, 22(6): 610-622.

        [8] DHOME M, RICHETIN M, LAPRESTé J T, et al. Determination of the Attitude of 3D Objects from a Single Perspective View[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1989, 11(12): 1265-1278.

        [9] CHEN H H. Pose Determination from Line-to-plane Correspondences: Existence Condition and Closed-form Solutions[C]∥IEEE Third International Conference on Computer Vision. Osaka, Japan, Japan: IEEE, 1990: 374-378.

        [10] ZHANG Lilian, XU Chi, LEE K M, et al. Robust and Efficient Pose Estimation from Line Correspondences[M]∥LEE K M, MATSUSHITA Y, REHG J M, et al. Computer Vision-ACCV 2012. Berlin, Heidelberg: Springer, 2012: 217-230.

        [11] 李鑫, 張躍強(qiáng), 劉進(jìn)博, 等. 基于直線段對應(yīng)的相機(jī)位姿估計(jì)直接最小二乘法[J]. 光學(xué)學(xué)報(bào), 2015, 35(6): 615003.

        LI Xin, ZHANG Yueqiang, LIU Jinbo, et al. A Direct Least Squares Method for Camera Pose Estimation Based on Straight Line Segment Correspondences[J]. Acta Optica Sinica, 2015, 35(6): 615003.

        [12] LIU Y, HUANG T S, FAUGERAS O D. Determination of Camera Location from 2D to 3D Line and Point Correspondences[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1990, 12(1): 28-37.

        [13] CHRISTY S, HORAUD R. Iterative Pose Computation from Line Correspondences[J]. Computer Vision and Image Understanding, 1999, 73(1): 137-144.

        [14] DAVID P, DEMENTHON D, DURAISWAMI R, et al. Simultaneous Pose and Correspondence Determination Using Line Features[C]∥IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Madison, WI: IEEE, 2003: 424-431.

        [15] 王競雪, 宋偉東, 王偉璽. 同名點(diǎn)及高程平面約束的航空影像直線匹配算法[J]. 測繪學(xué)報(bào), 2016, 45(1): 87-95. DOI: 10.11947/j.AGCS.2016.20140527.

        WANG Jingxue, SONG Weidong, WANG Weixi. Line Matching Algorithm for Aerial Image Based on Corresponding Points and Z-plane Constraints[J]. Acta Geodaetica et Cartographica Sinica, 2016, 45(1): 87-95. DOI: 10.11947/j.AGCS.2016.20140527.

        [16] 曹金山, 龔健雅, 袁修孝. 直線特征約束的高分辨率衛(wèi)星影像區(qū)域網(wǎng)平差方法[J]. 測繪學(xué)報(bào), 2015, 44(10): 1100-1107. DOI: 10.11947/j.AGCS.2015.20150023.

        CAO Jinshan, GONG Jianya, YUAN Xiuxiao. A Block Adjustment Method of High-resolution Satellite Imagery with Straight Line Constraints[J]. Acta Geodaetica et Cartographica Sinica, 2015, 44(10): 1100-1107. DOI: 10.11947/j.AGCS.2015.20150023.

        [17] HARRIS C, STENNETT C. RAPID-A Video Rate Object Tracker[C]∥Proceedings of the British Machine Vision Conference. [s.l.]: BMVA Press, 1990: 73-78.

        [18] COMPORT A I, MARCHAND E, PRESSIGOUT M, et al. Real-time Markerless Tracking for Augmented Reality: the Virtual Visual Servoing Framework[J]. IEEE Transactions on Visualization and Computer Graphics, 2006, 12(4): 615-628.

        [19] COMPORT A I, KRAGIC D, MARCHAND E, et al. Robust Real-time Visual Tracking: Comparison, Theoretical Analysis and Performance Evaluation[C]∥IEEE International Conference on Robotics and Automation. Barcelona, Spain: IEEE, 2005: 2841-2846.

        [20] 張躍強(qiáng). 基于直線特征的空間非合作目標(biāo)位姿視覺測量方法研究[D]. 長沙: 國防科技大學(xué), 2016.

        ZHANG Yueqiang. Research on Vision Based Pose Measurement Methods for Space Uncooperative Objects Using Line Features[D]. Changsha: National University of Defense Technology, 2006.

        [21] CHOI C, Christensen H I. Real-Time 3D Model-based Tracking Using Edge and Keypoint Features for Robotic Manipulation[C]∥IEEE International Conference on Robotics and Automation. Anchorage, AK: IEEE, 2010: 4048-4055.

        [22] BROX T, ROSENHAHN B, GALL J, et al. Combined Region and Motion-Based 3D Tracking of Rigid and Articulated Objects[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2010, 32(3): 402-415.

        [23] DRUMMOND T, CIPOLLA R. Real-time Tracking of Complex Structures with On-line Camera Calibration[C]∥Proceedings of British Machine Vision Conference. Nottingham: BMVC, 1999: 574-583.

        [24] ARMSTRONG M, ZISSERMAN A. Robust Object Tracking[C]∥Proceedings of Second Asian Conference on Computer Vision. Singapore: [s.n.], 1995: 58-62.

        [25] YOON Y, KOSAKA A, KAK A C. A New Kalman-filter-based Framework for Fast and Accurate Visual Tracking of Rigid Objects[J]. IEEE Transactions on Robotics, 2008, 24(5): 1238-1251.

        [26] CHOI C, CHRISTENSEN H I. Robust 3D Visual Tracking Using Particle Filtering on the SE(3) Group[C]∥IEEE International Conference on Robotics and Automation. Shanghai, China: IEEE, 2011: 4384-4390.

        [27] MUNDY J L. Object Recognition in the Geometric Era: A Retrospective[M]∥PONCE J, HEBERT M, SCHMID C, et al. Toward Category-level Object Recognition. Berlin, Heidelberg: Springer, 2010: 3-28.

        [28] LIM J J, PIRSIAVASH H, TORRALBA A. Parsing IKEA Objects: Fine Pose Estimation[C]∥IEEE International Conference on Computer Vision. Sydney, NSW, Australia: IEEE, 2014: 2992-2999.

        [29] CHOY C B, STARK M, CORBETT-DAVIES S, et al. Enriching Object Detection with 2D-3D Registration and Continuous Viewpoint Estimation[C]∥IEEE Conference on Computer Vision and Pattern Recognition. Boston, MA: IEEE, 2015: 2512-2520.

        [30] FIDLER S, DICKINSON S J, URTASUN R. 3D Object Detection and Viewpoint Estimation with a Deformable 3D Cuboid Model[C]∥International Conference on Neural Information Processing Systems. Lake Tahoe, Nevada: ACM, 2012: 611-619.

        [31] MOTTAGHI R, XIANG Yu, SAVARESE S. A Coarse-to-fine Model for 3D Pose Estimation and Sub-Category Recognition[C]∥IEEE Conference on Computer Vision and Pattern Recognition. Boston, MA: IEEE, 2015: 418-426.

        [32] WOHLHART P, LEPETIT V. Learning Descriptors for Object Recognition and 3D Pose Estimation[C]∥IEEE Conference on Computer Vision and Pattern Recognition. Boston, MA: IEEE, 2015: 3109-3118.

        [33] CRIVELLARO A, RAD M, VERDIE Y, et al. A Novel Representation of Parts for Accurate 3D Object Detection and Tracking in Monocular Images[C]∥IEEE International Conference on Computer Vision. Santiago, Chile: IEEE, 2015: 4391-4399.

        [34] DISSANAYAKE M W M G, NEWMAN P, CLARK S, et al. A Solution to the Simultaneous Localization and Map Building (Slam) Problem[J]. IEEE Transactions on Robotics and Automation, 2001, 17(3): 229-241.

        [35] DAVISON A J, REID I D, MOLTON N D, et al. MonoSLAM: Real-time Single Camera SLAM[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2007, 29(6): 1052-1067.

        [36] KONOLIGE K, AGRAWAL M. FrameSLAM: From Bundle Adjustment to Real-time Visual Mapping[J]. IEEE Transactions on Robotics, 2008, 24(5): 1066-1077.

        [37] AUGENSTEIN S. Monocular Pose and Shape Estimation of Moving Targets, for Autonomous Rendezvous and Docking[D]. Stanford, CA: Stanford University, 2011.

        [38] 李由. 基于輪廓和邊緣的空間非合作目標(biāo)視覺跟蹤[D]. 長沙: 國防科技大學(xué), 2013.

        LI You. Contour and Edge-based Visual Tracking of Non-cooperative Space Targets[D]. Changsha: National University of Defense Technology, 2013.

        [39] VON GIOI R G, JAKUBOWICZ J, MOREL J M, et al. LSD: A Fast Line Segment Detector with a False Detection Control[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2010, 32(4): 722-732.

        猜你喜歡
        位姿直線誤差
        角接觸球軸承接觸角誤差控制
        哈爾濱軸承(2020年2期)2020-11-06 09:22:26
        Beidou, le système de navigation par satellite compatible et interopérable
        壓力容器制造誤差探究
        畫直線
        兩條直線 變變變
        畫直線
        基于共面直線迭代加權(quán)最小二乘的相機(jī)位姿估計(jì)
        基于CAD模型的單目六自由度位姿測量
        九十億分之一的“生死”誤差
        山東青年(2016年2期)2016-02-28 14:25:41
        小型四旋翼飛行器位姿建模及其仿真
        国产视频一区二区三区久久亚洲| 丁香五月缴情综合网| 男人的天堂在线无码视频| 日本最新在线一区二区| 一区二区高清视频在线观看| 在线观看国产一区二区av | 精品综合久久久久久97超人| 久草热这里只有精品在线| 青青草视频免费在线播放| 国产成人精品无码片区在线观看| 日韩精品久久无码中文字幕| 天天躁日日躁狠狠躁av中文| 欧美日韩亚洲国产无线码| av在线免费观看麻豆| 又紧又大又爽精品一区二区| 国产av国片精品| 欧洲一级无码AV毛片免费| 加勒比日韩视频在线观看| 精品国内在视频线2019| 久久精品国产四虎| 免费啪啪av人妻一区二区| 精品亚洲国产成人av色哟哟| 永久免费看啪啪网址入口| 国产亚洲精品福利在线| 中文字幕东京热一区二区人妻少妇| 丰满少妇弄高潮了www| 亚洲丁香五月激情综合| 国产美女自拍国语对白| 国产不卡在线视频观看| 国产精品9999久久久久| 草草影院国产| 日本一区二区三区清视频| 亚洲国产精品18久久久久久| 久久精品国产亚洲av大全| 国产精品亚洲ΑV天堂无码| 国产三级不卡视频在线观看| 国产精品永久久久久久久久久| 亚洲巨乳自拍在线视频| 日韩精品一区二区三区中文9| 精品人妻久久一区二区三区| 污污内射在线观看一区二区少妇|