馬龍,孫銘澤,黃超,裴昕,周航,張鴻燕
中國(guó)民航大學(xué)中歐航空工程師學(xué)院,天津300300
基于強(qiáng)相似點(diǎn)檢測(cè)快速雙目立體匹配算法
馬龍,孫銘澤,黃超,裴昕,周航,張鴻燕
中國(guó)民航大學(xué)中歐航空工程師學(xué)院,天津300300
近年來(lái)實(shí)時(shí)準(zhǔn)確地獲取移動(dòng)機(jī)器人工作空間的三維信息成為機(jī)器人視覺(jué)導(dǎo)航、障礙物檢測(cè)與環(huán)境地圖構(gòu)建中的一個(gè)研究熱點(diǎn),其匹配速度對(duì)于視覺(jué)導(dǎo)航,特別是在障礙物檢測(cè)技術(shù)的實(shí)際應(yīng)用中起著重要的作用[1]。
立體匹配作為計(jì)算機(jī)視覺(jué)的一個(gè)重要方向,是通過(guò)多視點(diǎn)圖像還原出物體深度信息的主要手段[2]。目前,根據(jù)匹配不同的基元,立體匹配主要分為特征點(diǎn)匹配與區(qū)域特征匹配[3]。兩者各具優(yōu)勢(shì)與不足。其中Andrej Satnik等人[4]通過(guò)將不同特征描述方法進(jìn)行比對(duì),并優(yōu)化了立體匹配方法,但基于特征點(diǎn)的立體匹配方法仍然難以得到稠密的視差圖[5]。而根據(jù)文獻(xiàn)[6],基于基元的立體匹配方法根據(jù)最優(yōu)化理論方法的不同,分為全局與局部立體匹配方法。全局匹配方法是指通過(guò)構(gòu)造全局能量函數(shù),并通過(guò)該函數(shù)得到全局最優(yōu)解的方法得到最優(yōu)視差,其包括圖割(graph cuts)[7]、信念傳播(belief propagation)[8]等。雖然全局方法能夠得到精度很好的結(jié)果,但受限于復(fù)雜的建模過(guò)程,需要大量計(jì)算時(shí)間,即使較快的情況下也需要幾十秒的計(jì)算時(shí)間。從文獻(xiàn)[9]可以看出,雖然近年來(lái)全局方法得到進(jìn)一步發(fā)展,但其速度仍然難以滿(mǎn)足實(shí)時(shí)性要求。局部匹配方法[10]通過(guò)采用固定形狀和大小的支撐窗口計(jì)算匹配代價(jià),再將其聚合得到視差,根據(jù)不同的匹配代價(jià)函數(shù),其包括灰度匹配灰度絕對(duì)值和(Sum of Absolute Differences)[11]、灰度平方差和(Sum of squared Differences)[12]、自適應(yīng)權(quán)重(Adapt Weight)[10]與歸一化互相關(guān)(Normalized Cross Correlation)[13]等局部方法。雖然相比于全局方法在精度上有所犧牲,但是在速度上卻有較大提高。由于SAD代價(jià)函數(shù)計(jì)算簡(jiǎn)單,近年來(lái)在機(jī)器人導(dǎo)航、障礙物檢測(cè)等實(shí)時(shí)立體匹配的領(lǐng)域內(nèi)得到了廣泛應(yīng)用[14]。
基于以上問(wèn)題,本文提出了一種基于強(qiáng)相似點(diǎn)的快速雙目立體匹配算法。首先對(duì)采集圖像進(jìn)行對(duì)極化處理;其次,將圖像進(jìn)行灰度轉(zhuǎn)化,并選取與待匹配點(diǎn)相似高的點(diǎn)作為強(qiáng)相似點(diǎn),在強(qiáng)相似點(diǎn)的集合內(nèi)計(jì)算最優(yōu)視差;最后將得到整個(gè)視差圖進(jìn)行視差修正與濾波,保證視差的精度,得到最終視差。利用標(biāo)準(zhǔn)數(shù)據(jù)集與實(shí)際室內(nèi)場(chǎng)景進(jìn)行了實(shí)驗(yàn)驗(yàn)證,驗(yàn)證了本文算法的有效性。
如圖1所示,雙目立體視覺(jué)成像的模型一般為兩個(gè)并排放置的攝像頭。其中Ol與Or分別為左右相機(jī)光心,兩個(gè)光心之間距離為T(mén),P為真實(shí)空間中一點(diǎn),它成像在左右兩相機(jī)的坐標(biāo)分別為Pl(xl,yl)和Pr(xr,yr)。
圖1 雙目視覺(jué)模型
若兩相機(jī)嚴(yán)格水平并排放置,則目標(biāo)的深度與在兩圖像上的視差成反比,視差定義為d=xl-xr。根據(jù)三角相似原理,深度為:
然而實(shí)際情況下兩相機(jī)很難做到嚴(yán)格平行放置,所以需要在進(jìn)行立體匹配前對(duì)圖像進(jìn)行極線(xiàn)校正,進(jìn)行極線(xiàn)校正之后的圖像不但易于計(jì)算目標(biāo)深度,還減少了立體匹配的計(jì)算量,提高了系統(tǒng)速度。圖片校正后結(jié)果如圖2。
圖2 極線(xiàn)校正結(jié)果
從圖2中可以看出,經(jīng)過(guò)極線(xiàn)校正后,左圖像上任一點(diǎn)在右圖像上的匹配點(diǎn)一定在同一條水平線(xiàn)上。除此之外,校正會(huì)將相機(jī)畸變的影響進(jìn)行消除,從而造成了如左圖上方的黑區(qū)出現(xiàn)。
在許多研究中,關(guān)于基于特征點(diǎn)的視差求解一直難以得出稠密視差,而基于局部窗口的求解方式需要在整個(gè)搜索空間上進(jìn)行計(jì)算,導(dǎo)致計(jì)算量較大[10]。強(qiáng)相似點(diǎn)指的是與待匹配點(diǎn)相似度強(qiáng)的點(diǎn),并且在該待匹配點(diǎn)對(duì)應(yīng)的視差搜索空間內(nèi)。為了進(jìn)一步加快速度,本文直接通過(guò)待匹配點(diǎn)與其對(duì)應(yīng)視差搜索范圍內(nèi)的點(diǎn)的灰度值差的絕對(duì)值作為相似度評(píng)價(jià)函數(shù)。當(dāng)兩點(diǎn)灰度值小于閾值時(shí),即定義為強(qiáng)相似點(diǎn)。如式(2)所示,其中fL(x,y)與fR(x,y)分別表示點(diǎn)(x,y)在左右圖的灰度值,δ表示設(shè)定閾值。
若在該點(diǎn)對(duì)應(yīng)的匹配區(qū)域內(nèi)不存在強(qiáng)相似點(diǎn),則以每次增加定量增大閾值δ,直至出現(xiàn)強(qiáng)相似點(diǎn)或者到達(dá)迭代上限。其中最大迭代次數(shù)為5次,定量增量為初始閾值的20%。隨著增量幅度的增大,強(qiáng)相似點(diǎn)與原點(diǎn)的相似度越低,會(huì)導(dǎo)致匹配效果下降,但與此同時(shí)由于能夠提取到更多的強(qiáng)相似點(diǎn)因而能夠減少立體匹配中相似度函數(shù)的計(jì)算量,減少運(yùn)算時(shí)間。若到達(dá)最大迭代次數(shù)依然沒(méi)能出現(xiàn)強(qiáng)相似點(diǎn),則將所有在匹配區(qū)域內(nèi)的點(diǎn)都作為該點(diǎn)的強(qiáng)相似點(diǎn),也就是正常計(jì)算所得待匹配的點(diǎn)。與傳統(tǒng)的特征點(diǎn)不同,強(qiáng)相似點(diǎn)的計(jì)算更加簡(jiǎn)單,而且計(jì)算區(qū)域也明顯小于特征點(diǎn)提取。因此與特征點(diǎn)提取相比,其計(jì)算量更小,且計(jì)算速度更快。
雖然在不同場(chǎng)景情況下光照強(qiáng)度不同,但是由于雙目相機(jī)間距較小,左右相機(jī)采集圖像差異較小,導(dǎo)致不同場(chǎng)景下對(duì)選取相同閾值的匹配效果影響有限。同時(shí)閾值的選取更多是考慮到匹配的效果與速度,并通過(guò)實(shí)驗(yàn)結(jié)果與分析,閾值取10的情況能夠在不同場(chǎng)景下均具有較好的適應(yīng)性。
本文通過(guò)局部匹配窗口的方式進(jìn)行視差求解,相比較于全局匹配局部匹配具有速度快的優(yōu)勢(shì),同時(shí)能生成特征點(diǎn)匹配方式不具備的稠密視差圖。如圖3所示,區(qū)域匹配通常為以左圖像中待匹配點(diǎn)p為中心,選擇一個(gè)區(qū)域,以此區(qū)域中的灰度信息來(lái)表征該匹配點(diǎn)的性征,同時(shí)在右圖像中以任意一個(gè)對(duì)應(yīng)的待匹配的點(diǎn)q為中心選取同樣大小的區(qū)域,對(duì)兩個(gè)區(qū)域的相似測(cè)度進(jìn)行計(jì)算,此時(shí)若相似測(cè)度函數(shù)能夠取得極值,兩個(gè)區(qū)域就被稱(chēng)為相互匹配。
圖3 局部匹配窗口
雖然SAD減少計(jì)算量的同時(shí)會(huì)對(duì)匹配的質(zhì)量造成影響,但是其在速度上的提高要遠(yuǎn)遠(yuǎn)優(yōu)于SSD與ASW。因此為了簡(jiǎn)化計(jì)算量,增加算法速度,從而滿(mǎn)足整個(gè)算法在實(shí)時(shí)性上的性能,本文選取了Sum of Absolute Differences(SAD)匹配代價(jià)作為相似測(cè)度函數(shù),其計(jì)算公式如下所示:
其中IL(X,Y)為左圖像在(X,Y)位置上的灰度值,同理IR(X,Y)為右圖像該點(diǎn)的灰度值。本文算法僅對(duì)待匹配點(diǎn)的強(qiáng)相似點(diǎn)的區(qū)域進(jìn)行相似測(cè)度計(jì)算,并取其中數(shù)值最小的點(diǎn)進(jìn)行計(jì)算得出視差。由于大部分的待匹配點(diǎn)的強(qiáng)相似點(diǎn)的數(shù)量要遠(yuǎn)小于視差搜索范圍,因此減少了相似測(cè)度函數(shù)的計(jì)算區(qū)域,而立體匹配中大部分的時(shí)間是用來(lái)進(jìn)行區(qū)域匹配的相似度函數(shù)計(jì)算,因此本方法能夠有效地減少視差的計(jì)算時(shí)間。
在得到基于強(qiáng)相似點(diǎn)的立體匹配結(jié)果之后,算法又通過(guò)遮擋點(diǎn)檢測(cè)與平滑濾波進(jìn)一步修正視差結(jié)果,使得在速度得到提高的同時(shí),保證了匹配的精度。
遮擋點(diǎn)檢測(cè)就是以右圖像參考點(diǎn)為基準(zhǔn),在左圖像中搜索匹配點(diǎn),則其在左圖像上得到的匹配點(diǎn)應(yīng)該與右圖像參考點(diǎn)一致。設(shè)d(i,j)和d′(i,j)分別為從右向左和從左向右匹配計(jì)算得到的視差,對(duì)于計(jì)算出的匹配點(diǎn)應(yīng)當(dāng)滿(mǎn)足:
不滿(mǎn)足則不是匹配點(diǎn),即為遮擋點(diǎn)。在經(jīng)過(guò)左右遮擋點(diǎn)檢測(cè)得到遮擋點(diǎn)位置之后,需要對(duì)遮擋點(diǎn)進(jìn)行過(guò)濾。對(duì)于遮擋點(diǎn)p,分別找到p點(diǎn)左方向與右方向的第一個(gè)非遮擋點(diǎn),即為pl與pr。即點(diǎn)p的視差值為:
在進(jìn)行遮擋點(diǎn)檢測(cè)與處理之后,算法還對(duì)圖像進(jìn)行平滑濾波,去除遮擋過(guò)濾可能產(chǎn)生的水平條紋。濾波前后圖像如圖4、圖5所示。在圖中可以看到,圖片右區(qū)域的橫線(xiàn)減少,同時(shí)屋頂區(qū)域也得到了改善。最后通過(guò)與數(shù)據(jù)集標(biāo)準(zhǔn)視差圖對(duì)比,得出平滑濾波會(huì)將誤差再降低1%左右。
圖4 平滑濾波前視差圖
圖5 平滑濾波后視差圖
為了驗(yàn)證本文算法的性能,在實(shí)驗(yàn)中使用來(lái)自Middlebury大學(xué)立體視覺(jué)網(wǎng)站的圖像集和實(shí)驗(yàn)室室內(nèi)實(shí)際環(huán)境的立體圖像進(jìn)行測(cè)試和對(duì)比分析。實(shí)驗(yàn)所用計(jì)算機(jī)配置:實(shí)驗(yàn)環(huán)境為Inter?CoreTMi7-4500U CPU 1.80 GHz,Windows 7 64位操作系統(tǒng),算法程序在Visual Studio 2013環(huán)境設(shè)計(jì)完成。
其中標(biāo)準(zhǔn)數(shù)據(jù)集實(shí)驗(yàn)中分別采用SAD匹配算法、Sum of Squared Differences(SSD)匹配算法、ASW匹配算法和本文算法進(jìn)行實(shí)驗(yàn)比較驗(yàn)證。其中Adapt Size Weight(ASW)算法精度較高,用于進(jìn)行準(zhǔn)確度的對(duì)比。而本文算法中閾值δ設(shè)定為10,SAD窗口選擇為7。方便起見(jiàn)本文圖像只給出Teddy數(shù)據(jù)集中右圖像實(shí)驗(yàn)圖像結(jié)果。Teddy數(shù)據(jù)集實(shí)驗(yàn)結(jié)果如圖6所示。其中圖6(a)~6(d)分別表示原始SAD、SSD、ASW與本文方法的匹配代價(jià)計(jì)算結(jié)果,而圖6(e)與6(f)則表示標(biāo)準(zhǔn)視差與原始圖像用來(lái)比較匹配結(jié)果的好壞。
從圖6(a)和圖6(d)可看出,本文算法相對(duì)于SAD區(qū)域算法,計(jì)算得到視差精度較高,較好地解決了遮擋區(qū)域的視差問(wèn)題,不但精確地再現(xiàn)了布偶、玩具房子與畫(huà)布的輪廓,還對(duì)輪廓邊緣區(qū)域得到了比較可信的結(jié)果。但是由圖6(c)和圖6(d)可知,本文算法仍然存在一些匹配效果欠佳的區(qū)域,主要原因是在屋頂區(qū)域的紋理信息不夠豐富,而在物體邊緣處本文算法依然要由優(yōu)于ASW算法。對(duì)于不同數(shù)據(jù)集精度比較如表1所示。
表1 本文算法與其他算法誤差率比較%
表1中分別表示了不同數(shù)據(jù)集下每種算法計(jì)算出視差圖的誤差率(百分比)。從表1和圖6不難看出,與SAD、SSD相比,本文匹配效果得到改善,與ASW算法相比精度接近在某些情況下,甚至性能優(yōu)于ASW算法。
圖6 Teddy數(shù)據(jù)集實(shí)驗(yàn)結(jié)果
而在表2中可以看出,SAD雖然精度較低,但是具有明顯的速度優(yōu)勢(shì),與速度較快的SSD方法相比,SAD精度相差2%左右,速度卻提高2倍,而與精度較高的ASW方法相比,雖然精度相差5%,但是在速度上SAD提高超過(guò)100倍。本文算法與傳統(tǒng)SAD算法相比,速度提高約為三倍,因此能夠滿(mǎn)足在對(duì)速度要求高的實(shí)時(shí)匹配場(chǎng)景下的應(yīng)用。
表2 本文算法與其他算法運(yùn)算時(shí)間比較s
本文還在是室內(nèi)環(huán)境下進(jìn)行實(shí)測(cè)。在實(shí)驗(yàn)過(guò)程中,通過(guò)自主設(shè)計(jì)的雙目視覺(jué)平臺(tái)作為實(shí)驗(yàn)平臺(tái)。該雙目攝像頭的設(shè)計(jì)與應(yīng)用目標(biāo)為安裝在室內(nèi)無(wú)人機(jī)上,向無(wú)人機(jī)平臺(tái)提供視覺(jué)數(shù)據(jù),進(jìn)而計(jì)算獲取深度等信息。
圖7 室內(nèi)實(shí)驗(yàn)結(jié)果
首先采集一組圖像進(jìn)行極線(xiàn)校正,再將校正后圖像通過(guò)本文算法進(jìn)行立體匹配,其中閾值為大小為10,最高迭代次數(shù)為5,最后得出視差結(jié)果。實(shí)驗(yàn)中首先將本文方法與常在實(shí)時(shí)雙目系統(tǒng)使用的優(yōu)化SAD進(jìn)行比對(duì)。雖然與本文方法都選取相同的SAD匹配代價(jià)函數(shù)進(jìn)行匹配代價(jià)計(jì)算,但對(duì)比算法為了滿(mǎn)足實(shí)時(shí)性的要求而犧牲了匹配的質(zhì)量,本文則通過(guò)強(qiáng)匹配點(diǎn)進(jìn)行匹配精度的增強(qiáng),并通過(guò)遮擋點(diǎn)的檢測(cè)與處理進(jìn)一步優(yōu)化了匹配的質(zhì)量。因此從圖7(c)與圖7(d)的對(duì)比中可以看出,本文算法相比較于優(yōu)化SAD算法,本文獲得的視差圖更加完整,而且細(xì)節(jié)的還原也更高。同時(shí)如圖7(e)~圖7(j)所示,本文還將系統(tǒng)在室內(nèi)環(huán)境下不同場(chǎng)景進(jìn)行了實(shí)驗(yàn),其中不同場(chǎng)景具有不同光照強(qiáng)度與光照分布情況,實(shí)驗(yàn)結(jié)果表明本文方法能夠在室內(nèi)環(huán)境下滿(mǎn)足立體匹配質(zhì)量與環(huán)境適應(yīng)性上的要求。
同時(shí)由于雙目視覺(jué)平臺(tái)采集圖像的分辨率為640×480,比標(biāo)準(zhǔn)數(shù)據(jù)集的分辨率更低,也因此具有更快的計(jì)算速度,但是由于實(shí)物圖具有對(duì)圖像的校正,去畸變等處理,導(dǎo)致整體時(shí)間略有增加,依然可控制在0.9 s左右,能夠滿(mǎn)足旋翼飛行器的實(shí)時(shí)性要求。
本文提出了一種基于強(qiáng)相似點(diǎn)的快速匹配算法。在不損壞精確度的情況下,大大增加了匹配的速度,提高了匹配效率。加速與遮擋點(diǎn)處理,保證了系統(tǒng)的檢測(cè)的速度與準(zhǔn)確性。實(shí)驗(yàn)表明,所述算法相比于速度較快的SAD算法,能夠提高近三倍匹配速度,同時(shí)精度提高3%。又通過(guò)實(shí)驗(yàn)驗(yàn)證了本文算法的實(shí)際價(jià)值,為立體匹配算法在視覺(jué)導(dǎo)航、障礙物檢測(cè)等方面的應(yīng)用奠定了良好基礎(chǔ)。
[1] 王軍華,李丁,劉盛鵬.基于改進(jìn)RANSAC的消防機(jī)器人雙目障礙檢測(cè)[J].計(jì)算機(jī)工程與應(yīng)用,2017,53(2):236-240.
[2] Watanabe Y,Calise A,Johnson E.Vision-based obstacle avoidance for UAVs[C]//AIAA Guidance,Navigation and Control Conference and Exhibit.South Carolina:American Institute of Aeronautics and Astronautics Press,2007:20-23.
[3] Hirschmuller H.Stereo processing by semiglobal matching and mutual information[J].IEEE Transactions on Pattern Analysis&Machine Intelligence,2008,30(2):328-341.
[4] Satnik A,Hudec R,Kamencay P,et al.A comparison of key-point descriptors for the stereo matching algorithm[C]//Radioelektronika,2016:292-295.
[5] 賀利樂(lè),路二偉,李趙興,等.基于ORB算子的快速立體匹配算法[J].計(jì)算機(jī)工程與應(yīng)用,2017,53(1):190-194.
[6] Hong G S,Kim B G.A local stereo matching algorithm based on weighted guided image filtering for improving the generation of depth range images[J].Displays,2017,49:80-87.
[7] Rother C,Kolmogorov V,Blake A.GrabCut:Interactive foreground extraction using iterated graph cuts[J].ACM Transactions on Graphics,2004,23(3):309-314.
[8] Sun J,Shum H Y,Zheng N N.Stereo matching using belief propagation[C]//European Conference on Computer Vision.Berlin Heidelberg:Springer,2002:510-524.
[9] Cao G,Peng H.Graph cut stereo matching based on region consistency[J].Journal of Northwestern Polytechnical University,2017,35(1):160-163.
[10] Huang D.Improved Yoon stereo matching algorithm based on adaptive weight[J].Journal of Electronic Measurement&Instrument,2010,24(7):632-637.
[11] Tabssum T,Charles P,Patil A V.Evaluation of disparity map computed using local stereo parametric and nonparametric methods[C]//International Conference on Automatic Control and Dynamic Optimization Techniques,2017:104-109.
[12] Song Y.A computational optimization method of the SSD and NCC algorithms of the stereo matching[J].Computer Engineering&Applications,2006,42(2):42-44.
[13] Chen D,Ardabilian M,Wang X,et al.An improved nonlocalcostaggregationmethodforstereomatching based on color and boundary cue[C]//IEEE International Conference on Multimedia and Expo,2013:1-6.
[14] Zhu S,Gao R,Li Z.Stereo matching algorithm with guided filter and modified dynamic programming[J].Multimedia Tools&Applications,2017,76:1-18.
MA Long,SUN Mingze,HUANG Chao,et al.Fast binocular stereo matching algorithm based on strong similarity detection.Computer Engineering andApplications,2018,54(6):193-197.
MALong,SUN Mingze,HUANG Chao,PEI Xin,ZHOU Hang,ZHANG Hongyan
Sino-European Institute ofAviation Engineering,CivilAviation University of China,Tianjin 300300,China
Stereo matching is an important branch of binocular vision,which can reduce the three-dimensional information through the depth map,but because of its huge amount of computation,real-time is difficult to be guaranteed.In this paper,a fast stereo matching algorithm based on strong similarity is proposed.Firstly,the binocular image is processed by the pole,so that the matching region is fixed on the same horizontal line,and the matching region is reduced.Secondly,the image is gray,and the points in the search range which are close to the gray value of the matching points are defined as strong similarities.The matching cost of the strong similarity points is calculated and the optimal parallax is obtained.Point for normal parallax calculation,the final parallax correction and filtering,get the final parallax.The results show that the proposed method can improve the accuracy of SAD by 70%without compromising the accuracy rate,which provides a good foundation for the practical application of stereo matching algorithm.In the visual navigation,obstacle detection also has a good application prospects.
binocular vision;epipolar rectification;stereo matching;strong similarities;matching cost
立體匹配是雙目視覺(jué)的一個(gè)重要分支領(lǐng)域,能夠通過(guò)深度圖還原出三維信息,但由于其計(jì)算量龐大,實(shí)時(shí)性難以得到保障。為此,提出了一種基于強(qiáng)相似點(diǎn)的快速立體匹配算法。首先,將雙目圖像通過(guò)對(duì)極處理,使匹配區(qū)域固定在同一水平線(xiàn)上,減少匹配區(qū)域;其次,對(duì)圖像進(jìn)行灰度轉(zhuǎn)化,并將搜索范圍內(nèi)與待匹配點(diǎn)灰度值接近的點(diǎn)定義為強(qiáng)相似點(diǎn),對(duì)強(qiáng)相似點(diǎn)所在塊進(jìn)行匹配代價(jià)計(jì)算,并得出該點(diǎn)最優(yōu)視差,對(duì)不存在強(qiáng)相似點(diǎn)的待匹配點(diǎn)進(jìn)行正常視差計(jì)算;最后將進(jìn)行視差修正與濾波,得到最終視差圖。經(jīng)Middlebury算法測(cè)試平臺(tái)的提供數(shù)據(jù)進(jìn)行驗(yàn)證,結(jié)果表明在不損失精確率的前提下,該方法相對(duì)于SAD速度提高70%左右,為立體匹配算法的實(shí)際應(yīng)用奠定了良好基礎(chǔ),在視覺(jué)導(dǎo)航、障礙物檢測(cè)方面也有著良好的應(yīng)用前景。
雙目視覺(jué);極線(xiàn)校正;立體匹配;強(qiáng)相似點(diǎn);相似代價(jià)
2017-08-25
2017-10-13
1002-8331(2018)06-0193-05
A
TP242.6;TP301.6
10.3778/j.issn.1002-8331.1708-0313
國(guó)家自然科學(xué)基金委員會(huì)與中國(guó)民用航空局聯(lián)合資助(No.U1633101);中央高校基本科研業(yè)務(wù)費(fèi)中國(guó)民航大學(xué)專(zhuān)項(xiàng)(No.3122015Z003)。
馬龍(1983—),男,博士,講師,主要從事精密測(cè)量,光學(xué)無(wú)損檢測(cè)和導(dǎo)航信息融合等方面的研究,E-mail:malong9904@aliyun.com;孫銘澤(1993—),男,碩士研究生,主要從事雙目視覺(jué)與導(dǎo)航方面的研究。