呂丹婭,姚劍敏,郭太良
(福州大學(xué) 物理與信息工程學(xué)院,福建 福州 350116)
?
改進(jìn)ORB算法在單目視覺SLAM特征匹配中的應(yīng)用
呂丹婭,姚劍敏,郭太良
(福州大學(xué) 物理與信息工程學(xué)院,福建 福州 350116)
針對(duì)單目視覺同步定位與地圖構(gòu)建問題對(duì)傳統(tǒng)定向二進(jìn)制描述符算法進(jìn)行改進(jìn),結(jié)合快速魯棒特征算法的思想,將尺度空間理論引入傳統(tǒng)ORB算法中,同時(shí)根據(jù)機(jī)器人的運(yùn)動(dòng)先驗(yàn)信息,預(yù)測(cè)特征點(diǎn)的可能范圍,避免在全局范圍內(nèi)對(duì)特征點(diǎn)的檢測(cè)和匹配。實(shí)驗(yàn)表明,改進(jìn)的ORB算法能顯著提高匹配正確率,在多尺度方面表現(xiàn)出色,并能有效減少運(yùn)算時(shí)間,平均耗時(shí)14 ms,處理速度約為傳統(tǒng)ORB算法的1.3倍、SURF算法的10倍、尺度不變特征變換(Scale-invariant Feature Transform,SIFT)算法的26倍,適用于單目視覺SLAM問題。
SLAM;特征匹配;改進(jìn)ORB;尺度不變性
單目視覺SLAM(Simultaneous Localization and Map-building)問題一直都是國內(nèi)外研究的熱點(diǎn)和難點(diǎn)。單目視覺SLAM通過在移動(dòng)機(jī)器人上架設(shè)單一攝像頭獲取環(huán)境圖像,從圖像中提取特征點(diǎn),在機(jī)器人移動(dòng)過程中,將里程計(jì)獲取的機(jī)器人運(yùn)動(dòng)信息與攝像頭獲取到的環(huán)境特征點(diǎn)的運(yùn)動(dòng)信息相融合,邊構(gòu)建環(huán)境地圖邊修正自身的位置信息,從而實(shí)現(xiàn)同步定位與地圖構(gòu)建[1]。圖像特征匹配在單目視覺SLAM問題中十分關(guān)鍵,一旦匹配失誤,很可能造成機(jī)器人定位失敗,因此對(duì)圖像特征匹配算法的魯棒性要求較高。同時(shí),由于是在機(jī)器人移動(dòng)的過程中進(jìn)行定位與地圖構(gòu)建,對(duì)算法的運(yùn)算速度也有較高要求。
目前主要的圖像特征匹配算法有[2]:SIFT算法、SURF(Speeded Up Robust Features)算法及ORB(Oriented Fast and Rotated Binary Robust Independent Elementary Features)算法。其中SIFT和SURF應(yīng)用尤為廣泛,它們的匹配精確度高,對(duì)多種圖像變換都適用,但運(yùn)算速度慢,無法適用于對(duì)實(shí)時(shí)性有較高要求的單目視覺SLAM問題。ORB算法[3]是目前最為快速的圖像特征匹配算法之一,在光照魯棒性方面有更加突出的表現(xiàn),然而ORB算法不具有尺度不變性,這對(duì)于單目視覺SLAM問題是致命的。在機(jī)器人移動(dòng)過程中,攝像頭所拍攝的環(huán)境圖像不斷變化,圖像上的環(huán)境特征尺度更是無時(shí)無刻不在變換。同時(shí),以上3種圖像特征匹配算法還存在一個(gè)共同的問題:當(dāng)環(huán)境圖像中存在相似度較高的區(qū)域時(shí),容易出現(xiàn)誤匹配[4]。這對(duì)單目視覺SLAM問題來說同樣是致命的。
對(duì)此,Yanyan Qin等人在文獻(xiàn)[5]中提出一種改進(jìn)的ORB算法。該算法采用SIFT檢測(cè)特征點(diǎn),再使用ORB對(duì)特征點(diǎn)進(jìn)行描述,根據(jù)Hamming距離與預(yù)設(shè)閾值的比較,實(shí)現(xiàn)特征點(diǎn)匹配。此算法有效改善了ORB的尺度不變性,但由于采用SIFT檢測(cè),算法復(fù)雜度增加,平均匹配時(shí)間比ORB增加了19.33 ms,同時(shí),由于采用的是Hamming距離匹配,在特征點(diǎn)相似度較高的情況下匹配精度較低。Ye Zhu等人在文獻(xiàn)[6]中提出,先對(duì)圖像建立高斯尺度金字塔,在金字塔的每一層上分別進(jìn)行ORB檢測(cè)和描述,使用隨機(jī)抽樣一致性(RANdom SAmple Consensus,RANSAC)算法移除錯(cuò)誤匹配對(duì)。該方法使ORB的尺度不變性有很大提高,匹配精度亦得到改善,但RANSAC的缺陷是其迭代次數(shù)沒有上限,耗費(fèi)大量的時(shí)間,若設(shè)置迭代次數(shù)上限,則可能得不到最優(yōu)模型,甚至得到的模型是錯(cuò)誤的,因此需要平衡精度和時(shí)間,并且匹配效果不穩(wěn)定。由于RANSAC只留下符合其估計(jì)模型的匹配對(duì),會(huì)漏掉大量正確但不完全符合模型的匹配對(duì),匹配效率不高,且無法準(zhǔn)確檢測(cè)分布不均勻的匹配對(duì)。
針對(duì)以上問題和單目視覺SLAM這一特定應(yīng)用,本文提出一種改進(jìn)的ORB算法。結(jié)合SURF尺度不變性的思想,在ORB算法中引入尺度空間理論,使改進(jìn)的ORB算法兼具尺度不變性和快速運(yùn)算的特點(diǎn)。同時(shí),根據(jù)機(jī)器人的運(yùn)動(dòng)先驗(yàn)信息,預(yù)測(cè)特征在下一幀圖像中的位置,進(jìn)行基于先驗(yàn)信息的匹配,降低誤匹配率,也提高了匹配速度。
單目視覺SLAM問題一般采用SIFT和SURF作為圖像特征匹配算法,然而這兩個(gè)算法的時(shí)間復(fù)雜度較大,影響了系統(tǒng)的實(shí)時(shí)性。ORB的運(yùn)算速度比SIFT快了兩個(gè)數(shù)量級(jí),比SURF快了一個(gè)數(shù)量級(jí)[3],因此本文考慮在單目視覺SLAM中采用ORB算法做圖像特征匹配。
1.1 原理
傳統(tǒng)ORB算法[3,7]使用FAST算法檢測(cè)圖像角點(diǎn)。對(duì)圖像中某一個(gè)像素p,若它周圍鄰域內(nèi)存在連續(xù)的n個(gè)像素與它處在不同的區(qū)域,則認(rèn)為該像素點(diǎn)p是一個(gè)角點(diǎn),取角點(diǎn)為圖像的特征點(diǎn)[8],如圖1所示。
圖1 FAST角點(diǎn)檢測(cè)
(1)
特征點(diǎn)鄰域的質(zhì)心坐標(biāo)C為
(2)
則質(zhì)心的方向定義為
(3)
θ為該特征點(diǎn)的主方向。
在計(jì)算特征描述子時(shí),事先采用窮舉算法訓(xùn)練出n個(gè)相關(guān)系數(shù)接近0.5的隨機(jī)點(diǎn)對(duì)。將該組點(diǎn)對(duì)根據(jù)特征點(diǎn)的質(zhì)心方向進(jìn)行旋轉(zhuǎn),以保證描述子的旋轉(zhuǎn)不變性。
將原始圖像先經(jīng)過高斯濾波以降低噪聲的影響,然后采用如下準(zhǔn)則生成二進(jìn)制描述子
(4)
式中:(x,y)為旋轉(zhuǎn)后的隨機(jī)點(diǎn)對(duì);p(x)為圖像塊p在像素點(diǎn)x=(u,v)處的灰度值。由此獲得n位二進(jìn)制比特串描述子
(5)
通常使用K近鄰(K-Nearest Neighbor,KNN)[9]做特征匹配。在單目視覺SLAM問題中,假設(shè)系統(tǒng)已運(yùn)行一段時(shí)間,使用拍攝到的特征點(diǎn)的信息構(gòu)建了SLAM特征庫。此時(shí)機(jī)器人運(yùn)動(dòng),攝像頭再獲取到一幀圖像。首先,將攝像頭獲取的圖像中提取到的特征點(diǎn)與SLAM特征庫中的特征點(diǎn)做K=2的雙向K近鄰匹配。即圖像中的每一個(gè)特征點(diǎn),都在SLAM特征庫中找到與其匹配距離最近和次近的兩個(gè)特征點(diǎn),分別組成匹配對(duì),反之亦然。匹配距離可以是Hamming距離。然后,采用以下方法篩選匹配對(duì):剔除最近鄰匹配距離/次近鄰匹配距離>0.6的匹配對(duì);剔除非對(duì)稱的匹配對(duì),即如果圖像中的特征點(diǎn)A匹配SLAM特征庫中的特征點(diǎn)B,但特征點(diǎn)B不匹配特征點(diǎn)A,則同時(shí)剔除特征點(diǎn)A和特征點(diǎn)B各自的匹配對(duì),反之亦然;剔除相似度不夠高的匹配對(duì)。
1.2 存在問題
由1.1小節(jié)分析可知,傳統(tǒng)ORB算法使用FAST算法檢測(cè)圖像中的角點(diǎn),而FAST檢測(cè)到的角點(diǎn)不具有尺度信息,因此最終獲得的特征點(diǎn)不具有尺度不變性。當(dāng)特征點(diǎn)發(fā)生較大尺度變化時(shí),傳統(tǒng)ORB算法的匹配效果極差,如圖2所示。對(duì)于特征點(diǎn)會(huì)不斷發(fā)生較大尺度變化的單目視覺SLAM來說,傳統(tǒng)ORB算法具有極大的缺陷。
圖2 傳統(tǒng)ORB算法在大尺度變化下的匹配效果
同時(shí)K近鄰匹配只是對(duì)特征點(diǎn)的描述子進(jìn)行比較,并不考慮特征點(diǎn)在圖像中的位置。若圖像中存在相似的區(qū)域,極易導(dǎo)致匹配失誤,而單目視覺SLAM所拍攝的是室內(nèi)環(huán)境圖像,很難保證沒有相似的區(qū)域。
針對(duì)傳統(tǒng)ORB算法在單目視覺SLAM中存在的問題,本文在傳統(tǒng)ORB算法的基礎(chǔ)上,結(jié)合SURF的思想引入尺度空間,使得改進(jìn)后的ORB算法具有尺度不變性。同時(shí)采用基于先驗(yàn)信息的匹配,根據(jù)機(jī)器人的運(yùn)動(dòng)先驗(yàn)信息,預(yù)測(cè)特征點(diǎn)在下一幀圖像中可能分布的范圍,在此范圍內(nèi)進(jìn)行特征點(diǎn)的檢測(cè)及匹配,避免了K近鄰在整幅圖像中進(jìn)行的窮舉式匹配,有效地降低了誤匹配率,同時(shí)減少計(jì)算量。
2.1 SURF尺度空間
尺度空間理論是指在處理圖像信息時(shí)引入一個(gè)尺度參數(shù),通過圖像尺度的變換,獲得不同尺度下的一系列圖像,在這一系列圖像上進(jìn)行處理[10]。
SURF算法[11-12]使用帶尺度的Hessian矩陣求取局部最大值作為特征點(diǎn)。
(6)
為加速計(jì)算,使用盒式濾波器近似替代高斯二階偏導(dǎo)數(shù),如圖3所示。
圖3 盒式濾波器
使用不同尺度的盒濾波器與積分圖像中的點(diǎn)卷積建立尺度金字塔,積分圖像定義為:圖像中某點(diǎn)(x,y)的值為原點(diǎn)與該點(diǎn)所圍成的矩形區(qū)域中像素之和,其計(jì)算公式如下
(7)
2.2 改進(jìn)ORB特征檢測(cè)
由于機(jī)器人的運(yùn)動(dòng)、環(huán)境變化等等,單目視覺SLAM問題中獲取到的圖像會(huì)包含較多的噪聲。因此,首先對(duì)圖像進(jìn)行高斯濾波,以減少圖像中的噪聲干擾。
改進(jìn)的ORB特征檢測(cè)采用積分圖像和盒式濾波器進(jìn)行卷積,通過高斯核函數(shù)構(gòu)建尺度空間并求解快速Hessian響應(yīng)提取特征點(diǎn),并在特征點(diǎn)的3×3×3鄰域插值,確定特征點(diǎn)坐標(biāo)。為簡(jiǎn)化運(yùn)算,此處的尺度空間為不分組的16層尺度空間結(jié)構(gòu)。
為保證獲取到數(shù)量足夠的特征點(diǎn),單目視覺SLAM問題通常采用角度較大的攝像頭,鏡頭邊緣畸變較大。為了提高特征點(diǎn)的穩(wěn)定性,將靠近圖像邊緣的特征點(diǎn)剔除。
由此,在機(jī)器人運(yùn)動(dòng)過程中,不斷地使用單目攝像頭獲取周圍環(huán)境的圖像,對(duì)圖像進(jìn)行改進(jìn)ORB特征檢測(cè),獲取穩(wěn)定的特征點(diǎn)作為環(huán)境特征信息。
2.3 基于先驗(yàn)信息的匹配
當(dāng)環(huán)境中存在相似區(qū)域時(shí),使用K近鄰會(huì)出現(xiàn)誤匹配現(xiàn)象,因此本文針對(duì)單目視覺SLAM采用基于先驗(yàn)信息的匹配。由里程計(jì)獲得機(jī)器人的運(yùn)動(dòng)信息,根據(jù)機(jī)器人的運(yùn)動(dòng)先驗(yàn)信息、攝像頭參數(shù)、攝像頭與特征點(diǎn)之間的位置關(guān)系,可以預(yù)測(cè)出某一特征點(diǎn)在下一幀圖像中的位置。由于系統(tǒng)存在運(yùn)動(dòng)誤差、測(cè)量誤差等多種誤差,必然無法精確預(yù)測(cè)特征點(diǎn)的位置。因此本文以特征點(diǎn)預(yù)測(cè)值為中心,計(jì)算出一個(gè)特征點(diǎn)實(shí)際位置的可能范圍,下一幀圖像中落在此范圍內(nèi)的特征點(diǎn)即為可能的特征點(diǎn)。再將這些可能的特征點(diǎn)與原特征點(diǎn)進(jìn)行匹配,即可獲得實(shí)際觀測(cè)特征點(diǎn)。
本文使用EKF濾波器實(shí)現(xiàn)SLAM過程。假設(shè)機(jī)器人的狀態(tài)變量為xk,特征觀測(cè)變量yk=hk(xk)+vk,系統(tǒng)狀態(tài)協(xié)方差Pk, 則
(8)
基于EKF濾波器的EKF-SLAM建立的是高斯模型[13],所以狀態(tài)變量服從正態(tài)分布
(9)
由于正態(tài)分布的傳遞性,特征點(diǎn)實(shí)際觀測(cè)值z(mì)k亦服從正態(tài)分布
(10)
根據(jù)正態(tài)分布的參數(shù)估計(jì)理論可知
(11)
(12)
由此,基于先驗(yàn)信息的匹配范圍確定為一個(gè)以特征點(diǎn)預(yù)測(cè)值為中心的橢圓,該橢圓表示特征點(diǎn)位置預(yù)測(cè)的不確定性,實(shí)際觀測(cè)值落在此范圍內(nèi)的可能性為95%,如圖4所示。
圖4 基于先驗(yàn)信息的匹配
2.4 算法總體設(shè)計(jì)
本文針對(duì)單目視覺SLAM問題提出一種改進(jìn)的多尺度ORB特征匹配算法,具體步驟如下:
1)對(duì)圖像進(jìn)行高斯濾波去除噪聲。
2)建立尺度空間,使用帶尺度的Hessian矩陣求取特征點(diǎn)。
3)去掉靠近圖像邊緣的特征點(diǎn)。
4)使用傳統(tǒng)ORB的方法計(jì)算特征點(diǎn)的質(zhì)心方向。
5)使用傳統(tǒng)ORB的方法計(jì)算特征點(diǎn)描述子。
6)根據(jù)特征點(diǎn)預(yù)測(cè)值和測(cè)量余量協(xié)方差所構(gòu)成的橢圓,進(jìn)行基于先驗(yàn)信息的匹配。
本文采用的實(shí)驗(yàn)環(huán)境為Intel i5 2.67 GHz CPU,4 Gbyte內(nèi)存,Windows操作系統(tǒng),Visual C++ 2010。攝像頭為170°廣角攝像頭,采用張正友法標(biāo)定。圖片原始分辨率640×480,裁剪為480×480??刂茩C(jī)器人使攝像頭在室內(nèi)做勻速直線運(yùn)動(dòng),速度15 cm/s,每秒獲取15幀圖像,使用EKF-SLAM作為系統(tǒng)基本框架。
3.1 基于先驗(yàn)信息的匹配驗(yàn)證
圖5為基于先驗(yàn)信息的匹配實(shí)際效果。圖中展示的是當(dāng)前圖像中提取到的特征點(diǎn)與先前位置圖像中提取到的特征點(diǎn)組合成的SLAM特征庫的匹配效果。圖中橢圓表示以特征點(diǎn)預(yù)測(cè)值為中心圈定的95%置信域,淺色橢圓表示正確匹配到特征點(diǎn),所匹配到的特征點(diǎn)位置用十字標(biāo)識(shí)。橢圓為深色表示沒有匹配到特征點(diǎn),原因有二:一是特征點(diǎn)實(shí)際觀測(cè)值落在了橢圓外;二是由于在SLAM的過程中環(huán)境發(fā)生變化,當(dāng)前圖像中沒有檢測(cè)到這個(gè)特征點(diǎn)。從圖中可以看出,絕大多數(shù)的特征點(diǎn)確實(shí)落在了圈定的95%置信域中,說明基于先驗(yàn)信息的匹配方案是可行的。
圖5 基于先驗(yàn)信息的匹配效果
3.2 特征匹配實(shí)驗(yàn)
方法1采用本文提出的改進(jìn)ORB算法,算法具有尺度不變性,并使用基于先驗(yàn)信息的匹配方法。方法2~4分別采用傳統(tǒng)ORB[3]、SURF[11]、SIFT算法[14],并使用K近鄰匹配,方法5和方法6分別采用文獻(xiàn)[5]和文獻(xiàn)[6]中提出的改進(jìn)ORB算法。特征匹配正確率由正確匹配對(duì)數(shù)/全部匹配對(duì)數(shù)得出,特征匹配正確率曲線如圖6所示,特征匹配時(shí)間曲線如圖7所示。
圖6 特征匹配正確率曲線
圖7 匹配時(shí)間曲線
由圖6可知,本文提出的改進(jìn)ORB算法在單目視覺SLAM這一應(yīng)用場(chǎng)景下的特征匹配正確率高于其他5種匹配算法。方法2由于使用的是不具有尺度不變性的ORB算法,隨著特征尺度變化的增大,匹配正確率持續(xù)下降。方法3~方法5由于使用的是與位置無關(guān)的匹配,隨著SLAM過程的推進(jìn),特征點(diǎn)增多,特征點(diǎn)相似的概率增大,匹配正確率出現(xiàn)緩慢下降。圖7展示了6種方法的匹配時(shí)間,方法1平均用時(shí)14 ms,比方法2平均快了4 ms,比方法3平均快了124 ms,比方法4快了353 ms,比方法5快了24 ms,比方法6快了51 ms。
本文針對(duì)單目視覺SLAM問題,提出了一種改進(jìn)的ORB算法。該算法結(jié)合SURF算法在傳統(tǒng)ORB算法中引入尺度空間,實(shí)現(xiàn)了尺度不變性,同時(shí)根據(jù)機(jī)器人的運(yùn)動(dòng)信息,預(yù)測(cè)特征點(diǎn)在下一幀圖像中的可能分布范圍,有效地降低了誤匹配率,并減少了計(jì)算量。
由實(shí)驗(yàn)結(jié)果可知,本文提出的改進(jìn)ORB算法具有優(yōu)秀的尺度不變性,當(dāng)圖像發(fā)生尺度變化時(shí),改進(jìn)ORB算法的匹配效果遠(yuǎn)遠(yuǎn)優(yōu)于傳統(tǒng)ORB算法,亦勝過SURF、SIFT和文獻(xiàn)[5-6]中提出的改進(jìn)ORB算法。同時(shí),本文提出的改進(jìn)ORB算法較好地保留了ORB算法運(yùn)算速度快的優(yōu)點(diǎn),加之使用了基于先驗(yàn)信息的匹配,相比SURF,特別是SIFT,在速度上具有極大的優(yōu)勢(shì),也比文獻(xiàn)[5-6]中提出的改進(jìn)ORB算法快。實(shí)際項(xiàng)目實(shí)驗(yàn)表明,改進(jìn)的ORB算法在特征匹配正確率、運(yùn)算時(shí)間上都有出色的表現(xiàn),能很好地適用于單目視覺SLAM問題。
[1]孫鳳池,黃亞樓,康葉偉.基于視覺的移動(dòng)機(jī)器人同時(shí)定位與建圖研究進(jìn)展[J].控制理論與應(yīng)用,2010,27(4):488-495.
[2]GAUGLITZ S,HOLLERER T,TURK M.Evaluation of interest point detectors and feature descriptors for visual tracking[J].International journal of computer vision,2011,94(3):335-360.
[3]RUBLEE E,RABAUD V,KONOLIGE K,et al.ORB: An efficient alternative to SIFT or SURF[C]//Proc. IEEE International Conference on Computer Vision(ICCV).Barcelona,Spain:Computer Vision,2011:2564-2571.
[4]索春寶,楊東清,劉云鵬.多種角度比較SIFT、SURF、BRISK、ORB、FREAK算法[J]. 北京測(cè)繪,2014(4):22-26.
[5]QIN Y Y,XU H K,CHEN H R.Image feature points matching via improved ORB[C]//Proc. 2014 IEEE International Conference on Progress in Informatics and Computing.Shanghai:IEEE Beijing Section,2014:5.
[6]ZHU Y,SHEN X J,CHEN H P.Copy-move forgery detection based on scaled ORB[J].Multimedia tools and applications, 2015, 75(6):3221-3233.
[7]李小紅,謝成明,賈易臻,等.基于ORB特征的快速目標(biāo)檢測(cè)算法[J].電子測(cè)量與儀器學(xué)報(bào),2013,27(5):455-460.
[8]MIROSLAV T,MARK H.Fast corner detection[J].Image and vision computing,1998,16(1):75-87.
[9]HWANG W J,WEN K W.Fast KNN classigication algorithm based on partial distance search[J].Electron letters,1998,34(21):2062-2063.
[10]胥斌.圖像多尺度不變特征研究及其應(yīng)用[D].重慶:重慶大學(xué),2013.
[11]BAY H,ESS A,TUYTELAARS T,et al.SURF: Speeded Up Robust Features[J].Computer Vision and Image Understanding (CVIU),2008,110(3):346-359.
[12]紀(jì)利娥,楊風(fēng)暴,王志社,等.圖像配準(zhǔn)中特征點(diǎn)檢測(cè)算法的探討[J].電視技術(shù),2013,37(19):27-31.
[13]CIVERA J,GRASA O G,DAVISON A J,et al.1-Point RANSAC for extended Kalman filtering:Application to real-time structure from motion and visual odometry[J].Journal of field robotics,2010,27(5):609-631.
[14]LOWE D G.Distinctive image features from scale-invariant keypoints[J].International journal of computer vision,2004,60(2):91-110.
呂丹婭(1990— ),女,碩士生,主研計(jì)算機(jī)視覺、圖像處理等;
姚劍敏(1978— ),博士,副研究員,碩士生導(dǎo)師,本文通信作者,主要從事圖像處理、模式識(shí)別、三維顯示技術(shù)等研究;
郭太良(1963— ),研究員,博士生導(dǎo)師,主要從事圖像顯示等研究。
責(zé)任編輯:閆雯雯
Improved ORB algorithm for monocular vision SLAM
Lü Danya, YAO Jianmin, GUO Tailiang
(CollegeofPhysicsandInformationEngineering,F(xiàn)uzhouUniversity,F(xiàn)uzhou350116,China)
In order to make traditional ORB algorithm suitable for the monocular visual SLAM, an improved ORB algorithm is proposed, combines the traditional ORB with SURF by added the scale space to the traditional ORB, and predicts possible position range of feature points according to the movement of the robot to avoid calculation in the global scope. Experiments show that the improved ORB algorithm can significantly improve the correct matching rate and has good scale invariance. The improved ORB algorithm effectively reduces the operation time, the average time of which is 14 ms, and processing speed is about 1.3 times of the traditional ORB, 10 times of SURF, 26 times of SIFT, it is very suitable for the monocular vision SLAM.
Simultaneous Localization and Map-building; feature matching; improved ORB algorithm; scale invariance
呂丹婭,姚劍敏,郭太良. 改進(jìn)ORB算法在單目視覺SLAM特征匹配中的應(yīng)用[J]. 電視技術(shù),2016,40(11):107-111. Lü D Y, YAO J M, GUO T L. Improved ORB algorithm for monocular vision SLAM [J]. Video engineering,2016,40(11):107-111.
TP391
A
10.16280/j.videoe.2016.11.022
國家“863”重大專項(xiàng)(2013AA030601);國家自然科學(xué)基金項(xiàng)目(61101169)
2016-01-18