胡衡 任甜甜 王玉巍 竟靜靜
摘? ?要:目前視覺傳感器廣泛用于解決移動機器人同步定位與地圖構建問題,而精確、穩(wěn)定的圖像特征點提取技術是其中一個關鍵技術。針對傳統(tǒng)SIFT特征點出現(xiàn)數(shù)目大、分布廣的現(xiàn)象,可利用局部區(qū)域顯著參數(shù)指標值來優(yōu)化場景SIFT特征點的提取,并用于單目EKF-SLM算法中完成系統(tǒng)的SLAM過程。仿真實驗結果表明,在未知室內(nèi)結構化場景中,改進后特征點的收斂速度更快,信息的不確定性更小,定位精度更高。
關鍵詞:SIFT? 單目視覺? EKF? 同步定位與地圖構建
中圖分類號:TP24? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? 文獻標識碼:A? ? ? ? ? ? ? ? ? ? ? ?文章編號:1674-098X(2020)03(b)-0103-04
基于單目視覺的未知場景中移動機器人同步定位與地圖創(chuàng)建(Simultaneous Localization and Mapping,SLAM)方法是實現(xiàn)機器人自主導航的重要研究方向之一,而如何確保從單目圖像中所提取環(huán)境特征的準確性和魯棒性是該方法的難點所在[1-4]。由于SIFT(Scale Invariant Feature Transform)特征點[5]的穩(wěn)定性較好且對噪聲的敏感度較低,故常采用SIFT特征點作為視覺SLAM問題中描述場景地圖的路標,但SIFT算法存在計算量大、復雜度高的不足,高實時性不易實現(xiàn)[6-8]。對此,本文嘗試改進已有SIFT特征提取算法以滿足場景特征點數(shù)量和空間分布及重復觀測性上的要求,實現(xiàn)快速構建高精度場景地圖的目的。
1? 改進SIFT特征提取算法
SIFT提取算法的基本過程包括:先從高斯差分尺度空間中獲取極值點,然后精準定位關鍵點并確定主方向,最終形成對應的特征描述子[9-10]。為了更好地描述場景周圍的狀況,需要在已有SIFT算法基礎上對所提取的路標特征的總數(shù)和空間分布進行適當優(yōu)化?;诖?,本文從統(tǒng)計特性角度提出了一種改進SIFT特征提取方法,它根據(jù)區(qū)域的顯著參數(shù)指標值來獲取數(shù)目穩(wěn)定且分布合理的場景特征,不僅能夠達到EKF收斂要求而且滿足描述場景所需的精度,其具體步驟如下。
(1)提取當前幀中的SIFT特征。
其中,是場景圖像中特征點的實際觀測值,是單位陣。
只要確定了和的狀態(tài)結果,場景地圖就能夠直觀地描述。若檢測出新特征,則按照2.1節(jié)和2.2節(jié)中的方式得到其狀態(tài)與方差,并增廣到系統(tǒng)全狀態(tài)估計向量中即可。
3? ?SLAM系統(tǒng)仿真結果與分析
選取對象為實驗室內(nèi)某處場景,手持單目相機在小范圍內(nèi)緩慢平滑移動,采用改進SIFT特征提取算法獲取多幀圖像序列中的特征開展EKF-SLAM離線仿真過程。如圖2(c)結果所示,在24幀時場景特征的位置估計誤差已收斂到一定范圍里。伴隨著EKF迭代總數(shù)的增加,特征信息的不確定性將不斷縮小,最終趨于估計值附近,如圖2(d)第109幀時結果所示。
場景特征的距離估計誤差值對SLAM過程中地圖創(chuàng)建精度的影響非常明顯。圖3顯示了第24幀和第109幀時對應SLAM過程中場景特征在、方向上估計誤差的變化情況。結果顯示,基于改進SIFT特征提取的單目SLAM系統(tǒng)在第109幀時所有場景特征在、方向上的估計誤差值由第24幀時的6.21cm下降至1.72cm以內(nèi)。該誤差值相對于所選用的實驗場景空間尺度而言是可以忽略的,而造成該誤差的主要原因是實驗設備測量精度有限且實驗場景較為復雜。
4? 結語
本文提出了一種基于改進SIFT特征的單目EKF-SLAM方法并進行了仿真實現(xiàn)??梢钥闯觯捎没趨^(qū)域顯著參數(shù)指標值的SIFT特征提取算法能夠使所獲取的場景特征既滿足數(shù)目有限的要求同時又表現(xiàn)出很好的空間分布特性。這些改進不但有助于加快單目SLAM系統(tǒng)的收斂速度,同時也便于更精準地構建出場景地圖。實驗仿真效果較為理想,表明了此方法能夠在單目視覺條件下較好地實現(xiàn)室內(nèi)靜態(tài)結構化場景的地圖構建目的,既節(jié)約了成本又滿足了精度。
參考文獻
[1] 楊雪夢,姚敏茹,曹凱.移動機器人SLAM關鍵問題和解決方法綜述[J].計算機系統(tǒng)應用,2018(7):1-10.
[2] 邸凱昌,萬文輝,趙紅穎,等.視覺SLAM技術的進展與應用[J].測繪學報,2018(6):770-779.
[3] 朱凱,劉華峰,夏青元.基于單目視覺的同時定位與建圖算法研究綜述[J].計算機應用研究,2018(1):1-6.
[4] 劉浩敏,章國鋒,鮑虎軍.基于單目視覺的同時定位與地圖構建方法綜述[J].計算機輔助設計與圖形學學報,2016(6):855-868.
[5] Lowe D. Distinctive image features from scale-invariant key points[J].International Journal of Computer Vision,2004,60(2):91-110.
[6] 胡為,劉興雨.基于改進SIFT算法的單目SLAM圖像匹配方法[J].光電與控制,2019,26(5):7-13.
[7] 翟雨微.基于改進的SIFT圖像匹配算法研究[D].吉林大學,2017.
[8] 梁超,王亮,劉云紅.基于擴展卡爾曼濾波的實時視覺SLAM算法[J].計算機工程,2013,39(8):231-234.
[9] 屈有佳.基于SIFT特征的關鍵幀提取算法研究[D].北京交通大學,2015.
[10]滕日.基于SIFT的局部不變特征研究[D].中國科學院研究生院,2016.
[11]王丹.室內(nèi)移動機器人單目視覺定位與建圖算法研究及實現(xiàn)[D].中國科學技術大學,2019.
[12]李月華,朱世強,于亦奇.工廠環(huán)境下改進的視覺SLAM算法[J].機器人,2019(1):95-103.
[13]Montiel A.D.J,Civera J. Unified Inverse Depth Parametrization for Monocular Slam[C].In Robotics Science and Systems Conference,2006.
[14]李帥鑫,李廣云,周陽林,等.改進的單目視覺實時定位與測圖方法[J].儀器儀表學報,2017,38(11):2849-2857.
[15]李策,魏豪左,盧冰,等.基于深度視覺的SLAM算法研究與實現(xiàn)[J].計算機工程與設計,2017(4):1062-1066.
[16]薛永勝,王姮,張華,等.EKF-SLAM算法的改進及其在Turtlebot的實現(xiàn)[J].西南科技大學學報,2015(1):54-59.