亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進FAST特征檢測的ORB?SLAM方法

        2018-03-13 20:49:14公維思周紹磊吳修振劉剛
        現(xiàn)代電子技術 2018年6期

        公維思+周紹磊+吳修振+劉剛

        摘 要: 針對視覺ORB?SLAM中的特征點提取過程,提出一種改進的FAST特征點檢測方法。在ORB?SLAM過程中,由于光照和周圍環(huán)境信息的不確定性,當環(huán)境對比度下降時,易造成特征點數(shù)量急劇減少從而造成SLAM過程的失敗。針對上述問題,基于圖像的對比度信息,提出一種自適應閾值的FAST特征點檢測方法,利用圖像的對比度自適應調整特征點檢測時的閾值,當圖像對比度下降時依然能夠保證特征點檢測的數(shù)量,大大提高了ORB?SLAM的魯棒性和適應性。對提出的方法進行了實驗驗證,結果表明該方法切實可行,具有較高的實用價值。

        關鍵詞: ORB?SLAM; 特征點檢測; 圖像對比度; 自適應閾值; SLAM過程; 特征點提取

        中圖分類號: TN964?34; V249.329 文獻標識碼: A 文章編號: 1004?373X(2018)06?0053?04

        Abstract: Aiming at the feature point extraction process in visual ORB?SLAM, an improved FAST feature point detection method is proposed. In ORB?SLAM process, when the environment contrast degree decreases, the number of feature points tend to fall sharply due to the uncertainty of illumination and surrounding environment information, which leads to the failure of the SLAM process. To solve the above problem, an adaptive threshold based FAST feature point detection method is proposed based on image contrast degree information. Image contrast degree is used for adaptive adjustment of feature point detection thresholds so that the number of feature points for detection can be guaranteed when image contrast degree decreases, and the robustness and adaptability of ORB?SLAM can be improved greatly. An experiment was carried out to verify the proposed method. The results show that the method is feasible and has a high practical value.

        Keywords: ORB?SLAM; feature point detection; image contrast degree; adaptive threshold; SLAM process; feature point extraction

        0 引 言

        近年來,隨著機器人技術的發(fā)展,基于視覺的同時定位與地圖構建技術(Visual Simultaneous Localization and Mapping, V?SLAM)也得到了越來越高的重視。V?SLAM是指機器人在未知環(huán)境中通過自身攜帶的視覺傳感器信息確定當前空間位置,并建立所處空間的環(huán)境模型,是實現(xiàn)機器人任務規(guī)劃、導航、控制等自主運動的前提之一[1]。

        V?SLAM的典型應用就是在無人機中,無人機可以攜帶視覺傳感器,通過視覺傳感器獲取當前空間的信息,實時向地面?zhèn)鬏敂?shù)據(jù),進行當前空間的地圖構建。V?SLAM還可以應用在導航系統(tǒng)中,與慣導系統(tǒng)結合,解決衛(wèi)星導航系統(tǒng)信號失效場合下的載體導航問題。

        如今最典型的視覺導航為ORB?VSLAM,本文基于ORB?SLAM特征點,提出一種具有自適應技術的特征點檢測算法。

        1 ORB?SLAM整體流程及特征點提取方法

        ORB?SLAM技術[2]由Raul Mur?Artal等人提出,一經(jīng)提出,在機器視覺這一范圍領域產(chǎn)生很大影響。該算法共分為三個線程:跟蹤、構圖、閉環(huán)檢測。在整個SLAM過程中,使用的是ORB特征點檢測法,并且采用Bundle adjustment(BA)[3?5]對跟蹤、構圖和閉環(huán)檢測三個過程進行非線性迭代優(yōu)化,從而得到精確的相機位置信息和三維地圖點。整體流程如圖1所示。

        在相機采集到圖像之后,首先進行特征點提取。特征點提取可以把圖像信息轉換為特征點信息。如圖2所示,預處理過程共包括三個階段:特征點的檢測識別過程,解決的是特征點在哪兒的問題;特征點的描述表達過程,解決的是特征點是什么樣的問題;特征點的分類匹配過程,解決的是特征點屬于哪兒的問題。

        圖像預處理過程的核心是ORB特征點檢測技術,ORB特征點[6?8]采用具有方向信息的FAST檢測算法(Oriented Features from Accelerated Segment Test)。FAST特征點檢測方法(Feature from Accelerated Segment Test)[9?10]由Rosten提出,通過比較像素點與周圍鄰域內(nèi)像素點灰度值的大小判斷是否為特征點,并且通過求解特征點周圍的灰度梯度來表征特征點的方向,得到特征點的像素坐標和方向角。此過程簡單易于實現(xiàn),并且具有較高的效率。但在實際環(huán)境中,由于光照和周圍環(huán)境信息的不確定性,當環(huán)境對比度下降時,會易造成特征點數(shù)量急劇減少從而造成SLAM過程的失敗。endprint

        2 改進的FAST特征點檢測方法

        基于上述問題,本文提出一種自適應閾值的FAST特征點檢測方法。如圖3所示,設待檢測點為P,以P為圓心,半徑為3的像素點構成一個Bresenham圓,在圓邊上取16個像素點,設定灰度閾值[t>0],比較圓上每一個像素點[x]的灰度值[I(x)]與[p]的灰度值[I(p)]的大小,共有三種情況:

        情況1:[I(x)-I(p)>t],[x]點比[p]點亮;

        情況2:[I(x)-I(p)<-t],[x]點比[p]點暗;

        情況3:[-tI(x)-I(p)t],[x]點和[p]點亮度相似。

        首先,定義一個閾值,首先計算[p(1)],[p(9)]與中心的像素差,若它們絕對值都小于閾值,則[p]點不可能是特征點,否則當作候選點。

        若[p]是候選點,則計算[p(1)],[p(9)],[p(5)],[p(13)]與中心[p]的像素差,若它們的絕對值有至少三個超過閾值,則當作候選點,再進行下一步考察,否則否定該點。

        若[p]是候選點,則計算[p(1)]到[p(16)]這16個點與中心[p]的像素差,若它們有至少12個超過閾值,則確定為候選點。

        對圖像進行極大值抑制。計算特征點算出的FAST得分值,判斷一特征點[p]為中心的一個鄰域內(nèi),若有多個特征點,則判斷每個特征點的得分值(16個點與中心差值的絕對值總和),若[p]是鄰域內(nèi)所有特征點中相應最大的,則保留,否則,抑制。若鄰域內(nèi)只有一個特征點,則保留該特征點。

        在以p點為圓心,半徑為3像素的圓形圖像塊內(nèi),定義[x,y]為圖像塊內(nèi)的點相對于圓心的相對坐標,此點處的灰度值為[Ix,y],則此圓形區(qū)域pq的階矩表示為:

        [mpq=x,yxpyqIx,y] (1)

        強度中心表示為:

        [C=m10m00,m01m00] (2)

        則ORB特征點的方向角定義為:

        [θ=arctan m01m10] (3)

        在檢測FAST特征點時,所使用的灰度差閾值[t]是固定的。當光照強度及周圍環(huán)境對比度變化時,會使所檢測到的特征點數(shù)量減少,從而導致跟蹤失敗及實驗不準確等結果。根據(jù)以上問題,本文提出一種自適應閾值的計算方法,首先算出圖像的對比度[C]:

        [C=δδ(i,j)2Pδ(i,j)] (4)

        式中:[δ(i,j)=i-j],即相鄰像素間灰度差;[Pδ(i,j)]為相鄰像素間的灰度差為[δ]的像素分布概率。

        根據(jù)求出的圖像對比度[C],設計自適應閾值[t]:

        [t=αC] (5)

        式中,[α]為自適應參數(shù),取值根據(jù)實驗數(shù)據(jù)確定。

        改進之后的FAST檢測算法整體流程圖如圖4所示。

        3 實驗驗證分析

        3.1 實驗平臺搭載

        首先搭載實驗平臺,對改進的ORB?SLAM進行實驗驗證,并對實驗結果進行對比。試驗相機如圖5所示。

        試驗所用相機為ZED雙目立體相機,在720P模式下,分辨率為[2 560×720],測量深度為0.5~20 m,能夠捕捉[110°]的廣角視頻。

        3.2 試驗過程

        在煙臺市體育公園進行數(shù)據(jù)收集,共行進三圈,每一圈路線大致相同,保證實驗數(shù)據(jù)的不變性,試驗過程中雙目相機對周圍環(huán)境進行數(shù)據(jù)采集。

        3.3 試驗結果分析

        數(shù)據(jù)采集完成后,使用改進的ORB?SLAM算法對數(shù)據(jù)進行離線處理,得到的整體ORB?SLAM結果如圖6所示,其中,黑色和紅色代表存儲的地圖點,藍色表示存儲的關鍵幀,綠色代表軌跡。

        使用兩種算法分別運行100次采集到的實驗數(shù)據(jù),比較使用原ORB?SLAM與改進之后的ORB?SLAM成功構圖的概率,如表1所示。

        從表1可以看出,分別運行100次程序,原ORB?SLAM算法成功構圖的次數(shù)只有70次,而改進之后的算法成功構圖的次數(shù)為86次。通過成功的概率可知,改進之后的算法由于增加了識別出的特征點的數(shù)量,進而增加了成功構圖的概率。取同一幀試驗數(shù)據(jù),對于同一關鍵幀數(shù)據(jù),原FAST特征點識別方法與改進之后的FAST特征點識別方法識別出的ORB特征點如圖7和圖8所示,其中,綠色代表識別出的特征點。

        從圖7和圖8中可以看出,對于同一關鍵幀,在光照強度較大時,改進之后的算法明顯適應性更強,相比于原算法多檢測出了約30%的特征點。因此,該算法切實有效,提高了檢測出的特征點數(shù)量,進而提高了整個ORB?SLAM系統(tǒng)的魯棒性。

        4 結 論

        本文針對ORB?SLAM中特征點檢測的問題,提出一種基于圖像對比度的自適應閾值算法,該算法根據(jù)圖像的對比度,設計自適應閾值[t]。實驗結果表明,該方法大大提高了在光照強度很大時檢測出的特征點數(shù)量,使ORB?SLAM的整體流程具有更高的定位精度和魯棒性。所以,基于改進的FAST特征點檢測ORB?SLAM方法具有較大的實用價值。

        參考文獻

        [1] 艾青林,余杰,胡克用,等.基于ORB關鍵幀匹配算法的機器人SLAM實現(xiàn)[J].機電工程,2016,33(5):513?514.

        AI Qinglin, YU Jie, HU Keyong, et al. Realization of SLAM based on improved ORB keyframe detection and matching for robot [J]. Journal of mechanical & electrical engineering, 2016, 33(5): 513?514.endprint

        [2] MUR?ARTAL R, MONTIEL J M M, TARD?S J D. ORB?SLAM: a versatile and accurate monocular SLAM system [J]. IEEE transactions on robotics, 2017, 31(5): 1147?1163.

        [3] LOURAKIS M I A, ARGYROS A A. SBA: a software package for generic sparse bundle adjustment [J]. ACM transactions on mathematical software, 2009, 36(1): 1?30.

        [4] OLSON E, LEONARD J, TELLER S. Fast iterative optimization of pose graphs with poor initial estimates [C]// Proceedings of IEEE International Conference on Robotics & Automation. Orlando: IEEE, 2006: 2262?2269.

        [5] JEONG Y, NIST?R D, STEEDLY D, et al. Pushing the envelope of modern methods for bundle adjustment [J]. IEEE transactions on pattern analysis and machine intelligence, 2012, 34(8): 1605?1617.

        [6] RUBLEE E, RABAUD V, KONOLIGE K, et al. ORB: an efficient alternative to SIFT or SURF [C]// Proceedings of IEEE International Conference on Computer Vision. Barcelona: IEEE, 2011: 2564?2571.

        [7] MUR?ARTAL R, TARD?S J D. Fast relocalisation and loop closing in keyframe?based SLAM [C]// Proceedings of IEEE International Conference on Robotics and Automation. Hong Kong: IEEE, 2014: 846?853.

        [8] MUR?ARTAL R, TARD?S J D. Probabilistic semi?dense mapping from highly accurate feature?based monocular SLAM [C]// Proceedings of Conference on Robotics: Science and Systems. [S.l.: s.n.], 2015: 1?9.

        [9] ROSEN E, PORTER R, DRUMMOND T. Fast and better: a machine learning approach to corner detection [J]. IEEE transactions on pattern analysis and machine intelligence, 2010, 32(1): 105?119.

        [10] ROSTEN E, DRUMMOND T. Machine learning for high speed corner detection [C]// Proceedings of European Conference on Computer Vision. Berlin: Springer, 2006: 430?443.endprint

        好男人视频在线视频| 日本a爱视频二区三区| 中文不卡视频| 日本肥老熟妇在线观看| 国产成人精品视频网站| 日本高清在线播放一区二区| 无套内射在线无码播放| 成人欧美一区二区三区1314| 热99精品| 国产av区亚洲av毛片| 国产乱码一区二区三区精品| 国产精品爽爽v在线观看无码| 人人看人人做人人爱精品| 亚洲色图在线视频免费观看| 中文av字幕一区二区三区| 一区二区三区婷婷在线| 国产小屁孩cao大人| 亚洲成人免费久久av| 一二三区无线乱码中文在线| 免费拍拍拍网站| 色欲av一区二区久久精品| 国产亚洲激情av一区二区| 午夜少妇高潮在线观看| 亚洲av无码xxx麻豆艾秋| 久久久亚洲经典视频| 国产精品亚洲最新地址| 岛国精品一区二区三区| 国产精品美女自在线观看| 国精产品一区一区三区有限在线| 在线精品国产一区二区三区| 亚洲精品成AV无在线观看| 日本美女性亚洲精品黄色| 亚洲av不卡无码国产| 小12箩利洗澡无码视频网站| 国产强伦姧在线观看| 国内自拍偷国视频系列| 亚洲国产欧美日韩欧美特级| 亚洲av无码成人网站www| 亚洲精品久久麻豆蜜桃| 亚洲av无码一区二区三区网址| 黄色成人网站免费无码av|