亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        機(jī)器人SLAM的特征點(diǎn)實(shí)時(shí)提取改進(jìn)

        2022-06-23 11:00:34陸佳嘉柯福陽余曉棟董一鳴
        關(guān)鍵詞:實(shí)時(shí)性位姿軌跡

        陸佳嘉,柯福陽,余曉棟,董一鳴

        (1.南京信息工程大學(xué) 自動(dòng)化學(xué)院,江蘇 南京 210031;2.南京信息工程大學(xué) 遙感與測(cè)繪學(xué)院,江蘇 南京 210031;3.南京信息工程大學(xué) 無錫研究院,江蘇 無錫 214000;4.無錫學(xué)院 物聯(lián)網(wǎng)學(xué)院,江蘇 無錫 214000)

        0 引 言

        近20年來,視覺SLAM(simultaneous localization and mapping)始終是實(shí)現(xiàn)機(jī)器人真正智能化的研究關(guān)鍵[1],SLAM系統(tǒng)追求成本低、計(jì)算速度快,以及實(shí)時(shí)性和穩(wěn)定性。早期的SLAM技術(shù)多是基于單目相機(jī)和雙目相機(jī),雖然成本較低,但是存在尺度不一、初始化不準(zhǔn)、視角受限制等問題。2010年,微軟公司推出了第一代RGB_D相機(jī),能夠直接獲取圖像的深度信息,避免了初始化帶來的問題,加快了建模的速度,因此RGB_D相機(jī)得到了研究者的青睞[2]。Labbe M提出的RTAB_MAP算法是基于RGB_D相機(jī)的經(jīng)典算法,包含SLAM系統(tǒng)的前端以及后端優(yōu)化,同時(shí)可以構(gòu)建多種類型的地圖。2019年,Labbe M團(tuán)隊(duì)更新的RTAB_MAP算法,有效解決定位初始化問題[3]。2017年,ORB_SLAM2[4]被提出,將SLAM分成多線程進(jìn)行單獨(dú)工作,實(shí)現(xiàn)了對(duì)RGB_D相機(jī)的支持,并且可以在保證精度的同時(shí)實(shí)時(shí)運(yùn)行,系統(tǒng)魯棒性良好。2019年,PL_SLAM[5]被提出,PL_SLAM在SLAM系統(tǒng)里加入了線特征,在特征點(diǎn)少的環(huán)境中保持了系統(tǒng)的魯棒性。

        目前有很多完整且成熟的SLAM系統(tǒng),其應(yīng)用的場(chǎng)景多是穩(wěn)定,光照環(huán)境好,無干擾的優(yōu)良環(huán)境,但是現(xiàn)實(shí)的場(chǎng)景多為復(fù)雜的場(chǎng)景,導(dǎo)致系統(tǒng)的實(shí)時(shí)性和穩(wěn)定性差,所以能夠在已有的框架基礎(chǔ)上,讓SALM系統(tǒng)應(yīng)用到現(xiàn)實(shí)的環(huán)境中并保持實(shí)時(shí)性和穩(wěn)定性成為了急需解決的問題之一。

        1 系統(tǒng)框架

        本文基于特征點(diǎn)的視覺SLAM方法,對(duì)本文的系統(tǒng)進(jìn)行設(shè)計(jì),系統(tǒng)的整體框架如圖1所示??蚣苤饕ㄇ岸说囊曈X里程計(jì)設(shè)計(jì)、后端優(yōu)化、閉環(huán)檢測(cè)以及地圖創(chuàng)建。前端采用Kinect v2相機(jī)作為機(jī)器人的外部感知設(shè)備,來獲取彩色圖像以及深度圖像,同時(shí)對(duì)圖像進(jìn)行配準(zhǔn)。然后對(duì)特征點(diǎn)進(jìn)行提取匹配。目前比較常見的特征提取算法有SIFI、SURF以及ORB。其中ORB算法在提取速度以及實(shí)時(shí)性上擁有絕對(duì)的優(yōu)勢(shì)[6]。本文采用提取ORB特征來確保算法的實(shí)時(shí)性,同時(shí)針對(duì)ORB特征點(diǎn)在復(fù)雜場(chǎng)景下分布過于密集這一問題,采用劃分像素結(jié)合四叉樹的方法來合理分配特征點(diǎn),根據(jù)隨機(jī)采樣一致性的算法思想(RANSAC)對(duì)特征點(diǎn)進(jìn)行迭代式匹配和篩選,提高匹配的效率和精度。然后采用EPNP組合ICP的方法求解機(jī)器人的姿態(tài)信息坐標(biāo),同時(shí)基于詞袋模型形成系統(tǒng)的閉環(huán)檢測(cè),減少里程計(jì)位姿估計(jì)的累計(jì)誤差以及機(jī)器人受到外界不可抗因素導(dǎo)致的漂移誤差。進(jìn)一步優(yōu)化機(jī)器人的姿態(tài)信息。后端基于G2O庫構(gòu)建BA模型對(duì)獲取到的機(jī)器人的姿態(tài)信息進(jìn)行處理優(yōu)化,得到最優(yōu)的估計(jì)運(yùn)動(dòng)軌跡,最后構(gòu)建出與軌跡一致的全局三維點(diǎn)云地圖。

        圖1 系統(tǒng)框架

        2 特征點(diǎn)

        特征點(diǎn)指的是角點(diǎn)、關(guān)鍵點(diǎn)等具有特征性質(zhì)的點(diǎn),能夠在不同角度采集的圖像中具有尺度不變性的點(diǎn)。在SLAM中,特征點(diǎn)是具有豐富信息的點(diǎn),一般特征點(diǎn)出現(xiàn)在拐角以及紋理變化豐富的地方。本文采用主流的ORB算法作為本文的特征提取算法。ORB特征包含關(guān)鍵點(diǎn)和描述子,ORB計(jì)算了關(guān)鍵點(diǎn)的主方向,保證二進(jìn)制描述子的旋轉(zhuǎn)不變性,同時(shí)加快了ORB特征提取的速度。然后通過構(gòu)建圖像金字塔保證尺度不變。采用劃分像素的方法對(duì)整個(gè)圖像的像素進(jìn)行區(qū)域劃分,來提高區(qū)域提取到特征點(diǎn)的概率,讓每個(gè)有效區(qū)域的角點(diǎn)可以提取到特征點(diǎn)。利用四叉樹算法進(jìn)一步使角點(diǎn)均勻分布,避免特征點(diǎn)過于密集,減少冗余點(diǎn),提高特征提取的效率和精度。改進(jìn)的ORB特征提取算法流程如圖2所示。

        圖2 ORB特征提取流程

        2.1 改進(jìn)ORB特征提取

        為了整個(gè)圖像中的特征點(diǎn)基本均勻地分布,不會(huì)出現(xiàn)特征點(diǎn)過于密集的情況,采用劃分像素結(jié)合四叉樹的方法來達(dá)到特征點(diǎn)均勻分布的需求。

        2.1.1 對(duì)像素進(jìn)行劃分

        首先,建立圖像金字塔[7],將尺度系數(shù)設(shè)置為1.2,降采樣通過雙線差值的方式保證圖像效果,同時(shí)將圖像各層可以提取到特征點(diǎn)數(shù)量設(shè)置為1000。然后對(duì)各層圖像進(jìn)行去噪處理,如式(1),用二維高斯分布函數(shù)作為卷積核,對(duì)原圖中的每一個(gè)像素進(jìn)行卷積運(yùn)算得到新的像素值,進(jìn)而對(duì)整個(gè)圖像進(jìn)行去噪處理。在式(1)里β代表的是模糊半徑,半徑和圖像的模糊度成正比

        (1)

        得到金字塔之后,然后對(duì)每一層圖像進(jìn)行像素劃分,在每個(gè)像素尺度內(nèi)提取FAST角點(diǎn),計(jì)算像素尺度區(qū)域中可以提取特征點(diǎn)的有效區(qū)域,以及坐標(biāo)軸方向能夠確定被劃分出的最大像素?cái)?shù)量,然后確定每個(gè)像素區(qū)域的范圍大小。同時(shí)設(shè)立區(qū)域閾值,即在正常情況下提取到特征點(diǎn)的區(qū)域閾值,如果在這個(gè)閾值內(nèi)沒有提取到特征點(diǎn),那么就在有效區(qū)域內(nèi)擴(kuò)大閾值重新提取特征點(diǎn),直至區(qū)域閾值達(dá)到有效區(qū)域。這樣可以增加原本沒有特征點(diǎn)的區(qū)域提取到特征的點(diǎn)的概率,使得特征點(diǎn)在圖像中可以大致均勻分布。

        2.1.2 四叉樹均勻特征點(diǎn)

        在使用了劃分像素的方法使得特征點(diǎn)的提取概率提高以后,利用四叉樹算法來進(jìn)一步改進(jìn)特征點(diǎn)的均勻分布。四叉樹多應(yīng)用于圖像處理,數(shù)據(jù)存儲(chǔ)索引中,算法首先建立一個(gè)根節(jié)點(diǎn),然后向下劃分出4個(gè)節(jié)點(diǎn),每次劃分的4個(gè)節(jié)點(diǎn)保持與父節(jié)點(diǎn)的形狀結(jié)構(gòu)相似。同時(shí)需要保證點(diǎn)存在,才會(huì)在這個(gè)點(diǎn)的基礎(chǔ)上劃分4個(gè)子節(jié)點(diǎn),而沒有點(diǎn)的節(jié)點(diǎn)則不會(huì)劃分。使得特征點(diǎn)的過于密集的區(qū)域得到稀釋,均勻的鋪滿整個(gè)圖像。圖3是四叉樹。

        圖3 四叉樹方法

        該方法對(duì)ORB特征點(diǎn)的處理步驟順序如下:

        (1)首先將圖像有效區(qū)域里的特征點(diǎn)輸入算法中,構(gòu)建并初始化根節(jié)點(diǎn)N;

        (2)將空間區(qū)域分別分為4個(gè)節(jié)點(diǎn)區(qū)域a、b、c、d,將N中特征點(diǎn)分配到對(duì)應(yīng)的有效子節(jié)點(diǎn)區(qū)域范圍內(nèi);

        (3)計(jì)算每個(gè)子節(jié)點(diǎn)有效區(qū)域內(nèi)的特征點(diǎn)數(shù)量,若數(shù)量為零,則將該節(jié)點(diǎn)區(qū)域記錄為結(jié)束,若數(shù)量不為零則繼續(xù)劃分;

        (4)計(jì)算總共劃分的節(jié)點(diǎn)數(shù)量,若數(shù)量超過所需的特征點(diǎn),則停止劃分,同時(shí)保存節(jié)點(diǎn)區(qū)域內(nèi)響應(yīng)值最大的特征點(diǎn);若比需要的特征點(diǎn)少,則返回步驟(2),繼續(xù)重新劃分得到下一層。

        2.1.3 計(jì)算角點(diǎn)方向

        當(dāng)提取的特征點(diǎn)在圖像發(fā)生旋轉(zhuǎn)的情況下,同一個(gè)特征點(diǎn)就會(huì)被認(rèn)為是兩個(gè)點(diǎn),所以需要求解特征點(diǎn)的方向信息,增加特征點(diǎn)的旋轉(zhuǎn)不變性,本文通過計(jì)算像素點(diǎn)的灰度權(quán)重值來求解特征點(diǎn)的方向信息,確保旋轉(zhuǎn)不變性。設(shè)l(m,n) 為點(diǎn) (m,n) 處的亮度閾值,則該處的圖像塊矩陣為

        Nxy=∑mxnyl(m,n)

        (2)

        式中:矩陣N為 (x+y)∈(0,1,2) 階矩陣,由此就可以得出灰度質(zhì)心,即圖像的質(zhì)心為

        (3)

        對(duì)于特征點(diǎn)的方向可以用式(4)求解,公式如下

        (4)

        2.1.4 描述子

        一般的BRIEF描述子利用二進(jìn)制串碼對(duì)特征點(diǎn)進(jìn)行描述,但是不具有旋轉(zhuǎn)不變性,本文同樣利用灰度質(zhì)心法對(duì)描述子的方向進(jìn)行描述,假設(shè)將描述子對(duì)應(yīng)的τ對(duì)像素點(diǎn)的坐標(biāo)表示為 (qi,pi),i=1,2,3,…2n, 可以得到矩陣T

        (5)

        取特征點(diǎn)的方向角度為γ, 那么旋轉(zhuǎn)矩陣Rγ就可以表示成

        (6)

        最后使用旋轉(zhuǎn)矩陣Rγ對(duì)矩陣T進(jìn)行優(yōu)化處理

        Tγ=RγT

        (7)

        使用優(yōu)化過后的矩陣Tγ來對(duì)特征點(diǎn)進(jìn)行描述,保持其旋轉(zhuǎn)不變性。

        2.2 特征點(diǎn)的匹配與篩選

        對(duì)于本文的實(shí)驗(yàn)場(chǎng)景,對(duì)特征匹配的精度和運(yùn)行速度都有一定的要求,所以我們采用暴力匹配[8]的方法,通過求解描述子之間的漢明距離,尋找到距離最近的匹配點(diǎn)。同時(shí)我們采用隨機(jī)采樣一致性的算法思想,用多次迭代的方式進(jìn)行求解,使得匹配的準(zhǔn)確度的概率逐次變大。

        3 機(jī)器人的運(yùn)動(dòng)估計(jì)

        完成ORB特征的匹配以后,通過匹配的特征點(diǎn)信息來估計(jì)機(jī)器人的運(yùn)動(dòng),在隨機(jī)采樣(RANSAC)的基礎(chǔ)上,采用EPNP組合ICP的方法來求解機(jī)器人的位姿,傳統(tǒng)的EPNP算法求解位姿利用控制點(diǎn)進(jìn)行變換,控制點(diǎn)的方法不能充分利用整個(gè)圖像的信息,且圖像當(dāng)中存在噪聲或者匹配失誤的情況下,會(huì)導(dǎo)致誤差增大。ICP[9]的方法則需要圖像特征提前給定,一個(gè)圖像的深度如果丟失,那么ICP的方法就會(huì)失效,同時(shí)ICP的方法對(duì)初始值要求很高。結(jié)合這些問題,本文采用上文提到的改進(jìn)的特征提取匹配算法,減少誤匹配,來提高EPNP算法的魯棒性,同時(shí)將EPNP算法求解出來的位姿進(jìn)行BA優(yōu)化用來當(dāng)作ICP的初始值,然后求解機(jī)器人的位姿。

        為了避免初始化帶來的麻煩,直接使用深度相機(jī)中的深度圖,作為特征點(diǎn)的3D位置,然后將世界坐標(biāo)系下的3D坐標(biāo)用引入的4個(gè)控制點(diǎn)來表達(dá),且控制點(diǎn)在互不共面的平面內(nèi)。EPNP算法的思想是把這4個(gè)控制點(diǎn)在機(jī)器人坐標(biāo)系下的坐標(biāo)求解出來,然后根據(jù)這個(gè)坐標(biāo)求解機(jī)器人的位姿。整體的流程如下:

        (8)

        同理在相機(jī)坐標(biāo)系下

        (9)

        將選取出來的3D參考點(diǎn)中心作為控制點(diǎn)的中心

        (10)

        同時(shí)相機(jī)的外參系數(shù)是可以得到的,將相機(jī)的外參設(shè)為 [Rt], 那么在不同坐標(biāo)系中控制點(diǎn)存在以下關(guān)系

        (11)

        代入到式(8)可以得到

        (12)

        處理過后

        (13)

        這樣就可以得出任意一個(gè)3D點(diǎn)在相機(jī)坐標(biāo)系下的坐標(biāo)可以用控制點(diǎn)的坐標(biāo)來表示,這樣就可以反解出控制點(diǎn)在相機(jī)坐標(biāo)系中的坐標(biāo)。其中控制點(diǎn)的選取根據(jù)式(10),在求解出控制點(diǎn)在相機(jī)坐標(biāo)系下的坐標(biāo)以后,可以計(jì)算得出3D點(diǎn)在世界坐標(biāo)系和相機(jī)坐標(biāo)系下的質(zhì)心

        (14)

        同理可以通過任意3D點(diǎn)的質(zhì)心相對(duì)坐標(biāo),得到矩陣A,B

        (15)

        可以對(duì)矩陣H進(jìn)行SVD方法分解

        H=U∑VT

        (16)

        其中,矩陣H

        H=BTA

        (17)

        基于此就可以求解出相機(jī)的位姿

        (18)

        EPNP算法求解出相機(jī)的位姿以后,采用BA模型對(duì)獲取的結(jié)果進(jìn)行優(yōu)化,可以把優(yōu)化的結(jié)果當(dāng)作ICP的初始值,然后求解機(jī)器人的位姿,假設(shè)我們有一對(duì)已經(jīng)用本文算法匹配好的3D點(diǎn)

        T=(t1,t2…tn),S=(s1,s2…sn)

        (19)

        其中,滿足?i, 使得

        ti=Rsi+t

        (20)

        利用SVD的方法求解ICP,首先將第i對(duì)特征點(diǎn)的誤差表示為

        ei=ti-(Rsi+t)

        (21)

        然后構(gòu)建最小二乘模型Z,求出滿足誤差平方極小的旋轉(zhuǎn)和平移矩陣

        (22)

        經(jīng)過處理可以得到

        (23)

        式中:kj,k′j是T點(diǎn),S點(diǎn)的去質(zhì)心坐標(biāo),kj=ti-t,k′j=si-s。

        3.1 機(jī)器人的閉環(huán)檢測(cè)

        如果可以準(zhǔn)確識(shí)別出機(jī)器人是否運(yùn)動(dòng)到之前來過的地方,將二次來到這個(gè)地方的數(shù)據(jù)進(jìn)行閉合關(guān)聯(lián)處理,進(jìn)行位姿對(duì)比分析,那么就減小機(jī)器人多次運(yùn)動(dòng)而產(chǎn)生的累計(jì)誤差,使得估計(jì)的運(yùn)動(dòng)軌跡更加接近真實(shí)軌跡。這種方法稱為閉環(huán)檢測(cè)。本文主要基于詞袋(BOW)模型[10]進(jìn)行閉環(huán)檢測(cè),用圖像的關(guān)鍵幀得出視覺向量來解決圖像的相似度問題。該方法獨(dú)立于SLAM系統(tǒng)存在,相較于其它方法具有效率高、準(zhǔn)確率高的特點(diǎn)。

        詞袋模型首先將提取到的ORB特征點(diǎn)當(dāng)作單詞,然后將這些單詞構(gòu)造成一個(gè)詞典。由于詞典需要廣泛適用性,需要提取訓(xùn)練多場(chǎng)景的特征點(diǎn),以保證詞典的有效。其中本文的字典表示利用k叉樹算法,將特征點(diǎn)的描述子作為根節(jié)點(diǎn),然后每一層節(jié)點(diǎn)由k-means聚類來獲取中心點(diǎn),中心點(diǎn)就是子節(jié)點(diǎn),在子節(jié)點(diǎn)上重復(fù)上述步驟,對(duì)特征點(diǎn)進(jìn)行分層聚類。當(dāng)詞典構(gòu)造完成以后,就可以利用詞典計(jì)算圖像之間的相似度,即計(jì)算視覺向量相似度。公式如下

        (24)

        式中:w為相似度,s為視覺向量。

        3.2 G2O圖優(yōu)化

        圖優(yōu)化算法能夠?qū)Φ貓D上的關(guān)鍵路標(biāo)點(diǎn)以及機(jī)器人的位姿進(jìn)行處理,提高準(zhǔn)確度。為了提高系統(tǒng)的實(shí)時(shí)性以及運(yùn)算效率,本文只對(duì)位姿進(jìn)行圖優(yōu)化,由于前端的局部優(yōu)化會(huì)對(duì)路標(biāo)點(diǎn)進(jìn)行優(yōu)化,所以將路標(biāo)點(diǎn)作為已知量約束條件,只對(duì)相機(jī)的位姿進(jìn)行優(yōu)化。如圖4所示。

        圖4 優(yōu)化

        基于位姿圖優(yōu)化模型,如圖4所示,只需要構(gòu)建位姿的圖優(yōu)化,將相機(jī)的運(yùn)動(dòng)模型作為圖優(yōu)化的邊,相機(jī)的位姿節(jié)點(diǎn)作為圖優(yōu)化的頂點(diǎn)。其中位姿節(jié)點(diǎn)為待優(yōu)化變量,邊被定義成位姿節(jié)之間的運(yùn)動(dòng)估計(jì)。機(jī)器人的位姿節(jié)點(diǎn)的邊可以通過前端的特征匹配求得初始值,然后進(jìn)行優(yōu)化。SLAM可以表達(dá)成一個(gè)非線性最小二乘問題,包括運(yùn)動(dòng)方程以及觀測(cè)方程。這里利用圖優(yōu)化來表達(dá)最小二乘問題,并且基于G2O庫求得最優(yōu)解。其中機(jī)器人的位姿節(jié)點(diǎn)用四元數(shù)表示,假設(shè)位姿節(jié)點(diǎn)ξi和ξj之間有相對(duì)運(yùn)動(dòng)Δξij, 則可表示為

        (25)

        其誤差項(xiàng)可以定義位eij

        (26)

        當(dāng)應(yīng)用到全部的位姿節(jié)點(diǎn)上,則目標(biāo)函數(shù)為

        (27)

        G2O庫里將邊作為約束關(guān)系,機(jī)器人位姿作為節(jié)點(diǎn)待優(yōu)化量,當(dāng)目標(biāo)函數(shù)取得最小值時(shí),就是位姿的最優(yōu)解,從而得到機(jī)器人的最優(yōu)位姿。

        3.3 構(gòu)建三維點(diǎn)云地圖

        地圖構(gòu)建是SLAM工程的最后一個(gè)環(huán)節(jié),根據(jù)不同的工程要求可以呈現(xiàn)出不同的地圖類型,根據(jù)特征點(diǎn)法可以分為稀疏地圖、稠密地圖等。整個(gè)SLAM工程在完成機(jī)器人的運(yùn)動(dòng)軌跡估計(jì)的基礎(chǔ)上,完成對(duì)周圍環(huán)境信息的獲取,為了達(dá)到最后構(gòu)建的地圖的精度良好,在本文算法對(duì)前端的改良下,利用詞袋模型進(jìn)行閉環(huán)檢測(cè),G2O進(jìn)行圖優(yōu)化,減少誤差。把圖像處理成點(diǎn)云數(shù)據(jù),根據(jù)軌跡一致性生成點(diǎn)云地圖。根據(jù)生成的地圖可以完成高級(jí)的應(yīng)用,比如路徑規(guī)劃、導(dǎo)航等。

        4 實(shí)驗(yàn)結(jié)果分析

        本文對(duì)算法的一系列改進(jìn),為了展現(xiàn)出改進(jìn)算法的實(shí)時(shí)性和穩(wěn)定性提高,將采用公開的TUM數(shù)據(jù)集對(duì)算法的性能進(jìn)行驗(yàn)證,通過傳統(tǒng)算法和改進(jìn)后的算法進(jìn)行實(shí)驗(yàn)對(duì)比,分析改進(jìn)后算法的實(shí)時(shí)性效果以及穩(wěn)定性效果。

        4.1 實(shí)驗(yàn)平臺(tái)搭建

        本文的全部實(shí)驗(yàn)基于Ubuntu16.04版本環(huán)境下進(jìn)行開發(fā),操作系統(tǒng)基于ROS Melodic版本,硬件平臺(tái)采用4 GB版本的Jetson Nano TX2開發(fā)板,Kinectv2相機(jī)等,利用筆記本電腦通過SSH工具訪問Jetson Nano,并在室內(nèi)進(jìn)行環(huán)境下利用無人車展開實(shí)驗(yàn),最后通過TUM數(shù)據(jù)集進(jìn)行驗(yàn)證,實(shí)驗(yàn)平臺(tái)以及實(shí)驗(yàn)環(huán)境如圖5所示。

        圖5 實(shí)驗(yàn)平臺(tái)與環(huán)境

        4.2 ORB特征實(shí)驗(yàn)效果分析

        實(shí)驗(yàn)設(shè)備采用的是Kinect v2相機(jī),利用張友正的棋盤法對(duì)相機(jī)進(jìn)行標(biāo)定,得到相機(jī)的內(nèi)參

        (28)

        圖6是使用本文改進(jìn)的ORB特征提取算法和傳統(tǒng)算法的對(duì)比,很明顯,經(jīng)過本文的算法改進(jìn)以后,使得部分區(qū)域可以提取出特征點(diǎn),解決了特征點(diǎn)分布過于密集的情況,同時(shí)能夠基本保持均勻分布在圖像上。由此可以得出,本文算法在ORB特征提取方面優(yōu)于傳統(tǒng)的ORB提取算法,并且效果良好。

        圖6 特征提取對(duì)比

        進(jìn)行實(shí)驗(yàn)前,首先要對(duì)相機(jī)進(jìn)行測(cè)試,測(cè)試結(jié)果如圖7所示。同時(shí)將對(duì)從Kinect v2相機(jī)獲取出來的深度圖和原始圖像進(jìn)行配準(zhǔn)實(shí)驗(yàn),減少外部因素對(duì)實(shí)驗(yàn)結(jié)果的影響,保證整個(gè)系統(tǒng)的精度,按照傳統(tǒng)深度圖和原始圖像對(duì)齊的方法,會(huì)出現(xiàn)深度圖和原始圖的空間坐標(biāo)沒有對(duì)齊,所以本文采用先對(duì)深度圖和原始圖進(jìn)行配準(zhǔn),然后在進(jìn)行對(duì)齊,這樣可以讓深度圖和原始圖的空間點(diǎn)一致,減少外部誤差。相機(jī)的深度圖和原始圖的配準(zhǔn)效果如圖8所示。其中圖8(a)是原始圖像,圖8(b)是在沒有配準(zhǔn)前獲取的深度圖,很明顯有較大的誤差。圖8(c)是在配準(zhǔn)以后獲取的深度圖,圖像的對(duì)齊效果,明顯優(yōu)于沒有配準(zhǔn)的,結(jié)果表明相機(jī)的效果可以達(dá)到算法的要求。

        圖7 相機(jī)測(cè)試

        圖8 相機(jī)圖像配準(zhǔn)實(shí)驗(yàn)

        在特征點(diǎn)提取出來以后,需要進(jìn)行特征點(diǎn)的匹配,原始的算法經(jīng)常會(huì)出現(xiàn)大量的的誤匹配,采用本文的算法可以減少誤匹配,提高算法的準(zhǔn)確度,圖9是基于本文算法的實(shí)驗(yàn)效果對(duì)比,其中圖9(a)是算法沒有改進(jìn)前的效果,圖9(b)是改進(jìn)過后的效果。

        圖9 特征匹配算法改進(jìn)效果對(duì)比

        4.3 算法實(shí)時(shí)穩(wěn)定性以及誤差分析

        為了對(duì)改良后算法的實(shí)時(shí)性和穩(wěn)定性進(jìn)行定量分析,采集前1000幀圖像,對(duì)第100幀、第300幀、第500幀、第750幀和第1000幀進(jìn)行采樣,通過深度學(xué)習(xí)的方法對(duì)各個(gè)算法進(jìn)行定性分析,得到本文改良后的算法的實(shí)時(shí)性和穩(wěn)定性。分析結(jié)果見表1、表2。從表1、表2可以得知在ORB算法組合光流法的情況下,算法的實(shí)時(shí)性能最優(yōu),但是算法的穩(wěn)定性在急速下降,SURF算法在穩(wěn)定性方面很好,但是無法保持實(shí)時(shí)性,本文的算法在保持算法實(shí)時(shí)性的同時(shí)也保證了算法的穩(wěn)定性。因此在本實(shí)驗(yàn)環(huán)境下,本文算法的穩(wěn)定性和實(shí)時(shí)性得到了較好的改進(jìn)。

        表1 實(shí)時(shí)性指標(biāo)比對(duì)/fps

        絕對(duì)姿態(tài)誤差(absolute posture error,APE)指標(biāo)是評(píng)價(jià)SLAM算法的重要工具標(biāo)準(zhǔn),利用TUM數(shù)據(jù)集對(duì)本文提出算法和傳統(tǒng)的RGB_D SLAMv2算法進(jìn)行比較,驗(yàn)證本文算法的優(yōu)良性。表3是本文算法在均方根誤差rmse、平均值誤差mean以及標(biāo)準(zhǔn)差std方面和傳統(tǒng)算法在同一數(shù)據(jù)集下的測(cè)試結(jié)果。如表3所示本文改進(jìn)的算法在不同的數(shù)據(jù)序列測(cè)試下的誤差明顯優(yōu)于傳統(tǒng)的算法,可以得知本文算法性能具有更好的定位精度。

        表2 穩(wěn)定性指標(biāo)比對(duì)/%

        表3 算法誤差對(duì)比/m

        SLAM的最終結(jié)果是構(gòu)建實(shí)時(shí)地圖,構(gòu)圖中,預(yù)估軌跡和真實(shí)軌跡對(duì)比的誤差大小能夠很好地反映出SLAM結(jié)果的好壞,軌跡誤差的對(duì)比是通過建立評(píng)估文件夾,將不同算法生成的軌跡文件和數(shù)據(jù)集里的groundtruth利用evo評(píng)測(cè)工具進(jìn)行評(píng)估,并且可以將軌跡可視化表達(dá),自動(dòng)生成均值、方差、標(biāo)準(zhǔn)差等信息對(duì)比圖。其中APE指標(biāo)是絕對(duì)軌跡誤差,將位姿真實(shí)值和估計(jì)值按照時(shí)間戳對(duì)齊,求解出位姿之間的誤差,并最終以圖表的形式輸出。圖10是估計(jì)軌跡與真實(shí)軌跡的對(duì)比,其中圖10(a)是利用fr1/xyz數(shù)據(jù)序列,其中實(shí)線代表的是真實(shí)軌跡groundtruth,虛線表示的是算法估計(jì)的軌跡KeyFrameTrajectory。圖10(b)是機(jī)器人在x、y、z方向上的軌跡對(duì)比。其中可以發(fā)現(xiàn)估計(jì)的軌跡與真實(shí)軌跡誤差較小,幾乎是重合。圖11(a)是利用fr3/warking_xyz數(shù)據(jù)序列求出的RGB_D SLAMv2的機(jī)器人軌跡誤差對(duì)比,圖11(b)是本文算法求出的機(jī)器人軌跡誤差對(duì)比。其中熱力條表示誤差大小由下往上逐漸變大,虛線表示的是真值,其它線條表示估計(jì)出來的計(jì)算值。圖12是本文算法和RGB_D SLAMv2算法根據(jù)APE指標(biāo)評(píng)價(jià)的絕對(duì)軌跡誤差分析,其中圖12(a)代表RGB_D SLAMv2算法,圖12(b)代表本文的算法。

        4.4 構(gòu)建點(diǎn)云地圖

        利用TUM數(shù)據(jù)集對(duì)傳統(tǒng)算法和改進(jìn)的算法構(gòu)建的點(diǎn)云地圖進(jìn)行對(duì)比,圖13是采用fr1/xyz數(shù)據(jù)序列進(jìn)行建圖,其中圖13(a)是傳統(tǒng)算法的建圖效果,圖13(b)是改進(jìn)后的建圖效果。圖14是采用Kinect v2相機(jī)在實(shí)驗(yàn)室內(nèi)的建圖效果,圖14(a)是傳統(tǒng)算法的效果,圖14(b)是改進(jìn)后的效果。結(jié)果表明在室內(nèi)靜態(tài)信息環(huán)境,以及環(huán)境復(fù)雜度不高的情況下改進(jìn)后的算法比傳統(tǒng)算法構(gòu)建的地圖有更好的三維效果。

        5 結(jié)束語

        本文為了改善SLAM系統(tǒng)的實(shí)時(shí)性和穩(wěn)定性問題,在系統(tǒng)的前端ORB特征提取部分以及SLAM系統(tǒng)后端做出了相應(yīng)的改進(jìn),能夠讓特征點(diǎn)均勻分布于整個(gè)圖像,同時(shí)減少了累計(jì)誤差,提升估計(jì)位姿精度,構(gòu)建軌跡一致地圖。在算法的實(shí)時(shí)性和穩(wěn)定性方面均有提升,系統(tǒng)的魯棒性良好。但是,在更加復(fù)雜的場(chǎng)景下系統(tǒng)魯棒性能還有待提升,后期可以考慮加入IMU等提升定位精度。同時(shí)當(dāng)環(huán)境信息中存在動(dòng)態(tài)信息,可以考慮結(jié)合YOLO目標(biāo)檢測(cè)器,對(duì)動(dòng)態(tài)目標(biāo)進(jìn)行剔除,用來提高算法的魯棒性。

        圖10 真實(shí)軌跡和預(yù)估軌跡對(duì)比

        圖11 不同算法軌跡誤差對(duì)比

        圖12 APE指標(biāo)誤差分析

        圖13 數(shù)據(jù)集建圖效果對(duì)比

        圖14 實(shí)驗(yàn)室建圖效果對(duì)比

        猜你喜歡
        實(shí)時(shí)性位姿軌跡
        基于規(guī)則實(shí)時(shí)性的端云動(dòng)態(tài)分配方法研究
        軌跡
        軌跡
        軌跡
        基于虛擬局域網(wǎng)的智能變電站通信網(wǎng)絡(luò)實(shí)時(shí)性仿真
        進(jìn)化的軌跡(一)——進(jìn)化,無盡的適應(yīng)
        中國三峽(2017年2期)2017-06-09 08:15:29
        航空電子AFDX與AVB傳輸實(shí)時(shí)性抗干擾對(duì)比
        基于共面直線迭代加權(quán)最小二乘的相機(jī)位姿估計(jì)
        基于CAD模型的單目六自由度位姿測(cè)量
        小型四旋翼飛行器位姿建模及其仿真
        亚洲 日韩 激情 无码 中出 | 人妻色综合网站| 精品无码国产污污污免费网站| 99国产精品无码专区| 亚洲人妻御姐中文字幕| 日韩av无码一区二区三区| 99在线精品视频在线观看| 国产成人一区二区三区在线观看 | 亚洲国产欲色有一二欲色| 91视色国内揄拍国内精品人妻| 国产h视频在线观看| 免费的毛片视频| 久久国产亚洲av高清色| 日本av一区二区三区视频| 97人妻碰碰视频免费上线| 亚州无线国产2021| 少妇特殊按摩高潮对白| 亚洲乱码无人区卡1卡2卡3| 亚洲国产精品久久亚洲精品| 91精品国产综合久久青草| 91精品国产高清久久福利| 国产成人精品一区二区三区| 国产精品麻花传媒二三区别| 激情综合网缴情五月天| 久久综合久久综合久久| 中文字幕aⅴ人妻一区二区| 欧美黄色免费看| 国产av无码专区亚洲aⅴ| 91熟女av一区二区在线| 色综合久久网| 亚洲国产另类久久久精品黑人| 欧美精品久久久久久三级| 亚洲最大av在线精品国产| 欧美亚洲国产一区二区三区| 屁屁影院一区二区三区| 成人全视频在线观看免费播放| 亚洲av无码专区国产乱码4se| 亚洲精品无码久久久久| 亚洲成AV人片在一线观看| 国产高清在线精品一区不卡| 波多野结衣中文字幕一区二区三区|