亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于平面匹配與目標(biāo)檢測(cè)的視覺(jué)SLAM算法

        2024-04-23 04:35:14李一天隗寒冰王桂平
        關(guān)鍵詞:建圖關(guān)鍵幀位姿

        婁 路,張 忍,李一天,隗寒冰,王桂平

        (1.重慶交通大學(xué) 信息科學(xué)與工程學(xué)院,重慶 400074;2.重慶交通大學(xué) 機(jī)電與車輛工程學(xué)院,重慶 400074)

        0 引 言

        同時(shí)定位與建圖(simultaneous localization and mapping,SLAM)由SMITH等[1]提出,而視覺(jué)SLAM(visual-simultaneous localization and mapping,V-SLAM)是指用相機(jī)作為傳感器,在未知環(huán)境中估計(jì)相機(jī)位姿的同時(shí)建立周圍環(huán)境模型。目前V-SLAM算法逐漸成熟,MUR-ARTAL等[2]提出的ORB-SLAM2算法在ORB-SLAM[3]基礎(chǔ)上,增加雙目和RGB-D模式,能夠?qū)崿F(xiàn)地圖重用、閉環(huán)檢測(cè)和重新定位的功能。YU等[4]提出的DS-SLAM是一種適用于動(dòng)態(tài)環(huán)境中的語(yǔ)義SLAM算法,增加了語(yǔ)義分割模塊和運(yùn)動(dòng)一致性檢查模塊,雖然在動(dòng)態(tài)環(huán)境中提高了定位精度,但運(yùn)行速率下降。BESCOS等[5]提出的DynaSLAM因?yàn)樵黾恿藙?dòng)態(tài)物體檢測(cè)和背景修復(fù)功能模塊,所以導(dǎo)致檢測(cè)耗時(shí)較長(zhǎng),實(shí)時(shí)性較差。WU等[6]提出的YOLO-SLAM包含輕量級(jí)目標(biāo)檢測(cè)網(wǎng)絡(luò),并結(jié)合一種新的幾何約束方法來(lái)過(guò)濾檢測(cè)區(qū)域的動(dòng)態(tài)特征,該算法雖能達(dá)到實(shí)時(shí)效果,但無(wú)法應(yīng)對(duì)低紋理、光照不足等環(huán)境問(wèn)題。為解決V-SLAM遇到的這些問(wèn)題,一些結(jié)合點(diǎn)和線特征來(lái)估計(jì)相機(jī)運(yùn)動(dòng)的方法[7-9],或者結(jié)合點(diǎn)和面特征來(lái)估計(jì)相機(jī)位姿的方法被陸續(xù)提出來(lái)了[10-13]。

        盡管V-SLAM算法已經(jīng)取得了重大成就,但大多數(shù)算法只使用點(diǎn)特性作為特征信息,在低紋理環(huán)境下或者在光照變化場(chǎng)景下仍很難工作。本文提出一種基于單目和RGB-D視覺(jué),融合快速目標(biāo)檢測(cè)和平面匹配的三維重建SLAM算法(fastest yolo plane mapping SLAM,F(xiàn)PM-SLAM),實(shí)驗(yàn)結(jié)果表明,該算法同時(shí)滿足戶外和室內(nèi)的工作場(chǎng)景需求,并解決動(dòng)態(tài)復(fù)雜環(huán)境下可能存在的定位精度下降甚至失敗的問(wèn)題。

        1 本文算法介紹

        1.1 FPM-SLAM算法框架

        本文提出的算法利用Yolo-Fastest[14]快速檢測(cè)目標(biāo)的特性,將檢測(cè)到的運(yùn)動(dòng)物體上的特征點(diǎn)剔除掉,再結(jié)合室內(nèi)結(jié)構(gòu)化平面特性,應(yīng)對(duì)可能存在的低紋理、光線較暗等情況。FPM-SLAM算法整體流程如圖1所示,圖2是FPM-SLAM算法的可視化示意圖。FPM-SLAM算法在獲得RGB圖像和深度圖像后,同時(shí)進(jìn)行跟蹤、可移動(dòng)物體檢測(cè)、平面匹配模塊處理,主要步驟如下:

        圖1 FPM-SLAM算法整體流程

        圖2 FPM-SLAM算法流程可視化

        (1)RGB圖像傳入目標(biāo)檢測(cè)模塊,Yolo-Fastest算法檢測(cè)到感興趣區(qū)域(region of interest,ROI),并將結(jié)果傳入跟蹤模塊。

        (2)深度圖傳入平面匹配模塊,從深度圖像中恢復(fù)點(diǎn)云地圖,利用CAPE[16]方法完成平面提取,再利用幾何約束方法進(jìn)行平面匹配并將結(jié)果傳入跟蹤模塊。

        (3)跟蹤模塊首先提取ORB特征點(diǎn),然后完成軌跡地圖初始化。跟蹤模塊等待可移動(dòng)物體檢測(cè)模塊傳入的結(jié)果,剔除位于ROI上的ORB特征點(diǎn),然后將關(guān)鍵幀傳入局部建圖模塊和稠密建圖模塊。

        (4)跟蹤模塊將關(guān)鍵幀傳入稠密建圖模塊,重建三維點(diǎn)云,通過(guò)統(tǒng)計(jì)濾波剔除離群點(diǎn),體素格濾波降采樣,最后保存生成的稠密三維點(diǎn)云地圖。

        (5)局部建圖為了增加局部地圖點(diǎn)數(shù)目,關(guān)鍵幀之間會(huì)重新進(jìn)行特征匹配,生成新的地圖點(diǎn);局部BA優(yōu)化共視圖里的關(guān)鍵幀位姿和地圖點(diǎn),刪除不準(zhǔn)確的地圖點(diǎn)和冗余關(guān)鍵幀。

        (6)閉環(huán)模塊通過(guò)詞袋法檢測(cè)是否閉環(huán),計(jì)算當(dāng)前關(guān)鍵幀和閉環(huán)候選關(guān)鍵幀之間的位姿,進(jìn)行閉環(huán)矯正。

        (7)最后全局BA模塊優(yōu)化所有的關(guān)鍵幀及其地圖點(diǎn)。

        當(dāng)機(jī)器人在戶外工作時(shí),F(xiàn)PM-SLAM算法只運(yùn)行①②④⑥⑦模塊。

        1.2 目標(biāo)檢測(cè)算法

        本文算法框架中的可移動(dòng)物體檢測(cè)模塊采用了Yolo-Fastest[14]模型。Yolo-Fastest提出的超輕量級(jí)網(wǎng)絡(luò)模型,由于搭配了移動(dòng)端輕量級(jí)神經(jīng)網(wǎng)絡(luò)EfficientNet-lite[15],該模型在運(yùn)行性能方面表現(xiàn)很好,訓(xùn)練好的模型只有1.3 MB。圖3和圖4分別是EfficientNet-lite與其它網(wǎng)絡(luò)模型的預(yù)測(cè)速度對(duì)比和模型體積對(duì)比,帶五角星的線表示與之對(duì)比的骨干網(wǎng)絡(luò),從圖中可以看出EfficientNet-lite網(wǎng)絡(luò)模型體積小而且預(yù)測(cè)速度快,使用的參數(shù)和計(jì)算數(shù)量非常低,計(jì)算量?jī)H為250 mflops,在移動(dòng)終端可以達(dá)到178 fps。本文采用Yolo-Fastest訓(xùn)練Pascal VOC 2014數(shù)據(jù)集,該數(shù)據(jù)集有20個(gè)類別,訓(xùn)練環(huán)境:win11操作系統(tǒng),Intel i5 CPU,內(nèi)存16 GB,RTX3060,顯存12 GB;參數(shù)設(shè)置100 000次迭代,Batch為64。最終將訓(xùn)練模型融合到FPM-SLAM算法中,既滿足檢測(cè)精度的要求,也能夠完成對(duì)動(dòng)態(tài)場(chǎng)景下的實(shí)時(shí)性檢測(cè)。

        圖3 EfficientNet-Lite與其它網(wǎng)絡(luò)模型的預(yù)測(cè)速度對(duì)比

        圖4 EfficientNet-Lite與其它網(wǎng)絡(luò)模型體積對(duì)比

        1.3 平面匹配算法

        本文提出了一個(gè)同時(shí)使用點(diǎn)和平面的視覺(jué)SLAM算法來(lái)實(shí)現(xiàn)室內(nèi)環(huán)境下機(jī)器人相機(jī)位姿的估計(jì)。室內(nèi)環(huán)境中有許多平行和垂直的平面結(jié)構(gòu)(如桌面、地面、墻面等),使用這些結(jié)構(gòu)約束可以幫助實(shí)現(xiàn)平面的長(zhǎng)期關(guān)聯(lián),使得累積誤差更小,解決低紋理環(huán)境中定位下降問(wèn)題。采集圖像中普遍存在平面特征,與點(diǎn)特征相比,平面特征具有受測(cè)量噪聲影響小、容易提取、計(jì)算量低等優(yōu)點(diǎn)。圓柱體和平面提取(cylinder and plane extraction,CAPE)是Proen?a等[16]提出的一種快速三維點(diǎn)云平面和圓柱體提取方法,利用分割算法從稠密三維重建點(diǎn)云提取平面和圓柱體。本文采用CAPE方法只對(duì)平面特征進(jìn)行快速提取并匹配,與現(xiàn)有的方法相比,該方法更快且平面分割結(jié)果更具有一致性,平面生成匹配方法見(jiàn)表1。首先將輸入的深度圖像轉(zhuǎn)換為三維點(diǎn)云,然后將點(diǎn)云分割成平面網(wǎng)格,通過(guò)主成分分析(principal component analysis,PCA)來(lái)計(jì)算網(wǎng)格的參數(shù),再利用平面的法向量進(jìn)行直方圖的統(tǒng)計(jì),從而完成每個(gè)網(wǎng)格的平面分割,最終采用平面匹配從候選平面中計(jì)算出最佳配對(duì)平面。

        表1 平面生成匹配方法

        平面匹配階段,本算法利用RGB-D相機(jī),從深度圖像中生成點(diǎn)云來(lái)提取平面。RGB-D相機(jī)提供RGB圖像和對(duì)齊的深度圖,深度圖保存了每個(gè)像素的距離信息,所以本文使用針孔相機(jī)模型(式(1))恢復(fù)點(diǎn)云,其中 (X,Y,Z)T是三維空間中的坐標(biāo)點(diǎn),K是內(nèi)參矩陣,Z是深度值,P點(diǎn)在像素平面的像素坐標(biāo)為u=(u,v)T,(cx,cy) 表示像素坐標(biāo)系下的中心坐標(biāo),fx和fy是相機(jī)的焦距

        (1)

        由深度圖像生成的點(diǎn)云被組織起來(lái),具有類似網(wǎng)格的圖像結(jié)構(gòu),有組織的結(jié)構(gòu)可以從點(diǎn)云中快速分割平面,最終利用局部地圖中的所有點(diǎn)和平面對(duì)當(dāng)前位姿進(jìn)行了優(yōu)化。其次增加幾何約束,給定兩個(gè)Hessian平面方程A{N,d} 和B{N′,d′}, 圖5給出了CAPE算法中兩個(gè)平面匹配的幾何表示,平面匹配需要滿足以下3個(gè)條件:

        圖5 CAPE算法中兩個(gè)平面的幾何表示

        (1)平面A和平面B法向量之間的夾角arccos(N·N′) 小于一定的角度θ;

        (2)平面A和平面B各自原點(diǎn)到平面距離之間的差值 |d-d′| 小于一定閾值?;

        為了從候選平面之中選擇最佳的平面,本文選擇產(chǎn)生最小平面間距離的候選平面,則兩個(gè)平面A和平面B之間的距離如式(2)所示,其中C和C′分別是平面A和平面B上的點(diǎn)

        (2)

        1.4 稠密三維點(diǎn)云重建

        本文算法可在動(dòng)態(tài)環(huán)境下輸出稠密三維點(diǎn)云地圖,用于機(jī)器人導(dǎo)航與避障等高級(jí)應(yīng)用。三維稠密點(diǎn)云建圖從跟蹤模塊中獲得新的關(guān)鍵幀,利用關(guān)鍵幀的變換矩陣和深度圖像來(lái)生成局部點(diǎn)云,具體流程如圖6所示。

        圖6 稠密建圖流程

        (1)讀取一幀RGB圖像和深度圖像,根據(jù)相機(jī)的內(nèi)參矩陣估計(jì)相機(jī)位姿,同時(shí)跟蹤模塊會(huì)提取ORB特征點(diǎn),并判斷當(dāng)前幀是否為關(guān)鍵幀,將得到的所有關(guān)鍵幀的深度圖像轉(zhuǎn)化為3D點(diǎn)云。

        (2)統(tǒng)計(jì)濾波去除離群點(diǎn),因?yàn)殡x群點(diǎn)的存在讓局部點(diǎn)云特征的估計(jì)變得困難,可能導(dǎo)致點(diǎn)云配準(zhǔn)失敗,所以統(tǒng)計(jì)濾波會(huì)對(duì)每個(gè)點(diǎn)進(jìn)行統(tǒng)計(jì),計(jì)算每一點(diǎn)到其鄰域所有點(diǎn)的平均距離,剔除大于平均距離的鄰域點(diǎn)。如果得到的是高斯分布,可以計(jì)算出均值μ和標(biāo)準(zhǔn)差σ,標(biāo)準(zhǔn)差的倍數(shù)設(shè)置th=1, 對(duì)每個(gè)點(diǎn)的鄰域點(diǎn)的個(gè)數(shù)設(shè)置為50,那么去除鄰域距離大于μ+th*σ區(qū)間之外的點(diǎn)。

        (3)體素網(wǎng)絡(luò)濾波器降采樣,由于多視角生成的點(diǎn)云存在重疊部分,這會(huì)占用大量存儲(chǔ)空間。在體素濾波器中,用體素的重心來(lái)近似替代體素中其它點(diǎn),相當(dāng)于降采樣。本文把分辨率設(shè)成0.01,表示只存儲(chǔ)0.01×0.01×0.01格子中的一個(gè)點(diǎn),體素中的大量點(diǎn)云被刪除,僅保留體素重心的一點(diǎn),因此點(diǎn)云存儲(chǔ)空間大幅減少。

        (4)進(jìn)行點(diǎn)云拼接,得到由三維點(diǎn)組成的稠密點(diǎn)云地圖。點(diǎn)云的創(chuàng)建需要提取圖像中具有深度信息的所有像素,如果是帶顏色通道的點(diǎn)云,則需要存儲(chǔ)每個(gè)點(diǎn)云對(duì)應(yīng)的RGB值。點(diǎn)云拼接的作用是將連續(xù)幀的點(diǎn)云拼接在一起,從而創(chuàng)建出整個(gè)環(huán)境的點(diǎn)云地圖。在視覺(jué)SLAM算法中,通常將第一次出現(xiàn)的關(guān)鍵幀設(shè)置為世界坐標(biāo)系,后續(xù)生成的關(guān)鍵幀需要以首幀為參考,將對(duì)應(yīng)的點(diǎn)云轉(zhuǎn)換到世界坐標(biāo)系下,與之前的點(diǎn)云進(jìn)行拼接,從而形成完整的點(diǎn)云地圖。設(shè)點(diǎn)Pc=(Xc,Yc,Zc)T是相機(jī)坐標(biāo)系下的坐標(biāo),點(diǎn)Pw=(Xw,Yw,Zw)T為世界坐標(biāo)系下的坐標(biāo),Tcw為相機(jī)坐標(biāo)系到世界坐標(biāo)系的變換矩陣,R和t分別為旋轉(zhuǎn)和平移矩陣,具體公式如下

        (3)

        (5)如果還有數(shù)據(jù)幀輸入,則繼續(xù)(1)操作;否則保存稠密三維點(diǎn)云數(shù)據(jù)并結(jié)束。

        2 實(shí)驗(yàn)結(jié)果及分析

        本文在戶外自動(dòng)駕駛公開(kāi)數(shù)據(jù)集KITTI[17]和室內(nèi)機(jī)器人數(shù)據(jù)集TUM[18]上對(duì)FPM-SLAM算法進(jìn)行評(píng)估,并與ORB-SLAM2、DynaSLAM、DS-SLAM算法的實(shí)驗(yàn)結(jié)果進(jìn)行比較,由于跟蹤結(jié)果需要在單目中對(duì)齊和縮放,本文使用絕對(duì)軌跡誤差(absolute trajectory error,ATE)的均方根誤差(root mean square error,RMSE)來(lái)評(píng)估該算法在動(dòng)態(tài)場(chǎng)景中的定位精度。均方根誤差描述相機(jī)估計(jì)位姿與真值位姿之間的差值,RMSE值越小表示誤差越小。假設(shè)相機(jī)估計(jì)軌跡為Testi,i, 真實(shí)軌跡Tgt,i, 其中i=1,…,N, 那么相機(jī)的絕對(duì)軌跡誤差的均方根誤差計(jì)算公式如下

        (4)

        2.1 在TUM RGB-D數(shù)據(jù)集上的評(píng)估

        TUM RGB-D數(shù)據(jù)集[18]包含了微軟Kinect傳感器在室內(nèi)環(huán)境下采集的RGB和深度圖像。數(shù)據(jù)記錄了速率(30 Hz)的640×480分辨率圖像,真值軌跡是由具有8個(gè)高速跟蹤攝像機(jī)(100 Hz)的高精度運(yùn)動(dòng)捕捉系統(tǒng)獲得。在“坐著”的序列中,兩個(gè)人坐在一張桌子前聊天,做著手勢(shì),運(yùn)動(dòng)幅度很小。在“行走”序列中,兩個(gè)人繞著鏡頭走,然后坐在一張桌子前。由于該數(shù)據(jù)集一些序列是高度動(dòng)態(tài)的,它將影響傳統(tǒng)視覺(jué)SLAM算法的準(zhǔn)確性。這些序列可分為以下幾種相機(jī)運(yùn)動(dòng)類型:

        (1)halfsphere表示相機(jī)沿半徑為0.5 m的半球面軌跡移動(dòng)。

        (2)xyz表示相機(jī)沿xyz軸移動(dòng)。

        (3)rpy表示相機(jī)在俯仰角、偏航角、滾轉(zhuǎn)角上旋轉(zhuǎn)。

        (4)static表示相機(jī)保持靜止不動(dòng)。

        FPM-SLAM算法在TUM RGB-D數(shù)據(jù)集上運(yùn)行部分序列(fr3_walking_rpy、fr3_walking_xyz)實(shí)驗(yàn)結(jié)果如圖7、圖8所示。圖7(a)、圖8(a)顯示了FPM-SLAM算法提取ORB特征點(diǎn)的效果,輸入一張RGB圖像到跟蹤模塊中,當(dāng)算法檢測(cè)到可移動(dòng)物體(比如圖像中的人)時(shí),用矩形框標(biāo)記并剔除掉可移動(dòng)物體上的ORB特征點(diǎn),再對(duì)圖像完成后續(xù)工作。在圖7(b)光線較暗的環(huán)境中,算法提取的ORB特征點(diǎn)較少,容易導(dǎo)致跟蹤丟失,因此將深度圖輸入到平面匹配模塊,從深度圖中恢復(fù)點(diǎn)云并分割成多個(gè)平面(對(duì)應(yīng)圖7(b)地面匹配的兩個(gè)平面),使用平面匹配算法解決這一問(wèn)題。在圖8(b)中,辦公桌上有明顯的平面特征,算法進(jìn)行ORB特征點(diǎn)匹配時(shí),也進(jìn)行平面匹配(對(duì)應(yīng)圖8(b)桌面匹配的兩個(gè)平面)。圖7(c)、圖8(c)顯示了估計(jì)位姿和真實(shí)位姿的誤差軌跡圖,圖中虛線部分表示真值軌跡,實(shí)線部分表示相機(jī)估計(jì)位姿軌跡,柱線條越靠近下端,表示軌跡誤差越小,越靠近柱線條上端,表示絕對(duì)軌跡誤差越大。因?yàn)楸疚牡乃惴ㄐ阅茉谶@兩個(gè)序列中表現(xiàn)良好,所以是實(shí)線呈現(xiàn),虛線的真值軌跡被實(shí)線覆蓋。

        圖7 fr3_walking_rpy序列效果

        圖8 fr3_walking_xyz序列效果

        表2顯示了在TUM RGB-D數(shù)據(jù)集的6個(gè)序列中,F(xiàn)PM-SLAM分別與幾種經(jīng)典SLAM算法ORB-SLAM2、DynaSLAM、DS-SLAM的絕對(duì)軌跡均方根誤差對(duì)比結(jié)果。在表2中,前4個(gè)序列是高度動(dòng)態(tài)的環(huán)境(有人在走動(dòng)),后兩個(gè)序列是低動(dòng)態(tài)的環(huán)境(有人坐著打手勢(shì))??傊?,本文所提算法在TUM RGB-D數(shù)據(jù)集中的結(jié)果與DynaSLAM和DS-SLAM相似。當(dāng)在高動(dòng)態(tài)環(huán)境中消除動(dòng)態(tài)對(duì)象(如行人)上的特征點(diǎn)時(shí),可以提高定位精度(如fr3_w_halfsphere、fr3_w_xyz、fr3_w_pry、fr3_w_static序列)。但在低動(dòng)態(tài)環(huán)境下(如fr3_s_xyz、fr3_s_halfsphere),F(xiàn)PM-SLAM算法的軌跡誤差高于DynaSLAM算法,這是因?yàn)樵谌コ挥诳梢苿?dòng)物體區(qū)域的特征點(diǎn)后,剩余的特征點(diǎn)大部分位于較遠(yuǎn)區(qū)域,導(dǎo)致定位精度下降。

        表2 TUM數(shù)據(jù)集絕對(duì)軌跡誤差的RMSE對(duì)比/m

        FPM-SLAM算法在TUM RGB-D數(shù)據(jù)集上運(yùn)行的部分序列(fr3_walking_xyz、fr3_walking_halfsphere)建圖效果如圖9、圖10所示。圖9(a)、圖10(a)顯示未剔除移動(dòng)物體的建圖效果,由于人的走動(dòng)給建圖帶來(lái)了不便,重建的點(diǎn)云圖中有許多重影;圖9(b)、圖10(b)顯示了剔除移動(dòng)物體后的建圖效果,重影消失,重建效果較好。

        圖9 fr3_walking_xyz建圖效果

        圖10 fr3_walking_halfsphere建圖效果

        2.2 在KITTI數(shù)據(jù)集的實(shí)驗(yàn)

        KITTI數(shù)據(jù)集[17]是由德國(guó)卡爾斯魯厄理工學(xué)院和美國(guó)豐田理工學(xué)院聯(lián)合采集,用于評(píng)估自動(dòng)駕駛場(chǎng)景中的計(jì)算機(jī)視覺(jué)算法。采集車上安裝了兩臺(tái)高分辨率的彩色和灰度相機(jī),RTK-GPS提供了精確的運(yùn)動(dòng)軌跡真實(shí)值。數(shù)據(jù)集包含了中等城市街道、鄉(xiāng)村道路和高速公路上的單目、雙目相機(jī)、激光雷達(dá)、GPS等多種傳感器數(shù)據(jù),提供了11個(gè)序列帶有真值軌跡進(jìn)行測(cè)試評(píng)估。

        FPM-SLAM算法在KITTI數(shù)據(jù)集的實(shí)驗(yàn)結(jié)果如圖11、圖12所示。圖11(a)、圖12(a)顯示了FPM-SLAM算法提取ORB特征點(diǎn)的效果,輸入一張RGB圖像到跟蹤模塊中,當(dāng)算法檢測(cè)到可移動(dòng)物體(比如圖像中的車)時(shí),用矩形框標(biāo)記并剔除掉可移動(dòng)物體上的ORB特征點(diǎn),再對(duì)圖像完成后續(xù)工作。圖11(b)、圖12(b)顯示了具有多個(gè)閉環(huán)的城市環(huán)境軌跡和稀疏重建。圖11(c)、圖12(c)顯示了估計(jì)位姿和真實(shí)位姿的誤差軌跡圖,采用KITTI00和KITTI05序列對(duì)定位軌跡的精度進(jìn)行評(píng)估。

        圖11 KITTI_00序列效果

        圖12 KITTI_05序列效果

        表3顯示了3種算法在KITTI數(shù)據(jù)集的11個(gè)序列中軌跡精度的比較。從表中可以看出,本文的算法在某些情況下的結(jié)果與ORB-SLAM2和DynaSLAM相似。當(dāng)場(chǎng)景中有許多動(dòng)態(tài)物體時(shí)(如移動(dòng)的汽車、自行車和行人等),該算法可以有效地提高SLAM(如KITTI03、KITTI04、KITTI09)的定位精度。但當(dāng)大多數(shù)物體處于靜止?fàn)顟B(tài),F(xiàn)PM-SLAM比DynaSLAM有更大的誤差,因?yàn)檫@些序列(如KITTI00和KITTI02)包含許多近距離的靜止車輛,大多數(shù)ORB特征點(diǎn)在較遠(yuǎn)地區(qū),當(dāng)剔除車輛上的特征點(diǎn),這可能導(dǎo)致定位精度下降。

        表3 KITTI數(shù)據(jù)集單目絕對(duì)軌跡誤差的RMSE對(duì)比/m

        2.3 算法實(shí)時(shí)性評(píng)估

        為測(cè)試算法的實(shí)時(shí)性,本文分別選取TUM數(shù)據(jù)集“高動(dòng)態(tài)”3個(gè)序列,“低動(dòng)態(tài)”兩個(gè)序列。測(cè)試圖像分辨率設(shè)置為640×480,由于SLAM算法的跟蹤模塊對(duì)圖像實(shí)時(shí)性要求高,所以本文只對(duì)比跟蹤模塊所耗費(fèi)時(shí)間。本實(shí)驗(yàn)的環(huán)境采用Intel i5 CPU,內(nèi)存16 GB進(jìn)行測(cè)試。

        表4中DynaSLAM算法在測(cè)試序列的跟蹤模塊算法平均耗時(shí)2.667 s;本文提出的FPM-SLAM算法平均耗時(shí)29 ms。在fr3_s_halfsphere序列中,F(xiàn)PM-SLAM算法在跟蹤模塊中耗時(shí)0.026 ms,算法整體運(yùn)行速率22.20 fps;DynaSLAM算法耗時(shí)2.138 s,算法整體運(yùn)行速率0.48 fps。因此,本文算法較DynaSLAM算法有明顯提升,滿足室內(nèi)環(huán)境實(shí)時(shí)跟蹤的需求。

        表4 跟蹤模塊耗時(shí)對(duì)比/s

        3 結(jié)束語(yǔ)

        本文提出FPM-SLAM算法,結(jié)合點(diǎn)和面特征及深度學(xué)習(xí),提高視覺(jué)SLAM在低紋理和動(dòng)態(tài)復(fù)雜環(huán)境下的精確性和魯棒性。但在光照條件差的環(huán)境下,算法的魯棒性有待提升,后續(xù)將引入IMU傳感器提升算法的定位精度;在稠密三維地圖重建部分,即使經(jīng)過(guò)統(tǒng)計(jì)學(xué)濾波、體素格濾波后,最后得到的地圖文件仍然很大,后續(xù)將轉(zhuǎn)換為八叉樹(shù)地圖減少存儲(chǔ)空間。本文主要?jiǎng)?chuàng)新點(diǎn)如下:

        (1)將輕量級(jí)目標(biāo)檢測(cè)算法Yolo-Fastest融入所提出的算法中,在戶外KITTI數(shù)據(jù)集上的實(shí)驗(yàn)中,與ORB-SLAM2相比,本文的方法絕對(duì)軌跡誤差RMSE指數(shù)顯著降低66.67%;

        (2)將平面特征匹配方法融入到所提出的算法中,在室內(nèi)TUM數(shù)據(jù)集上實(shí)驗(yàn),本文的方法在大多數(shù)測(cè)試序列中效果比DS-SLAM和DynaSLAM要好,與ORB-SLAM2算法比較,絕對(duì)軌跡誤差RMSE指數(shù)顯著降低98.77%,而且運(yùn)行速度得到了有效提升,跟蹤模塊平均耗時(shí)僅29 ms;

        (3)將稠密建圖方法融入到所提算法中,剔除掉動(dòng)態(tài)物體后生成稠密三維點(diǎn)云地圖,可用于機(jī)器人后續(xù)執(zhí)行導(dǎo)航、避障和環(huán)境理解等高級(jí)應(yīng)用任務(wù)。

        猜你喜歡
        建圖關(guān)鍵幀位姿
        視覺(jué)同步定位與建圖中特征點(diǎn)匹配算法優(yōu)化
        基于三輪全向機(jī)器人的室內(nèi)建圖與導(dǎo)航
        電子制作(2019年10期)2019-06-17 11:45:06
        一種基于多傳感融合的室內(nèi)建圖和定位算法
        基于改進(jìn)關(guān)鍵幀選擇的RGB-D SLAM算法
        機(jī)器人室內(nèi)語(yǔ)義建圖中的場(chǎng)所感知方法綜述
        基于共面直線迭代加權(quán)最小二乘的相機(jī)位姿估計(jì)
        基于CAD模型的單目六自由度位姿測(cè)量
        基于相關(guān)系數(shù)的道路監(jiān)控視頻關(guān)鍵幀提取算法
        小型四旋翼飛行器位姿建模及其仿真
        基于聚散熵及運(yùn)動(dòng)目標(biāo)檢測(cè)的監(jiān)控視頻關(guān)鍵幀提取
        蜜桃精品国产一区二区三区| 亚洲国产区男人本色| 亚洲欧美日韩国产一区二区精品| 自拍偷拍一区二区三区四区| 爆操丝袜美女在线观看| 精品999日本久久久影院| 国产91中文| 免费观看成人稀缺视频在线播放| 国产亚洲精品90在线视频| 人妻色综合网站| 在线视频99| 综合久久青青草免费观看视频| 人妻中文字幕在线中文字幕| 无码国产福利av私拍| 国产91网址| 亚洲女同性恋在线播放专区| 午夜视频在线瓜伦| 少妇放荡的呻吟干柴烈火动漫| 亚洲欧美日韩中文字幕网址| 免费视频一区二区三区美女| 无码av中文一区二区三区| 人成午夜免费大片| 无码一区二区丝袜| 人妻少妇久久中中文字幕| 免费观看又色又爽又湿的视频| 在线不卡av天堂| 中文字幕一区二区三区亚洲| 天天做天天爱夜夜爽毛片毛片| 中文字幕无码av激情不卡| 欧美综合区自拍亚洲综合| 国产精品毛片极品久久| 自愉自愉产区二十四区| 国产亚洲欧美在线| 中文字幕日韩精品亚洲精品| 国产成人av一区二区三区在线观看| √天堂中文官网8在线| 激情内射亚洲一区二区| 97精品一区二区三区| 国产免费丝袜调教视频| 亚洲色拍拍噜噜噜最新网站| 偷拍一区二区三区高清视频|