亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        動(dòng)態(tài)場(chǎng)景下基于語(yǔ)義分割的視覺(jué)SLAM 方法

        2024-03-21 08:15:22杜曉英袁慶霓齊建友王晨杜飛龍任澳
        計(jì)算機(jī)工程 2024年3期
        關(guān)鍵詞:八叉樹(shù)位姿視圖

        杜曉英,袁慶霓,2,3,齊建友,王晨,杜飛龍,任澳

        (1.貴州大學(xué)現(xiàn)代制造技術(shù)教育部重點(diǎn)實(shí)驗(yàn)室,貴州 貴陽(yáng) 550025;2.貴州大學(xué)機(jī)械工程學(xué)院,貴州 貴陽(yáng) 550025;3.貴州大學(xué)省部共建公共大數(shù)據(jù)國(guó)家重點(diǎn)實(shí)驗(yàn)室,貴州 貴陽(yáng) 550025)

        0 引言

        同步定位與建圖(SLAM)[1]能夠在未知環(huán)境下完成地圖的自主構(gòu)建與定位,是工業(yè)機(jī)器人、自主導(dǎo)航、無(wú)人駕駛等應(yīng)用中的基礎(chǔ)技術(shù)之一。目前SLAM 采用的傳感器主要是激光雷達(dá)、相機(jī)以及慣性測(cè)量單元(IMU)[2],視覺(jué)SLAM 是一種以相機(jī)作為傳感器的SLAM,如ORB-SLAM2[3]、LSD-SLAM[4]、DSO[5]等視覺(jué)SLAM 方法。

        研究視覺(jué)SLAM 在真實(shí)動(dòng)態(tài)場(chǎng)景下的性能表現(xiàn)已成為SLAM 領(lǐng)域中的趨勢(shì),如張慧娟等[6]先計(jì)算獲得變換矩陣,之后提取線特征,并對(duì)其進(jìn)行靜態(tài)權(quán)重的評(píng)估,最后通過(guò)余下的靜態(tài)特征進(jìn)行相機(jī)位姿估計(jì)完成跟蹤任務(wù)。楊世強(qiáng)等[7]對(duì)傳統(tǒng)SLAM 系統(tǒng)進(jìn)行改進(jìn),提出一種基于幾何約束的動(dòng)態(tài)目標(biāo)檢測(cè)算法。DAI等[8]采用Delaunay 三角剖分方法為地圖點(diǎn)建立與圖類似的結(jié)構(gòu),以判斷其鄰接關(guān)系,之后,將多個(gè)關(guān)鍵幀之間觀測(cè)不一樣的邊緣移除,最終,完成動(dòng)態(tài)物和靜態(tài)背景的分離。以上算法雖然可以提高動(dòng)態(tài)環(huán)境下視覺(jué)SLAM 的魯棒性,但是其構(gòu)建的地圖缺少豐富的語(yǔ)義信息。隨著深度學(xué)習(xí)的發(fā)展和計(jì)算機(jī)性能的不斷提高,目標(biāo)檢測(cè)與語(yǔ)義分割為解決動(dòng)態(tài)環(huán)境下VSLAM 算法魯棒性差的問(wèn)題提供另1 種技術(shù)路線。YU等[9]提出DS-SLAM 算法,利用語(yǔ)義分割網(wǎng)絡(luò)SegNet 和運(yùn)動(dòng)一致性檢測(cè)方法剔除動(dòng)態(tài)特征點(diǎn)。BESCOS等[10]采用實(shí)例分割網(wǎng)絡(luò)Mask R-CNN 分割先驗(yàn)動(dòng)態(tài)目標(biāo),并利用多視圖結(jié)合方法檢測(cè)潛在運(yùn)動(dòng)物。ZHONG等[11]采用目標(biāo)檢測(cè)方法SSD[12]檢測(cè)幀中的動(dòng)態(tài)物體,并對(duì)動(dòng)態(tài)特征點(diǎn)進(jìn)行運(yùn)動(dòng)概率傳播,在跟蹤線程中剔除動(dòng)態(tài)點(diǎn)。XIAO等[13]同樣使用SSD 檢驗(yàn)先驗(yàn)運(yùn)動(dòng)物體,并通過(guò)選擇性跟蹤算法處理動(dòng)態(tài)特征點(diǎn)。然而,無(wú)論是SegNet 還是Mask R-CNN[14]網(wǎng)絡(luò),都存在計(jì)算量大、運(yùn)行時(shí)間長(zhǎng)的問(wèn)題。雖然語(yǔ)義分割可以檢測(cè)動(dòng)態(tài)物體,改善動(dòng)態(tài)物體對(duì)SLAM 的影響,但是如何選擇1 個(gè)精度高且實(shí)時(shí)性較好的語(yǔ)義分割網(wǎng)絡(luò)完成動(dòng)態(tài)特征點(diǎn)的檢測(cè),是動(dòng)態(tài)SLAM 需要解決的首要問(wèn)題。

        1 算法框架

        ORB-SLAM2 是1 個(gè)開(kāi)源視覺(jué)SLAM 算法,因其良好的代碼規(guī)范性與拓展性,被眾多研究人員使用。ORB-SLAM2 主要組成部分為跟蹤線程、建圖線程、回環(huán)檢測(cè)線程。本文以O(shè)RB-SLAM2 為基礎(chǔ)框架,提出一種動(dòng)態(tài)場(chǎng)景下基于語(yǔ)義分割的視覺(jué)SLAM 方法,具體內(nèi)容包括:在視覺(jué)ORB-SLAM2 的RGB-D相機(jī)模式中,在原有的前端里程計(jì)、局部建圖、回環(huán)檢測(cè)3 個(gè)線程基礎(chǔ)上,添加語(yǔ)義分割模塊、動(dòng)態(tài)特征點(diǎn)檢測(cè)模塊和構(gòu)建語(yǔ)義八叉樹(shù)地圖的線程。視覺(jué)SLAM 總體框架如圖1 所示。首先,RGB-D 相機(jī)獲取的RGB 圖像傳入跟蹤線程,在這個(gè)線程中采用ORB 方式提取圖像特征,包含當(dāng)前幀的關(guān)鍵點(diǎn)和描述子;然后,通過(guò)語(yǔ)義分割網(wǎng)絡(luò)對(duì)RGB 圖像進(jìn)行像素級(jí)的語(yǔ)義分割,分割出具體的對(duì)象并篩選出運(yùn)動(dòng)對(duì)象,對(duì)動(dòng)態(tài)點(diǎn)進(jìn)行初步的去除,如行走的人等;最后,利用多視圖幾何檢測(cè)并去除剩余動(dòng)態(tài)物體,將剩余的靜態(tài)特征用于位姿估計(jì);最終,在語(yǔ)義地圖構(gòu)建線程中利用語(yǔ)義分割提取的語(yǔ)義信息生成點(diǎn)云地圖并轉(zhuǎn)換為八叉樹(shù)地圖。

        圖1 視覺(jué)SLAM 總體框架Fig.1 Overall framework of visual SLAM

        1.1 改進(jìn)的DeepLabv3plus 語(yǔ)義分割網(wǎng)絡(luò)

        本文以DeepLabv3plus[15]為基礎(chǔ)框架,設(shè) 計(jì)一種輕量化網(wǎng)絡(luò)。首先,采用MobileNetV2[16]完成特征提取;然后,將深度可分離卷積應(yīng)用到ASPP模塊中;最后,在網(wǎng)絡(luò)中插入SE 注意力機(jī)制[17]。圖2 所示為本文改進(jìn)的DeepLabv3plus 的網(wǎng)絡(luò)結(jié)構(gòu),與原網(wǎng)絡(luò)結(jié)構(gòu)相比,主干網(wǎng)絡(luò)選擇MobileNetV2 代替原來(lái)的Xception[18],并采用遷移學(xué)習(xí)加載預(yù)訓(xùn)練模型,在ASPP 模塊中使用深度可分離卷積,在保證分割精度的同時(shí)縮短運(yùn)行時(shí)間??紤]到注意力機(jī)制能夠自動(dòng)調(diào)整網(wǎng)絡(luò)中表現(xiàn)較好和表現(xiàn)較差的特征通道權(quán)重,本文還在網(wǎng)絡(luò)中插入SE 注意力機(jī)制,使網(wǎng)絡(luò)性能盡可能達(dá)到最佳,提升訓(xùn)練效果。

        圖2 改進(jìn)的DeepLabv3plus 網(wǎng)絡(luò)結(jié)構(gòu)Fig.2 Structure of improved DeepLabv3plus network

        1.2 多視圖幾何結(jié)合的動(dòng)態(tài)點(diǎn)檢測(cè)方法

        研究人員利用語(yǔ)義分割網(wǎng)絡(luò)只能檢驗(yàn)先驗(yàn)運(yùn)動(dòng)目標(biāo)對(duì)象(如人),忽略了椅子、書(shū)本等靜態(tài)物體發(fā)生被動(dòng)運(yùn)動(dòng)時(shí)對(duì)SLAM 產(chǎn)生的影響,如人們手中的書(shū)本或者人為推動(dòng)的椅子等,應(yīng)將其視為動(dòng)態(tài)目標(biāo)對(duì)象,卻被視為靜態(tài)對(duì)象,這將會(huì)對(duì)SLAM 產(chǎn)生較大影響。因此,本文進(jìn)一步采用多視圖幾何方法進(jìn)行動(dòng)態(tài)特征點(diǎn)檢測(cè):將地圖點(diǎn)云投影到當(dāng)前幀,并利用視點(diǎn)差異和深度值變化大小將目標(biāo)對(duì)象區(qū)分為動(dòng)態(tài)目標(biāo)和靜態(tài)目標(biāo)。多視圖幾何原理示意圖如圖3 所示,對(duì)于每個(gè)輸入幀,選擇多個(gè)之前與輸入圖像幀重合度較高的幀,把關(guān)鍵幀Kf中的關(guān)鍵點(diǎn)p投影到當(dāng)前幀Cf,得到投影點(diǎn)p'和投影深度Dproj,每個(gè)關(guān)鍵點(diǎn)對(duì)應(yīng)的3D 點(diǎn)是P,然后計(jì)算視差角α(p的反投影與p'之間形成的夾角α)。從TUM 數(shù)據(jù)集上的測(cè)試結(jié)果可以看出,當(dāng)α>30°,可判斷其為動(dòng)態(tài)點(diǎn)。同時(shí),本文還須計(jì)算深度值差ΔD=Dpro-jD',D'表示當(dāng)前幀中關(guān)鍵點(diǎn)深度,若ΔD=0,該點(diǎn)被認(rèn)為是靜態(tài)的,若ΔD>0,則該點(diǎn)被認(rèn)為是動(dòng)態(tài)的。

        圖3 多視圖幾何原理示意圖Fig.3 Schematic diagram of multiview geometry principles

        1.3 語(yǔ)義地圖的構(gòu)建

        在語(yǔ)義地圖構(gòu)建線程中,借助PCL庫(kù)[19],結(jié)合關(guān)鍵幀和深度圖生成點(diǎn)云,利用當(dāng)前幀的位姿及其點(diǎn)云進(jìn)行點(diǎn)云后續(xù)處理,完成點(diǎn)云地圖的構(gòu)建,并在點(diǎn)云地圖中進(jìn)行語(yǔ)義信息的標(biāo)注。然而點(diǎn)云地圖雖然給人很直觀的感覺(jué),但是點(diǎn)云地圖存在存儲(chǔ)空間大、位置信息冗余以及不能直接用于導(dǎo)航等問(wèn)題。與點(diǎn)云地圖相比,八叉樹(shù)地圖[20]同樣具有點(diǎn)云地圖的直觀性,但存儲(chǔ)空間卻遠(yuǎn)遠(yuǎn)小于點(diǎn)云地圖,同時(shí)八叉樹(shù)地圖可以用于物流倉(cāng)儲(chǔ)機(jī)器人后續(xù)的路徑規(guī)劃,適用于各種導(dǎo)航算法,如A*、D*導(dǎo)航[21]算法。因此,本文對(duì)點(diǎn)云地圖做進(jìn)一步處理,將點(diǎn)云地圖轉(zhuǎn)換為八叉樹(shù)地圖,完成語(yǔ)義八叉樹(shù)地圖的構(gòu)建。但是在建圖過(guò)程中,因存在傳感器的噪聲和運(yùn)動(dòng)物體產(chǎn)生的誤差,導(dǎo)致某個(gè)節(jié)點(diǎn)在每個(gè)時(shí)間點(diǎn)上狀態(tài)都不一樣。因此,本文選用概率方式說(shuō)明某一節(jié)點(diǎn)被占據(jù)還是未被占據(jù)。假設(shè)使用x∈[0,1]進(jìn)行說(shuō)明,設(shè)x初始值為0.5,若該節(jié)點(diǎn)狀態(tài)一直是被占據(jù)的,那么x值會(huì)不斷增大,反之,該節(jié)點(diǎn)是未被占據(jù)的,那么x值會(huì)不斷減小。若x出現(xiàn)不斷增大或減小的情況,則會(huì)出現(xiàn)x值跳出[0,1]區(qū)間的情況,給數(shù)據(jù)處理帶來(lái)不便。因此,采用概率對(duì)數(shù)值描述節(jié)點(diǎn)是否被占用,設(shè)y∈R(實(shí)數(shù)集)表示概率對(duì)數(shù)值,占用概率p的數(shù)值范圍為[0,1],則logit 變換公式如下:

        假設(shè)某節(jié)點(diǎn)n在T時(shí)刻的 觀測(cè)概率是P(n|Z1∶T),Z表示觀測(cè)數(shù)據(jù),則其被占據(jù)的概率P(n|Z1∶T)表示:

        其中:P(n)表示節(jié)點(diǎn)n被占據(jù)的先驗(yàn)概率;P(n|Z1∶T-1)表示n節(jié)點(diǎn)從起始到T-1 時(shí)刻的估計(jì)概率。本文將先驗(yàn)概率P(n)設(shè)為0.5,那么式(3)轉(zhuǎn)換為概率對(duì)形式為L(zhǎng)(n|Z1∶T),表示節(jié)點(diǎn)n從起始 到時(shí)間T的概率 對(duì)數(shù)值,則T+1 時(shí)刻觀測(cè)概率如下:

        其中:L(n|Z1∶T-1)與L(n|ZT)分別表示節(jié)點(diǎn)n在T時(shí)刻前和T時(shí)刻被占據(jù)的概率對(duì)數(shù)值。由式(4)可知,當(dāng)某一節(jié)點(diǎn)被重復(fù)觀測(cè)到被占據(jù)時(shí),其概率對(duì)數(shù)值隨之增加,否則減少。根據(jù)獲得的信息,能動(dòng)態(tài)調(diào)整該節(jié)點(diǎn)的占據(jù)概率,對(duì)八叉樹(shù)地圖不斷進(jìn)行更新。

        2 實(shí)驗(yàn)結(jié)果與分析

        實(shí)驗(yàn)搭配的平臺(tái)配置如下:CPU 為AMD R7-4800H,GPU 型號(hào)為NVIDIA RTX3060,OS 為64 位Ubuntu 16.04 系統(tǒng)的筆記本。語(yǔ)義分割實(shí)驗(yàn)部分使用的軟件配置:PyTorch 1.7.1,CUDA 11.0,CUDNN 8.0.5.39,Python 3.6,顯存大小為16 GB。

        作為L(zhǎng)umix系列相機(jī)的全新旗艦,這臺(tái)無(wú)反相機(jī)使用了一塊4700萬(wàn)像素的全畫(huà)幅傳感器,機(jī)內(nèi)防抖系統(tǒng)以及60fps的4K視頻拍攝能力,XQD+SD雙儲(chǔ)存卡的設(shè)置則保證了數(shù)據(jù)儲(chǔ)存的安全性。S1R是松下與適馬以及徠卡結(jié)成聯(lián)盟(詳見(jiàn)右頁(yè))之后發(fā)布的第一款產(chǎn)品,使用的鏡頭卡口為徠卡L卡口。

        2.1 語(yǔ)義分割實(shí)驗(yàn)測(cè)試

        改進(jìn)后的DeepLabv3plus 在PASCAL Voc 數(shù)據(jù)集[22]上進(jìn)行訓(xùn)練并驗(yàn)證。表1 所示為DeepLabv3plus與本文改進(jìn)的語(yǔ)義分割算法的實(shí)驗(yàn)測(cè)試結(jié)果。從表1 可以看出,本文設(shè)計(jì)的語(yǔ)義分割模型的平均交并比為73.4%,模型大小為13.1 MB,時(shí)間約21 ms。

        表1 不同模型的語(yǔ)義分割性能對(duì)比Table 1 Semantic segmentation performance comparison among different models

        圖4 所示為DeepLabv3plus 與改進(jìn)后的語(yǔ)義分割模型的分割效果對(duì)比。從圖4 可以看出,改進(jìn)后的DeepLabv3plus 大致輪廓的分割結(jié)果與原模型相同,在分割對(duì)象細(xì)節(jié)方面存在微小差別,如圖4 中的第2行圖中2個(gè)人之間的間隙部分。相比DeepLabv3plus,改進(jìn)后的DeepLabv3plus 模型大小減少約97%,單張圖片運(yùn)行時(shí)間縮短約89%。

        圖4 改進(jìn)前后DeepLabv3plus 的分割結(jié)果對(duì)比Fig.4 Comparison of segmentation results of DeepLabv3plus before and after improvement

        2.2 定位誤差實(shí)驗(yàn)

        本文將從TUM[23]數(shù)據(jù)集中選取高動(dòng)態(tài)場(chǎng)景walking 序列共4 組序列進(jìn)行定位誤差實(shí)驗(yàn)。為了便于區(qū)分,本文用fr3、w、half分別代表freiburg3、walking、halfsphere,并將其作為序列名稱。將本文算法分別與DS-SLAM、DLP-SLAM 以及ORB-SLAM2 進(jìn)行比較,其中DLP-SLAM 是指以O(shè)RB-SLAM2 為基礎(chǔ)框架,將DeepLabv3plus 算法與多視圖幾何相結(jié)合進(jìn)行動(dòng)態(tài)物體剔除的視覺(jué)SLAM。

        本文以絕對(duì)軌跡誤差(ATE)和相對(duì)位姿誤差(RPE)[24]作為性能指標(biāo),分別計(jì)算其對(duì)應(yīng)的均方根誤差(RMSE)和標(biāo)準(zhǔn)差(SD)。RMSE 記錄了估計(jì)值和真實(shí)值之間誤差,其值越小,代表所估計(jì)的軌跡越接近真實(shí)軌跡。SD 代表軌跡估計(jì)的離散度。

        表2 和表3 所示為本文算法與ORB-SLAM2、DLP-SLAM 以及DS-SLAM 算法在絕對(duì)軌跡誤差和相對(duì)位姿誤差方面的實(shí)驗(yàn)結(jié)果。從表2 和表3 可以看出:與傳統(tǒng)ORB-SLAM2 相比,在高動(dòng)態(tài)walking序列下,本文算法的絕對(duì)軌跡誤差的RMSE 值和SD值最高分別提升98%和97%以上;本文算法相對(duì)位姿誤差的RMSE 和SD 指標(biāo)值提升幅度在52%~74%之間。與DLP-SLAM、DS-SLAM 相比,本文算法的絕對(duì)軌跡誤差和相對(duì)位姿誤差的RMSE 值也有所提升。

        表2 不同算法的絕對(duì)軌跡誤差對(duì)比結(jié)果Table 2 Comparison results of absolute trajectory errors among different algorithms

        表3 不同算法的相對(duì)位姿誤差平移部分的對(duì)比結(jié)果Table 3 Comparison results of relative pose error translation parts among different algorithms

        圖5 所示為在高動(dòng)態(tài)fr3/w/rpy 序列中本文算法、ORB-SLAM2 以及DLP-SLAM在x、y、z軸上的位移估計(jì)值和真實(shí)值比較(彩色效果見(jiàn)《計(jì)算機(jī)工程》官網(wǎng)HTML 版),其中藍(lán)色線條代表ORB-SLAM2,虛線代表實(shí)際值(ground truth)[25],橘色實(shí)線代表DLP-SLAM,綠色代表本文算法。

        圖5 不同算法在fr3/w/rpy 序列下的x、y、z 軸位移對(duì)比Fig.5 Comparison of x,y,and z-axis displacements among different algorithms in the fr3/w/rpy sequence

        圖6 所示為各算法姿態(tài)角估計(jì)值和真實(shí)值的比較(彩色效果見(jiàn)《計(jì)算機(jī)工程》官網(wǎng)HTML 版)。

        圖6 不同算法在fr3/w/rpy 序列下的姿態(tài)角對(duì)比Fig.6 Comparison of attitude angles among different algorithms in fr3/w/rpy sequences

        從圖5 和圖6 可以看出,綠色實(shí)線和虛線幾乎重合在一起,藍(lán)色線條與虛線的距離最遠(yuǎn),其誤差最大,橘色實(shí)線與虛線之間也存在較小偏差。這表明無(wú)論是在x、y、z軸上的軌跡還是姿態(tài)角(yaw、pitch、roll)上的軌跡,與真實(shí)軌跡相比,ORB-SLAM2 生成的軌跡發(fā)生了較大幅度的漂移,DLP-SLAM 發(fā)生較小漂移,而本文算法生成的軌跡與真實(shí)值幾乎重合。本文算法在動(dòng)態(tài)場(chǎng)景下定位與建圖的精度更加準(zhǔn)確,魯棒性更好。其原因?yàn)樵兴惴僭O(shè)環(huán)境是靜態(tài)的,而運(yùn)動(dòng)物體的存在會(huì)影響位姿估計(jì)的結(jié)果,甚至引起系統(tǒng)故障的發(fā)生。本文算法利用改進(jìn)的DeepLabv3plus 以及多視圖幾何檢測(cè)動(dòng)態(tài)點(diǎn),并剔除動(dòng)態(tài)點(diǎn),之后利用剔除掉動(dòng)態(tài)點(diǎn)之后的靜態(tài)點(diǎn)進(jìn)行位姿估計(jì),使獲得的位姿估計(jì)更加準(zhǔn)確,避免引起系統(tǒng)故障。

        圖7 分別所示為在高動(dòng)態(tài)序列fr3/w/xyz 下ORBSLAM2、DLP-SLAM 及本文算法得到的相機(jī)運(yùn)動(dòng)軌跡與ground truth 之間的偏差(彩色效果見(jiàn)《計(jì)算機(jī)工程》官網(wǎng)HTML 版)。黑色線條代表ground truth,藍(lán)色線條代表預(yù)測(cè)軌跡,紅色線條代表相機(jī)預(yù)測(cè)軌跡與ground truth 之間的偏差,紅色線條越短代表偏差越小。從圖7 可以看出,本文算法運(yùn)動(dòng)軌跡圖中紅色線條最短,位姿估計(jì)更加準(zhǔn)確,說(shuō)明在動(dòng)態(tài)環(huán)境下定位誤差較小,能有效降低動(dòng)態(tài)物體對(duì)VSLAM 的影響。

        圖7 不同算法在高動(dòng)態(tài)序列fr3/w/xyz 下的軌跡Fig.7 Trajectories among different algorithms under high dynamic sequence fr3/w/xyz

        為進(jìn)一步說(shuō)明本文算法的有效性,本文在實(shí)驗(yàn)室真實(shí)環(huán)境下進(jìn)行實(shí)驗(yàn)驗(yàn)證。圖8 所示為移動(dòng)機(jī)器人的真實(shí)運(yùn)動(dòng)軌跡,邊框表示移動(dòng)機(jī)器人在真實(shí)環(huán)境中的實(shí)際運(yùn)動(dòng)軌跡。移動(dòng)機(jī)器人平臺(tái)利用搭載的KinectV2 相機(jī)[26]在搭建的實(shí)驗(yàn)環(huán)境中根據(jù)先前設(shè)計(jì)好的路線運(yùn)動(dòng),并進(jìn)行環(huán)境感知,記錄環(huán)境數(shù)據(jù)。隨后,在Ubuntu16.04 中,將獲取的數(shù)據(jù)通過(guò)ROS 工具制作成TUM 數(shù)據(jù)集的格式,進(jìn)而驗(yàn)證本文算法的有效性和可行性。

        圖8 移動(dòng)機(jī)器人的真實(shí)運(yùn)動(dòng)軌跡Fig.8 Real motion trajectory of the mobile robot

        圖9 所示為本文算法在真實(shí)環(huán)境中的特征提取。從圖9 可以看出,本文算法在進(jìn)行特征提取時(shí)剔除掉了人和人手中物體共2 個(gè)動(dòng)態(tài)物體。

        圖9 在真實(shí)場(chǎng)景下的特征提取Fig.9 Feature extraction in the real scene

        圖10 所示為本文算法和ORB-SLAM2 算法在真實(shí)環(huán)境下的三維軌跡對(duì)比。從圖10 可以看出,由于實(shí)驗(yàn)場(chǎng)景中有運(yùn)動(dòng)物體,因此ORB-SLAM2 算法生成的軌跡與實(shí)際運(yùn)動(dòng)軌跡相比出現(xiàn)了較大幅度的波動(dòng),而本文算法生成的軌跡與實(shí)際運(yùn)動(dòng)軌跡基本相符,波動(dòng)幅度較小。

        圖10 本文算法和ORB-SLAM2 的三維軌跡對(duì)比Fig.10 Three-dimensional trajectory comparison between the proposed algorithm and ORB-SLAM2

        2.3 建圖測(cè)試

        本文選取TUM 數(shù)據(jù)集中walking 序列的1 個(gè)子序列作為測(cè)試對(duì)象,如圖11 所示,此序列中存在2 個(gè)不斷運(yùn)動(dòng)的行人。

        圖11 fr3/w/static 子序列Fig.11 fr3/w/static subsequence

        圖12 所示為本文方法建立的地圖(彩色效果見(jiàn)《計(jì)算機(jī)工程》官網(wǎng)HTML 版)。為了可視化,本文使用藍(lán)色代表顯示屏的像素,紅色代表椅子的像素,其余像素使用物體本身顏色。從圖12 可以看出,本文算法建立的語(yǔ)義地圖中已剔除動(dòng)態(tài)物體,不存在顯著的動(dòng)態(tài)物體如行走的人,說(shuō)明較好地完成地圖構(gòu)建。從圖12 中像素分布區(qū)域可以看出,顯示屏中大部分像素得到了很好的語(yǔ)義賦予,但是椅子相對(duì)語(yǔ)義賦予較差。這是因?yàn)樵赑ASCAL VOC 數(shù)據(jù)集上訓(xùn)練時(shí),該數(shù)據(jù)集中的椅子和TUM 數(shù)據(jù)集中的椅子存在較大差異,因此本文算法沒(méi)有得到較優(yōu)的椅子分割結(jié)果。另外,為了說(shuō)明八叉樹(shù)地圖所占內(nèi)存空間小于點(diǎn)云地圖,本文記錄了fr3/w/xyz、fr3/w/static 序列構(gòu)建的點(diǎn)云和八叉樹(shù)地圖所占內(nèi)存大小,如表4 所示。

        表4 不同序列的存儲(chǔ)空間對(duì)比Table 4 Storage space comparison among different sequences 單位:MB

        圖12 本文算法生成的點(diǎn)云和八叉樹(shù)地圖Fig.12 Point cloud and octree maps generated by the proposed algorithm

        3 結(jié)束語(yǔ)

        本文提出動(dòng)態(tài)場(chǎng)景下基于語(yǔ)義分割的視覺(jué)SLAM 算法。通過(guò)對(duì)DeepLabv3plus 進(jìn)行改進(jìn),采用MobileNetV2 進(jìn)行特征提取,對(duì)ASPP 模塊進(jìn)行修改,并引入SE 注意力機(jī)制,提高分割速度,通過(guò)改進(jìn)后的DeepLabv3plus 和多視圖幾何方法檢測(cè)動(dòng)態(tài)特征點(diǎn)并剔除。實(shí)驗(yàn)結(jié)果表明,本文算法與ORBSLAM2 相比,運(yùn)行時(shí)間延長(zhǎng),與DLP-SLAM 相比運(yùn)行時(shí)間有所降低,并且其精度依然較高,利用語(yǔ)義信息生成靜態(tài)的語(yǔ)義八叉樹(shù)地圖,節(jié)省了大量的存儲(chǔ)空間,同時(shí)生成的地圖可直接用于機(jī)器人的路徑規(guī)劃中。在去除動(dòng)態(tài)特征點(diǎn)時(shí)因分割的不完整導(dǎo)致部分動(dòng)態(tài)點(diǎn)未被識(shí)別,因此后續(xù)將選擇分割精度更高的網(wǎng)絡(luò)。

        猜你喜歡
        八叉樹(shù)位姿視圖
        三維十字鏈表八叉樹(shù)的高效檢索實(shí)現(xiàn)
        5.3 視圖與投影
        視圖
        Y—20重型運(yùn)輸機(jī)多視圖
        SA2型76毫米車載高炮多視圖
        基于共面直線迭代加權(quán)最小二乘的相機(jī)位姿估計(jì)
        基于CAD模型的單目六自由度位姿測(cè)量
        小型四旋翼飛行器位姿建模及其仿真
        基于幾何特征的快速位姿識(shí)別算法研究
        散亂點(diǎn)云線性八叉樹(shù)結(jié)構(gòu)在GPU中的實(shí)現(xiàn)
        日韩人妻无码免费视频一区二区三区| 91精品国产色综合久久不| 女同在线视频一区二区| 中国久久久一级特黄久久久| 久久久久久无码av成人影院| 精品国产a∨无码一区二区三区 | 曰本大码熟中文字幕| 看国产黄大片在线观看| 东京热加勒比在线观看| 永久免费看黄在线观看| 99国产精品久久99久久久| 欧美日韩视频在线第一区| 亚洲精品二区中文字幕| 日本看片一区二区三区| 亚洲午夜精品一区二区麻豆av| 久久精品亚洲精品国产色婷| a级毛片高清免费视频就| 亚洲av日韩aⅴ无码电影| 亚洲中文字幕无线乱码va| 久久免费亚洲免费视频| 久久久av波多野一区二区 | 成人免费av色资源日日| 高h喷水荡肉爽文np肉色学校| 国产乱xxⅹxx国语对白| 中文 国产 无码免费| 中文字幕成人精品久久不卡| 国产老熟女伦老熟妇露脸 | 午夜秒播久久精品麻豆| 亚洲av无码一区二区三区人| 亚洲国产一区二区在线| 国产美女三级视频网站| 中文字字幕在线中文乱码解| 免费无遮挡禁18污污网站| 国产爆乳无码一区二区在线| 国产偷国产偷亚洲高清| 无码色av一二区在线播放| 无套内谢孕妇毛片免费看看 | 精品日韩av专区一区二区| 日本一区二区三区视频免费观看| 女人被狂躁c到高潮视频| 岛国av无码免费无禁网站下载|