亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        結(jié)合道路結(jié)構(gòu)化特征的語義SLAM算法

        2021-01-26 04:18:22李琳輝張溪桐周雅夫鄭偉娜
        關(guān)鍵詞:視差位姿結(jié)構(gòu)化

        李琳輝,張溪桐,連 靜,周雅夫,鄭偉娜

        (工業(yè)裝備結(jié)構(gòu)分析國家重點(diǎn)實(shí)驗(yàn)室(大連理工大學(xué)),遼寧 大連 116024)

        SLAM(simultaneous localization and mapping,同時定位及地圖構(gòu)建)是實(shí)現(xiàn)智能車輛自主導(dǎo)航的關(guān)鍵,受到國內(nèi)外學(xué)者的廣泛重視[1].根據(jù)傳感器的不同,SLAM可分為基于激光傳感器的LSLAM[2]和基于視覺傳感器的VSLAM[3].其中,基于視覺傳感器的SLAM具有成本低、獲得的環(huán)境信息豐富等優(yōu)點(diǎn),是當(dāng)前智能駕駛領(lǐng)域的研究熱點(diǎn).

        VSLAM可分為以SVO[4]和LSD-SLAM[5]為代表的直接法SLAM,以及以SOFT-SLAM[6]和ORB-SLAM2[7]為代表的特征點(diǎn)法SLAM.其中,特征點(diǎn)法SLAM適用于光照條件較差和相機(jī)發(fā)生大尺度位移或旋轉(zhuǎn)的場景,具有更強(qiáng)的魯棒性.該方法首先提取圖像中的顯著特征,計(jì)算特征的描述子,再根據(jù)兩幀圖像中特征的描述子距離進(jìn)行匹配,最后根據(jù)匹配關(guān)系用對極約束、PnP或ICP算法求解出兩幀之間的位姿.

        特征點(diǎn)法SLAM根據(jù)圖像中包含的世界模型點(diǎn)來反推相機(jī)位姿,處于運(yùn)動狀態(tài)的特征點(diǎn)會使計(jì)算的準(zhǔn)確性受到影響,因此不能解決動態(tài)場景中位姿計(jì)算和地圖構(gòu)建的精度下降問題.如何區(qū)分特征點(diǎn)的動靜狀態(tài)是消除運(yùn)動物體對位姿計(jì)算帶來不利影響的重點(diǎn).針對動態(tài)場景中緩慢運(yùn)動的非剛性物體,Agudo等[8]使用物理先驗(yàn)算法在動態(tài)場景中實(shí)現(xiàn)了姿態(tài)估計(jì);Ahuja等[9]利用SfM算法對場景中的運(yùn)動對象進(jìn)行實(shí)時3D重建.針對動態(tài)場景中存在快速運(yùn)動的物體(如自行車、汽車等),Yu等[10]提出一種光流跟蹤幀間圖像的一致性檢驗(yàn)方法來找到運(yùn)動的像素點(diǎn),能檢測到場景中快速運(yùn)動的物體.從地圖構(gòu)建和方便智能車環(huán)境理解的角度而言,如果單純從動靜點(diǎn)區(qū)分的角度改善建圖精度,一方面很難適應(yīng)動點(diǎn)多于靜點(diǎn)的場景,另一方面會將暫時靜止的車輛、行人等可移動目標(biāo)囊括到地圖中.所以,在SLAM過程中結(jié)合場景的語義信息[11-12]顯得尤為必要.

        目前,以DeepLab[13]、FastFCN[14]、SDCnet[15]以及PSPNet[16]為代表的基于深度學(xué)習(xí)的語義分割方法具有較高的準(zhǔn)確性和魯棒性.其中,Zhao等[16]提出的PSPNet(pyramid scene parsing network)利用帶有空洞卷積的特征提取和金字塔池化模塊,有效提取圖像的上下文信息,能夠進(jìn)一步提高語義分割的精度.

        然而,針對某些近景特征不足、光照條件惡劣或存在大量運(yùn)動目標(biāo)的場景,在剔除運(yùn)動目標(biāo)后,特征點(diǎn)數(shù)量不足會導(dǎo)致位姿計(jì)算失效.針對該問題,研究者利用場景中線特征[17]、角特征[18]等其他特征與特征點(diǎn)結(jié)合,共同參與位姿計(jì)算.然而這些特征只有在特殊環(huán)境下才比較常見,在一些開闊的大型場景下仍存在特征不足的問題.Jeong等[19]就大型室外場景提出了Road-SLAM,該算法利用路面結(jié)構(gòu)化特征對SLAM的回環(huán)檢測部分進(jìn)行了優(yōu)化.這些特征在光照條件差的場景下也容易被檢測,并且分布在路面這一單一平面上,易于通過立體匹配計(jì)算其準(zhǔn)確深度,可以用于解決位姿計(jì)算過程中近景有效特征不足的問題.除此之外,路面結(jié)構(gòu)化特征還可以應(yīng)用于車輛車道保持、路徑規(guī)劃等駕駛?cè)蝿?wù).

        基于以上分析,本文提出了一種結(jié)合場景語義信息和路面結(jié)構(gòu)化特征的SLAM算法.針對復(fù)雜交通場景,設(shè)計(jì)帶有改進(jìn)金字塔池化模塊的語義分割網(wǎng)絡(luò),得到圖像中各像素對應(yīng)的目標(biāo)類別,作為運(yùn)動點(diǎn)剔除的依據(jù),從而避免運(yùn)動點(diǎn)參與特征匹配而導(dǎo)致的位姿計(jì)算準(zhǔn)確性下降問題;針對包含大量運(yùn)動物體、近景特征點(diǎn)不足、光照條件差等惡劣場景,基于V視差確定圖像中的路面區(qū)域并擬合出精確的視差值,提出一種基于路面結(jié)構(gòu)化特征的位姿計(jì)算方法;最后,通過場景實(shí)驗(yàn)驗(yàn)證所提出方法的有效性,并建立包含語義信息的稠密點(diǎn)云地圖,為復(fù)雜的駕駛?cè)蝿?wù)提供盡可能全面的環(huán)境信息.

        1 算法架構(gòu)

        如圖1所示,本文設(shè)計(jì)的SLAM算法整體架構(gòu)參考ORB-SLAM算法,共包含4個主要模塊:位姿計(jì)算、稀疏地圖構(gòu)建、回環(huán)檢測和語義重建.其中稀疏地圖構(gòu)建模塊、回環(huán)檢測模塊沿用ORB-SLAM的基礎(chǔ)框架.在此基礎(chǔ)上,針對該SLAM算法在包含動態(tài)物體以及近景特征不足場景下的精度下降問題,對其位姿計(jì)算模塊進(jìn)行改進(jìn).同時,為給自動駕駛?cè)蝿?wù)提供更豐富的環(huán)境信息,增加了語義重建模塊.主要研究工作如下.

        1.1 位姿計(jì)算模塊改進(jìn)

        1)動態(tài)特征點(diǎn)剔除:為消除場景中動態(tài)物體對位姿計(jì)算精度的影響,本文通過設(shè)計(jì)的帶有改進(jìn)的帶孔金字塔池化模塊[20](advanced atrous spatial pyramid pooling,ad-ASPP)的神經(jīng)網(wǎng)絡(luò)對輸入的圖片進(jìn)行語義分割,目標(biāo)類別包括天空、建筑物、機(jī)動車、行人、自行車等.同時,對圖像進(jìn)行ORB特征點(diǎn)檢測.若場景中某目標(biāo)包含運(yùn)動的可能性,則將其定義為動態(tài)目標(biāo)(機(jī)動車、行人和自行車),屬于動態(tài)目標(biāo)類別的像素點(diǎn)為動態(tài)點(diǎn).本文根據(jù)語義分割的結(jié)果,將動態(tài)點(diǎn)從特征點(diǎn)檢測結(jié)果中剔除.

        2)立體匹配有效范圍外特征點(diǎn)剔除:根據(jù)立體匹配原理,場景中與相機(jī)光心距離過遠(yuǎn)的點(diǎn)的計(jì)算結(jié)果會失效,需要對候選點(diǎn)進(jìn)行篩選,剔除不在立體匹配有效范圍內(nèi)的特征點(diǎn).

        3)道路結(jié)構(gòu)化特征檢測與匹配:進(jìn)行過兩次篩選后,剩余特征點(diǎn)的數(shù)量如果達(dá)到計(jì)算位姿所需點(diǎn)數(shù)量的閾值,則直接進(jìn)行位姿計(jì)算過程;若特征點(diǎn)數(shù)量未達(dá)到閾值,則利用本文提出的基于路面結(jié)構(gòu)化信息的方法進(jìn)行幀間位姿計(jì)算.該方法對圖像中的道路結(jié)構(gòu)化特征進(jìn)行檢測與匹配,通過增加路面結(jié)構(gòu)化特征點(diǎn)解決參與SLAM位姿計(jì)算的有效近景特征不足的問題.

        1.2 增加語義重建模塊

        ORB-SLAM原本的稀疏地圖構(gòu)建模塊構(gòu)建的點(diǎn)云地圖是稀疏的,缺失了大部分的環(huán)境信息.因此,本文增加了一個語義重建模塊.在系統(tǒng)完成位姿計(jì)算和回環(huán)檢測模塊之后得到最終的位姿估計(jì)結(jié)果.根據(jù)稀疏地圖構(gòu)建模塊篩選添加后得到的關(guān)鍵幀結(jié)果,以及回環(huán)檢測模塊優(yōu)化后的位姿計(jì)算結(jié)果,將當(dāng)前關(guān)鍵幀圖像中的所有像素三維重構(gòu)成世界坐標(biāo)系下的點(diǎn)云;同時根據(jù)卷積神經(jīng)網(wǎng)絡(luò)獲取到的語義分割結(jié)果,對點(diǎn)云進(jìn)行類別屬性的定義,從而構(gòu)建出3D稠密語義點(diǎn)云地圖.該地圖同時包含了環(huán)境的幾何信息和語義信息.

        圖1 算法整體流程

        2 語義分割網(wǎng)絡(luò)

        2.1 主網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)

        本文語義分割網(wǎng)絡(luò)的總體結(jié)構(gòu)見圖2.網(wǎng)絡(luò)主要分為編碼器和解碼器兩個部分.其中編碼器部分采用殘差神經(jīng)網(wǎng)絡(luò)(ResNet)作為特征提取基礎(chǔ)網(wǎng)絡(luò)[21],解密碼器部分采用改進(jìn)的帶孔金字塔池化模塊(ad-ASPP).輸入的圖像經(jīng)過ResNet50特征提取模塊的卷積操作后,得到相較于原圖大小1/8的特征圖,然后與本文所提出的改進(jìn)的帶孔金字塔池化模塊(ad-ASPP)相連,最后得到原圖大小的語義分割結(jié)果圖.將ad-ASPP模塊置于殘差網(wǎng)絡(luò)之后,可以利用深度網(wǎng)絡(luò)提取得到更加抽象的語義信息,擴(kuò)大高級特征信息感受野,這些特征比低級的輪廓、紋理信息更加有用.

        圖2 語義分割主網(wǎng)絡(luò)結(jié)構(gòu)

        2.2 特征提取模塊

        本文使用的語義分割網(wǎng)絡(luò)選用允許網(wǎng)絡(luò)拓展深度而不會產(chǎn)生梯度爆炸和梯度消失的ResNet50作為特征提取的主體.ResNet50主要由5個模塊組成,其中各個模塊的參數(shù)構(gòu)造見表1.其中包括每個模塊的輸出特征圖像大小,以及每一個模塊中各個卷積層的卷積核參數(shù).特征提取模塊的輸入是大小為512×1 024的RGB圖片,輸出得到大小為32×64的特征圖像.

        表1 ResNet-50模型結(jié)構(gòu)

        2.3 改進(jìn)的帶孔金字塔池化模塊(ad-ASPP)

        在卷積神經(jīng)網(wǎng)絡(luò)中,空洞卷積[22]通過對卷積核進(jìn)行插零來擴(kuò)大每一次卷積的感受野,能夠提取到原本非近鄰像素的特征信息,從而獲取圖像的上下文信息,這一信息在語義分割任務(wù)中能夠起到重要的作用.本文根據(jù)相關(guān)研究提出了一種改進(jìn)的空洞卷積金字塔池化模型,其主體結(jié)構(gòu)見圖3.

        圖3 改進(jìn)的帶孔金字塔池化(ad-ASPP)模塊

        1)受經(jīng)典網(wǎng)絡(luò)ResNet的啟發(fā),加入了一個直連支路,將該模塊的輸入直接傳遞給輸出,可以有效保證圖片的原始信息不因卷積過程而丟失.

        2)不合理地設(shè)置空洞卷積的擴(kuò)張率會造成各種問題,當(dāng)擴(kuò)張率過大時,感受野的過大會造成提取到的信息關(guān)聯(lián)性較差,不利于圖像中細(xì)小物體的特征提取.為合理設(shè)置空洞卷積的擴(kuò)張率,保證信息之間的關(guān)聯(lián)性,本文還增加了一個級聯(lián)空洞卷積的神

        經(jīng)網(wǎng)絡(luò)支路.該結(jié)構(gòu)在原始的空洞卷積基礎(chǔ)上增加了感受野的尺寸,同時消除了不合理的擴(kuò)張率設(shè)置對特征信息關(guān)聯(lián)性的不良影響.假設(shè)未被級聯(lián)前的兩個空洞卷積層的感受野大小分別為N1和N2,則將二者級聯(lián)后其感受野尺寸變?yōu)镹=N1+N2-1.本文設(shè)計(jì)的級聯(lián)空洞卷積擴(kuò)張率分別設(shè)置為6、12、18、24.

        3)受DeepLab[23]網(wǎng)絡(luò)和PSPNet[16]啟發(fā),將該模塊設(shè)計(jì)成多支路并聯(lián)的形式,每條支路提取不同尺寸感受野內(nèi)圖像的特征,利用concat模塊將這些支路的特征提取結(jié)果合并.不同感受野的融合使網(wǎng)絡(luò)在關(guān)注圖像局部細(xì)節(jié)的同時把握全局的結(jié)構(gòu)特征.

        4)空洞卷積層的串并聯(lián)共存結(jié)構(gòu)可以使圖像中的每一個像素都更積極地參與計(jì)算,在一定程度上對于“棋盤格效應(yīng)[24]”起到了削弱的作用.

        3 基于路面結(jié)構(gòu)化特征的位姿計(jì)算

        若行駛過程中相機(jī)拍攝到的運(yùn)動物體過多,特征點(diǎn)匹配過程中根據(jù)語義分割結(jié)果篩選掉大部分近處的運(yùn)動特征點(diǎn),只剩下遠(yuǎn)處的匹配特征點(diǎn),在雙目立體匹配過程中這些點(diǎn)可能會由于超出其有效距離范圍而無法正確進(jìn)行準(zhǔn)確的立體匹配,這會導(dǎo)致相機(jī)位姿計(jì)算結(jié)果失效,所以本文提出了一種基于路面結(jié)構(gòu)化特征檢測與匹配的相機(jī)位姿計(jì)算方法.算法整體流程見圖4.

        圖4 路面結(jié)構(gòu)化特征位姿求解算法

        首先,對輸入的雙目視圖進(jìn)行立體匹配,求解出該幀圖像的視差圖,然后利用視差圖獲得V視差圖;根據(jù)世界坐標(biāo)中某一平面在V視差圖的表現(xiàn),對V視差圖進(jìn)行霍夫變換,檢測出表示地面的直線;根據(jù)這條直線能夠準(zhǔn)確地找到地面在圖像中的區(qū)域,并將該區(qū)域設(shè)為感興趣(range of interest,ROI)區(qū)域;在ROI區(qū)域中利用邊緣檢測和霍夫變換檢測路面結(jié)構(gòu)化特征線條,然后對線條上的特征點(diǎn)進(jìn)行幀間匹配,最后根據(jù)匹配結(jié)果利用PnP算法求解出相機(jī)位姿.

        3.1 基于V視差的地面檢測

        在世界坐標(biāo)系下,設(shè)某點(diǎn)P的坐標(biāo)為Pw=[xw,yw,zw],其投影到相機(jī)成像平面的像素坐標(biāo)為Pp=[u,v]T.對于世界坐標(biāo)系中的某一平面,其數(shù)學(xué)模型為:yw=h,h代表該平面的水平高度.則該平面視差值滿足

        (1)

        式中:ddisp代表平面某點(diǎn)視差值,f代表相機(jī)焦距,b代表雙目相機(jī)的基線長度,θ為相機(jī)主光軸方向與道路平面夾角.可知,地面上點(diǎn)的像素縱坐標(biāo)與其視差值成線性關(guān)系.

        V視差[25]是基于雙目立體匹配獲得的視差圖得到的,包含3個維度的信息.其圖像的縱軸表示原視差圖的行坐標(biāo),橫軸表示0~255的視差值,強(qiáng)度軸表示原視差圖中視差值為某個值的像素點(diǎn)數(shù)量,見圖5.根據(jù)上述推論,水平路面在V視差圖中表現(xiàn)為一條斜率為負(fù)的傾斜直線.對V視差圖進(jìn)行霍夫檢測,可以求出代表地面的直線(圖5中的紅色斜線),即地面的視差方程為ddisp=k·v+b.

        圖5 通過V視差圖獲取地面點(diǎn)視差

        3.2 道路結(jié)構(gòu)化特征檢測

        找到地面在圖像中的位置后,在屬于地平面鄰近平面的圖像范圍內(nèi)檢測道路上的結(jié)構(gòu)化特征.首先對圖像進(jìn)行二值化和Canny邊緣檢測,結(jié)果見圖7(a);利用本文求解得到的地面視差方程將屬于地面的區(qū)域保留,結(jié)果見圖6(b),基本濾除了非地面的部分;利用霍夫變換檢測出路面上的結(jié)構(gòu)化特征線條,檢測結(jié)果見圖6(c).

        圖6 道路結(jié)構(gòu)化特征檢測

        3.3 PnP位姿求解

        檢測到道路結(jié)構(gòu)特征線條后,對前后兩幀線條上的特征點(diǎn)進(jìn)行描述子計(jì)算和匹配,得到用于位姿計(jì)算的特征點(diǎn)對,用于位姿求解.本文采取RANSAC-PnP[26]方法中的3D-2D模型求解相機(jī)位姿.該求解模型需要輸入控制點(diǎn),即匹配點(diǎn)對的3D世界坐標(biāo)和待求幀該點(diǎn)的2D像素坐標(biāo).該特征點(diǎn)在世界坐標(biāo)系中的坐標(biāo)求解過程如下.

        (2)

        式中:fx,fy,cx,xy為相機(jī)內(nèi)參;(u,v)為圖像坐標(biāo);(x,y,z)為相機(jī)坐標(biāo)系坐標(biāo),其中z為該點(diǎn)深度值.根據(jù)本文中對地面視差的求解結(jié)果,通過其映射關(guān)系可以得到地面上的像素點(diǎn)較為準(zhǔn)確的視差值ddisp,進(jìn)而通過下式求出該點(diǎn)深度值

        (3)

        2)相機(jī)坐標(biāo)系-世界坐標(biāo)系.相機(jī)坐標(biāo)系到世界坐標(biāo)系的轉(zhuǎn)換關(guān)系為

        (4)

        基于上述公式,根據(jù)特征點(diǎn)的像素坐標(biāo)及深度值求出其相機(jī)坐標(biāo)系坐標(biāo),然后再根據(jù)前一幀的相機(jī)位姿計(jì)算得到特征點(diǎn)的3D世界坐標(biāo),結(jié)合這些特征點(diǎn)在當(dāng)前幀上的2D像素坐標(biāo),就可以利用PnP方法求解出當(dāng)前幀的位姿.

        c)得到這些點(diǎn)群的世界坐標(biāo)后,結(jié)合本文的語義分割結(jié)果,得到包含語義信息的點(diǎn)群.對每一個關(guān)鍵幀進(jìn)行上述操作,建立稠密語義點(diǎn)云地圖.

        4 實(shí)驗(yàn)分析

        4.1 語義分割網(wǎng)絡(luò)

        4.1.1 數(shù)據(jù)集

        1) 針對改進(jìn)的語義分割網(wǎng)絡(luò)進(jìn)行訓(xùn)練,訓(xùn)練的框架基于TensorFlow軟件平臺.選擇Cityscapes[27]數(shù)據(jù)集作為語義分割網(wǎng)絡(luò)的研究對象.

        2) 數(shù)據(jù)集進(jìn)入神經(jīng)網(wǎng)絡(luò)之前需進(jìn)行預(yù)處理.首先,為了減小訓(xùn)練時長和降低計(jì)算機(jī)內(nèi)存消耗,將圖像尺寸轉(zhuǎn)化為256×512;其次,本文使用pixel-mean方法取均值,使得神經(jīng)網(wǎng)絡(luò)在不會產(chǎn)生梯度過大的基礎(chǔ)上節(jié)省反復(fù)試驗(yàn)最佳學(xué)習(xí)率過程的時間.

        3)由于數(shù)據(jù)集的圖片數(shù)量較小,為防止網(wǎng)絡(luò)訓(xùn)練過程中過擬合現(xiàn)象的發(fā)生,對圖片進(jìn)行數(shù)據(jù)增強(qiáng).主要操作為對圖片進(jìn)行一定的旋轉(zhuǎn)、平移、縮放、鏡像,這種樣本的增加可以提高網(wǎng)絡(luò)訓(xùn)練結(jié)果的泛化性.

        4.1.2 測試結(jié)果及分析

        在Cityscapes數(shù)據(jù)集上,將本文設(shè)計(jì)的神經(jīng)網(wǎng)絡(luò)與使用同樣基礎(chǔ)網(wǎng)絡(luò)的PSPNet進(jìn)行比較.訓(xùn)練網(wǎng)絡(luò)所用的計(jì)算機(jī)軟、硬件配置及深度學(xué)習(xí)框架見表2.

        表2 訓(xùn)練軟、硬件條件

        根據(jù)硬件的計(jì)算能力,將圖片輸入的大小設(shè)為512×1 024,bach_size的大小設(shè)為3,當(dāng)損失值穩(wěn)定收斂后停止訓(xùn)練,共計(jì)16萬次,得到表3的結(jié)果.可知,本文所設(shè)計(jì)的網(wǎng)絡(luò)結(jié)構(gòu)在運(yùn)行時間基本相同的條件下,精度上相較于PSPNet有明顯的提高,證明了語義分割網(wǎng)絡(luò)改進(jìn)的有效性.

        圖7(b)、(c)分別為表中兩個網(wǎng)絡(luò)的語義分割結(jié)果.可以看出,圖(c)與圖(b)相比,分割的噪聲更少,道路與車輛邊界的區(qū)域分割更加準(zhǔn)確.所以,本文采用的改進(jìn)的金字塔模塊能夠更好地提取圖像上下文的信息,實(shí)現(xiàn)更加準(zhǔn)確的圖像像素級語義分割.

        表3 網(wǎng)絡(luò)性能定量比較

        圖7 基于RGB圖像的分割效果對比

        4.2 道路結(jié)構(gòu)化特征位姿求解

        1)數(shù)據(jù)集.本文選取Kitti_odometry數(shù)據(jù)集[28]作為位姿計(jì)算模塊的數(shù)據(jù)集.該數(shù)據(jù)集包含22個不同交通場景的雙目圖像數(shù)據(jù),配套提供了11個帶有地面真實(shí)軌跡,便于SLAM結(jié)果的評估.本文所設(shè)計(jì)的SLAM方法需要使用到圖像的語義信息,所以在輸入SLAM系統(tǒng)之前需要對圖像進(jìn)行語義分割.

        2)算法結(jié)果比較.如圖8所示,在該場景下,相機(jī)視野左側(cè)存在運(yùn)動車輛,正以與相機(jī)所在車輛近乎相對靜止的速度行進(jìn).在特征點(diǎn)檢測與匹配的過程中,特征點(diǎn)法SLAM特征點(diǎn)檢測以及匹配過程會將其列為特征點(diǎn)并參與匹配,匹配結(jié)果見圖8.

        圖8 未去除運(yùn)動物體特征點(diǎn)的匹配結(jié)果

        經(jīng)過計(jì)算,未去除動態(tài)特征點(diǎn)的匹配得出的位姿結(jié)果中,圖8兩幀之間在車輛前進(jìn)方向上的相對位移為0.294 8 m,但其真實(shí)位移值為2.14 m,可見動態(tài)特征點(diǎn)參與匹配會使相機(jī)位姿計(jì)算的準(zhǔn)確率降低.并且在此類場景中,若去除屬于車輛的特征點(diǎn)和過遠(yuǎn)處的特征點(diǎn),則用于計(jì)算位姿的特征點(diǎn)數(shù)量是不足的.

        本實(shí)驗(yàn)節(jié)選了4段包含動態(tài)物體且有效近景特征不足的連續(xù)幀場景(見圖9),分別利用本文提出的算法和純特征點(diǎn)匹配求解相機(jī)位姿,比較結(jié)果見表4.從表中可知,分別從誤差最大值、平均值、中值、最小值和均方根誤差值分析,在場景中存在運(yùn)動物體并且其他特征點(diǎn)質(zhì)量不滿足要求的情況下,本文提出的結(jié)合道路結(jié)構(gòu)化特征的位姿計(jì)算方法具有更高的精度.此外,表4中還給出了2種算法的單幀平均運(yùn)行時間.由于本文增加了道路結(jié)構(gòu)化特征點(diǎn)檢測與匹配的過程,算法的平均耗時約為未增加該過程算法的1.5~1.7倍.

        圖9 包含運(yùn)動物體的場景

        表4 絕對軌跡誤差結(jié)果比較

        5.3 3D稠密語義點(diǎn)云地圖構(gòu)建

        場景整體的地圖見圖10.其中,圖10(a)為原ORB-SLAM構(gòu)建出的整體場景稀疏點(diǎn)云地圖,可見雖然該地圖包含了環(huán)境的整體架構(gòu)信息,但是缺少很多局部場景細(xì)節(jié).而本文加入語義重建模塊后,構(gòu)建出的3D稠密語義點(diǎn)云地圖如圖10(b)所示,實(shí)現(xiàn)了場景細(xì)節(jié)的補(bǔ)充.圖10(c)是其中某一場景的稠密語義地圖局部展示.場景中包含的車輛、樹木、道路、建筑物都以點(diǎn)云的形式構(gòu)建在地圖中,點(diǎn)的顏色代表了它們所屬的目標(biāo)類別.可見,該地圖在包含環(huán)境幾何信息的基礎(chǔ)上,還加入了局部場景的細(xì)節(jié)與環(huán)境的語義信息.本文構(gòu)建的3D稠密語義地圖模擬了駕駛員駕駛車輛時對環(huán)境信息的感知,可以為智能駕駛提供更豐富的環(huán)境信息.

        圖10 3D稠密語義點(diǎn)云地圖

        5 結(jié) 論

        本文設(shè)計(jì)了一套在動態(tài)環(huán)境下對SLAM算法位姿計(jì)算模塊的改進(jìn)方法.提出了一種帶有級聯(lián)金字塔空洞卷積池化模塊的語義分割網(wǎng)絡(luò),提取了圖像中更加豐富的上下文信息,提高了交通場景下像素級語義分割的精度.利用語義分割的結(jié)果,本文在SLAM特征點(diǎn)檢測過程中剔除了屬于包含動態(tài)可能性類別的物體,防止運(yùn)動物體使相機(jī)位姿計(jì)算產(chǎn)生誤差.同時,針對剔除掉動態(tài)物體特征點(diǎn)后有效近景特征不足的場景,提出了一種通過檢測道路結(jié)構(gòu)化特征并進(jìn)行幀間匹配進(jìn)行相機(jī)位姿計(jì)算的方法.經(jīng)過實(shí)驗(yàn)證明,該方法能夠有效提高動態(tài)場景下相機(jī)位姿計(jì)算的準(zhǔn)確性.最后,將SLAM位姿計(jì)算結(jié)果與語義分割結(jié)果進(jìn)行融合,建立了包含語義信息的稠密點(diǎn)云地圖,為自動駕駛?cè)蝿?wù)提供更加豐富的環(huán)境信息,對實(shí)現(xiàn)更加復(fù)雜的駕駛?cè)蝿?wù)具有重要意義.

        猜你喜歡
        視差位姿結(jié)構(gòu)化
        基于自適應(yīng)窗的立體相機(jī)視差圖優(yōu)化方法研究
        促進(jìn)知識結(jié)構(gòu)化的主題式復(fù)習(xí)初探
        結(jié)構(gòu)化面試方法在研究生復(fù)試中的應(yīng)用
        基于梯度域引導(dǎo)濾波的視差精煉迭代算法
        基于共面直線迭代加權(quán)最小二乘的相機(jī)位姿估計(jì)
        基于CAD模型的單目六自由度位姿測量
        基于分割樹的視差圖修復(fù)算法研究
        小型四旋翼飛行器位姿建模及其仿真
        立體視差對瞳孔直徑影響的研究
        基于圖模型的通用半結(jié)構(gòu)化數(shù)據(jù)檢索
        国产精品一级黄色大片| 日本最大色倩网站www| 人妻少妇看a偷人无码精品| 国产高清精品自在线看| 久草视频在线视频手机在线观看| 富婆猛男一区二区三区| 97精品国产97久久久久久免费 | 国产激情精品一区二区三区| 国产亚洲精品A在线无码| 最新国产一区二区三区| 天天躁夜夜躁狠狠躁婷婷| аⅴ资源天堂资源库在线| 麻豆久久五月国产综合| 日韩av中文字幕少妇精品 | 熟妇熟女乱妇乱女网站| 超薄肉色丝袜一区二区| 99RE6在线观看国产精品| 中文国产乱码在线人妻一区二区| 日本做受120秒免费视频| 国偷自产av一区二区三区| 亚洲午夜无码久久久久软件| 国产一区二区三区啊啊| 精品免费久久久久久久| 欧美专区在线| 一区二区三区在线观看视频免费| 日本在线观看一区二区三| 国产suv精品一区二区883 | 精品欧洲av无码一区二区三区 | 偷亚洲偷国产欧美高清| 蜜桃视频永久免费在线观看| 亚洲国产日韩a在线乱码| 人妻 日韩精品 中文字幕| 久久中国国产Av秘 入口| 男人的天堂av你懂得| 亚洲精品中文幕一区二区| 精品亚洲欧美无人区乱码| 亚洲狼人社区av在线观看| 96中文字幕一区二区| 国产精品无码dvd在线观看| 欧美成人看片黄a免费看| 国产男女乱婬真视频免费|