亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        弱紋理環(huán)境下融合點(diǎn)線特征的雙目視覺同步定位與建圖

        2024-04-08 07:30:20陳小慶許悅雷張兆祥
        光學(xué)精密工程 2024年5期
        關(guān)鍵詞:雙目特征提取紋理

        龔 坤,徐 鑫,陳小慶,許悅雷*,張兆祥

        (1.西北工業(yè)大學(xué) 無人系統(tǒng)技術(shù)研究院,陜西 西安 710072;2.中國(guó)人民解放軍軍事科學(xué)院 國(guó)防科技創(chuàng)新研究院,北京 100850)

        1 引言

        目前,自主移動(dòng)機(jī)器人在完全未知且拒止的環(huán)境中,需要依靠對(duì)周圍環(huán)境的感知來確定自身位置以實(shí)現(xiàn)自主導(dǎo)航。這種方法被稱為同步建圖與定位(Simultaneous Localization and Mapping,SLAM)[1]。SLAM 主要分為激光SLAM與視覺SLAM[2-3]。在室外環(huán)境中,由于光線的干擾,一般采用激光SLAM 為移動(dòng)機(jī)器人提供高精度導(dǎo)航信息,如自動(dòng)駕駛車輛等。而在室內(nèi)環(huán)境下,掃地機(jī)器人等已開始采用視覺SLAM[4]。目前,視覺SLAM 作為一種低成本的定位方案,引起了廣泛的關(guān)注[5-6]。

        視覺SLAM 依據(jù)所采用的圖像特征不同,可分為基于特征點(diǎn)的方法,如ORBSLAM[7-9],VINS[10]等,以及基于直接法或者半直接法,如DSO[11],SVO[12]等。其中,直接法以及半直接法需要依賴灰度不變假設(shè),因此對(duì)光線的影響較為敏感[13];基于特征點(diǎn)的方法(例如ORB 特征點(diǎn))能夠提取具有尺度不變性和旋轉(zhuǎn)不變性的特征點(diǎn),但對(duì)環(huán)境紋理的要求較高,如果特征點(diǎn)較少或者移動(dòng)速度較快,特征點(diǎn)容易丟失[14]。2017年,PL-SLAM 系統(tǒng)[15]被提出,相比基于ORBSLAM 算法,它是第一個(gè)使用點(diǎn)特征和線特征進(jìn)行融合的雙目SLAM 系統(tǒng),且在光束(Bundle Ajustment,BA)優(yōu)化階段,同時(shí)考慮兩種特征約束來優(yōu)化相機(jī)位姿,從而提高了算法的精度和穩(wěn)定性。然而,由于特征數(shù)量的增加,特征提取、匹配和優(yōu)化部分的計(jì)算時(shí)間增加,導(dǎo)致PL-SLAM系統(tǒng)的實(shí)時(shí)性較差。

        Company-Corcoles 等[16]提出了一種基于RGB-D 的視覺里程計(jì)稱為MSC-VO。該方法結(jié)合ORB 特征點(diǎn)和LSD 線特征[17],用于估計(jì)相機(jī)的姿態(tài)。MSC-VO 通過估計(jì)空間中的曼哈頓軸以及點(diǎn)和線的重投影誤差,利用局部地圖進(jìn)一步優(yōu)化相機(jī)的姿態(tài)。這種綜合特征的使用和局部地圖的優(yōu)化有助于提高相機(jī)姿態(tài)估計(jì)的準(zhǔn)確性和穩(wěn)定性。賀一家博士團(tuán)隊(duì)[18]在VINS-mono[10]的基礎(chǔ)上,通過添加LSD 線特征跟蹤提出了一種PL-SLAM。他們結(jié)合VINS-mono 的單目視覺慣性里程計(jì)和LSD 線特征跟蹤,以實(shí)現(xiàn)更準(zhǔn)確和穩(wěn)定的SLAM。這種改進(jìn)在保持VINS-mono 優(yōu)勢(shì)的同時(shí),通過引入線特征跟蹤提高了系統(tǒng)的穩(wěn)定性。

        在弱紋理環(huán)境下,尤其是白墻較多的走廊,盡管更多的特征可以提高算法的穩(wěn)定性,但也會(huì)限制算法的實(shí)時(shí)性。原本對(duì)于前端點(diǎn)特征的提取已經(jīng)很耗時(shí),再加上線特征的提取和匹配,SLAM 系統(tǒng)的實(shí)時(shí)性難以保證。針對(duì)此問題,Gomez 等[19]在SVO[12]的基礎(chǔ)上提出了PL-SVO,引入了一種快速跟蹤線段的方法。將半直接方法擴(kuò)展到線特征的情況下,通過作為稀疏-直接運(yùn)動(dòng)估計(jì)的隱式結(jié)果來執(zhí)行快速線段跟蹤,并利用這種稀疏結(jié)構(gòu)來消除線段檢測(cè)。吳毅紅團(tuán)隊(duì)[20]提出了一種基于IMU-KLT 預(yù)測(cè)的高效線段跟蹤方法,通過IMU 的預(yù)測(cè)以及光流信息對(duì)線段位置進(jìn)行預(yù)測(cè),加快匹配速度,線段的跟蹤時(shí)間僅需要3.7 ms。然而,以上方法僅針對(duì)單目線段跟蹤展開研究,并未探索線段提取的質(zhì)量問題。此外,在雙目情況下如何實(shí)現(xiàn)快速的線段匹配和三角化的研究仍然較少,目前主要依賴于傳統(tǒng)的LSD+LBD[21]方法,但該方法的實(shí)時(shí)性能較差。

        本文在前人研究的基礎(chǔ)上,提出一種融合點(diǎn)線特征的雙目視覺SLAM 系統(tǒng),重點(diǎn)改進(jìn)了線特征的提取和匹配過程。考慮到高質(zhì)量和穩(wěn)定性的線特征對(duì)SLAM 系統(tǒng)的貢獻(xiàn)更大,本文對(duì)LSD 線特征提取方法進(jìn)行改進(jìn),通過長(zhǎng)度和梯度抑制策略以及短線合并等方法進(jìn)一步提高線段提取的質(zhì)量。另外,本文還引入了一種基于幾何約束的快速線段三角化方法,通過引入?yún)^(qū)域約束、鄰域約束和平行約束構(gòu)建代價(jià)函數(shù),并將線段匹配問題轉(zhuǎn)化為優(yōu)化問題。利用L1 范數(shù)的稀疏解求得最優(yōu)匹配,并通過線特征的重投影誤差進(jìn)行線段的非線性優(yōu)化,從而提高線段三角化精度。在公開數(shù)據(jù)集和自建數(shù)據(jù)集上驗(yàn)證了本文所提方法的先進(jìn)性,并將它應(yīng)用于實(shí)際的雙目視覺SLAM 系統(tǒng)中。實(shí)驗(yàn)結(jié)果表明,該方法的定位精度優(yōu)于現(xiàn)有算法,驗(yàn)證了其在實(shí)際應(yīng)用中的有效性。

        2 原 理

        2.1 雙目視覺SLAM 系統(tǒng)框架

        本文所提出的融合點(diǎn)線特征的雙目視覺SLAM 系統(tǒng)框架主要分為跟蹤線程和局部建圖線程兩個(gè)部分,其框架示意圖如圖1 所示。

        圖1 融合點(diǎn)線特征的雙目視覺SLAM 系統(tǒng)框架Fig.1 Framework of binocular vision odometer system integrating point and line features

        在跟蹤線程中,雙目圖像作為輸入,首先對(duì)其利用多線程的方式分別對(duì)左右目圖像提取點(diǎn)特征與線特征,并利用特征匹配進(jìn)行點(diǎn)線特征的三角化;在位姿估計(jì)中,通過對(duì)點(diǎn)線特征的持續(xù)跟蹤,構(gòu)建點(diǎn)線特征的聯(lián)合重投影殘差,并利用非線性優(yōu)化求解位姿,如下:

        局部建圖線程通過具有共視關(guān)系的多個(gè)關(guān)鍵幀來維護(hù)一個(gè)共視窗口進(jìn)行后端位姿圖的局部?jī)?yōu)化,主要通過將地圖中的點(diǎn)特征以及線特征的重投影誤差Epi,Elj作為相機(jī)位姿約束,以及曼哈頓軸約束進(jìn)行聯(lián)合BA(光束平差法),對(duì)跟蹤線程得到的相機(jī)位姿進(jìn)行進(jìn)一步優(yōu)化,從而消除累積誤差,如式(2)所示[16]:

        其中:Mj表示對(duì)地圖線特征估計(jì)所得的曼哈頓軸,E||j,Mj代表曼哈頓軸Mj∈M相對(duì)于局部地圖中線特征j的誤差項(xiàng)。

        2.2 基于改進(jìn)LSD 的線特征提取方法

        本文平衡考慮精度和速度,采用LSD 線特征提取方法。然而,由于LSD 算法提取的無效線特征數(shù)量較多,提取和匹配的時(shí)間成本較高。此外,高質(zhì)量的特征更容易穩(wěn)定地跟蹤,并對(duì)定位算法做出更大的貢獻(xiàn)。如果直接將LSD 算法應(yīng)用于視覺SLAM 系統(tǒng)中,仍然會(huì)面臨一些問題需要解決。因此,本文提出了一種改進(jìn)的LSD 線特征提取方法,通過對(duì)線特征的梯度和長(zhǎng)度進(jìn)行抑制,抑制了一些梯度較小且長(zhǎng)度較短的線特征的產(chǎn)生。同時(shí),在局部?jī)?yōu)化過程中考慮平行和垂直約束以及曼哈頓軸的估計(jì),保留了相互平行和垂直的線特征。這樣做有利于提高線特征的質(zhì)量,并為后續(xù)的線特征匹配和定位過程提供更好的約束條件。

        對(duì)于一些短線特征可以通過判斷是否滿足短線合并條件從而進(jìn)行線段的合并,從而成為質(zhì)量更高的線特征。這種合并操作不僅可以減少線特征的數(shù)量,還能加快匹配和定位的速度,并降低定位算法的漂移風(fēng)險(xiǎn)。

        假設(shè)Ln,Lm是需要合并的兩條線特征向量,故其合并條件為在圖像坐標(biāo)系下滿足平行約束,且兩者左端點(diǎn)和右端點(diǎn)存在一定距離,由于斜率可能不存在,故采用向量夾角的余弦值作為判定條件,合并條件即:

        其中:λmin為平行判定閾值(根據(jù)多次平行特征余弦值計(jì)算實(shí)驗(yàn)。由于特征提取誤差導(dǎo)致其余弦值往往無法達(dá)到1,一般在0.999x以下的數(shù)量級(jí),故確定為0.999),distance()代表兩直線端點(diǎn)的最短距離,Ln.length 代表Ln的長(zhǎng)度。綜上所述,基于改進(jìn)LSD 的線特征提取算法的偽代碼描述如下:

        在第3,4,5 步中,將梯度不明顯的像素和長(zhǎng)度較小的矩形區(qū)域進(jìn)行剔除,并將剩下的未存在于矩形區(qū)域的每個(gè)像素分配到最近的直線區(qū)域,這有助于抑制一些梯度較小且長(zhǎng)度較短的線特征的產(chǎn)生。在第6 步中,對(duì)長(zhǎng)度小于閾值的線特征,只保留相互平行或垂直的線特征,并判斷是否滿足合并條件,從而將短線特征合并成質(zhì)量更高的線特征。

        2.3 基于幾何約束的快速線段三角化

        傳統(tǒng)方法下,幀與幀之間的線特征的三角化方法主要為首先提取兩幀之間LSD 線特征然后利用LBD 描述子進(jìn)行匹配,從而得到歸一化平面上線對(duì)的直線方程,若已知相機(jī)中心C1,C2在世界坐標(biāo)系中的位置,便可得到線與相機(jī)中心的兩個(gè)平面方程,通過平面方程的交線便可求出線特征的世界坐標(biāo)[16],示意圖如圖2 所示。

        圖2 線特征三角化方法Fig.2 Line feature triangulation method

        本文針對(duì)雙目視覺的線特征三角化問題,提出一種基于幾何約束的線特征三角化方法。針對(duì)線特征的匹配問題,傳統(tǒng)的基于LBD 描述子的匹配方式應(yīng)用于雙目線特征匹配,計(jì)算描述子復(fù)雜且匹配時(shí)間較長(zhǎng),不適用于弱紋理環(huán)境。雙目平行線特征匹配和三角化方法卻能提高線特征的匹配效率,其示意圖如圖3 所示。

        圖3 基于幾何約束的雙目線特征三角化方法示意圖Fig.3 Schematic diagram of binocular line feature triangulation method based on geometric constraints

        此外,雙目圖像經(jīng)過立體校正和去畸變處理后,雙目圖像中的像素點(diǎn)在對(duì)應(yīng)的行上具有嚴(yán)格的一一對(duì)應(yīng)關(guān)系。利用極線約束,兩幅圖像中的對(duì)應(yīng)線在同一水平線上,因此線對(duì)應(yīng)滿足區(qū)域約束。如圖3 所示,區(qū)域約束的應(yīng)用過濾掉大部分無關(guān)的線特征,從而加快了匹配速度。右目匹配線段應(yīng)處于區(qū)域內(nèi)或與區(qū)域相交,故定義區(qū)域約束Dij,將線段lk={sk,ek},sk和ek分別為線段的兩端點(diǎn),故區(qū)域約束Dij如下:

        鑒于平行約束與區(qū)域約束僅針對(duì)線特征本身,并未利用其鄰域信息,本文基于傳統(tǒng)的NCC匹配方法提出一種線特征的鄰域約束,即取左目線段的中心構(gòu)建3×3 鄰域匹配窗口Wp,并通過建立目標(biāo)函數(shù)來對(duì)右目線特征的匹配窗口進(jìn)行度量相關(guān)性,如式(7)所示:

        其中:d為左右目匹配中心區(qū)域的橫坐標(biāo)之差,Ii(x,y)代表左目鄰域窗口Wp中的像素灰度值,Ij(x+d,y)代表右目匹配窗口Wp中的像素灰度值。若NCC=-1,表示兩個(gè)匹配窗口完全不相關(guān);若NCC=1,則表示兩個(gè)匹配窗口相關(guān)程度非常高。令Nij=(1-NCCij)/2,故可定義左右目線對(duì)的匹配代價(jià)向量Qij為:

        其中Uij為線段的長(zhǎng)度約束,設(shè)兩線段長(zhǎng)度的比值為u,故Uij=|u-1|。若定義在左目區(qū)域約束內(nèi)的所有線段的代價(jià)向量為Ai={Qi0,Qi1…,Qin},由于雙目線特征匹配問題具有奇異性,即左右目線段都是唯一對(duì)應(yīng)的,若設(shè)其匹配向量xi={xi0,xi1…,xin},其中xij表示線對(duì)匹配成功則為1,反之則為0。進(jìn)一步建立線性約束Ai xi=b,其中b=[0 0 0 0]代表匹配誤差,保證其奇異性,且匹配向量xi歸一化后所有分量之和為1。因此,在上述約束條件下,將線段匹配問題轉(zhuǎn)化為優(yōu)化問題,利用L1 范數(shù)得到最優(yōu)解的稀疏表示[23]:

        初始值為x0={1,0…,0},采用牛頓高斯法求得其數(shù)值最優(yōu)解后,將xi進(jìn)行歸一化,xi中的最大分量xim代表兩線段的相似性最大,即為查詢線段的最佳匹配。

        在雙目線段匹配成功后,本文采用一種簡(jiǎn)單而有效的方法進(jìn)行線特征的三角化。通過左目線段端點(diǎn)縱坐標(biāo)的橫線與右目匹配線段的交點(diǎn),可以確定右目匹配線段的端點(diǎn),從而完成線特征的三角化。此外,本文還借鑒文獻(xiàn)[16]中RGBD相機(jī)的線特征優(yōu)化方法,對(duì)雙目三角化得到的線特征進(jìn)行了非線性優(yōu)化,利用線特征的重投影誤差求得最優(yōu)解。其優(yōu)化公式為:

        其中:Ek,o為歸一化線與平行關(guān)聯(lián)線段之間的夾角的正弦,ρ為減少異常值影響的Huber損失函數(shù)。

        3 實(shí) 驗(yàn)

        3.1 線特征提取與匹配

        線特征提取與匹配實(shí)驗(yàn)設(shè)備如圖4 所示,弱紋理圖像采集設(shè)備采用小覓雙目相機(jī)(S1030),分辨率為1 344×376,焦距為2.1 mm,基線長(zhǎng)度為12 cm,幀率為30 Hz,自建數(shù)據(jù)集場(chǎng)景為弱紋理室內(nèi)走廊環(huán)境,場(chǎng)景中僅存在白墻和門窗,如圖5 和圖6(a)所示,距離全長(zhǎng)為91 m 左右,錄制時(shí)長(zhǎng)為216 s,圖像數(shù)量為2×6 684 張。

        圖5 線特征提取算法對(duì)比Fig.5 Comparison of line feature extraction algorithms

        圖6 雙目匹配算法在弱紋理數(shù)據(jù)下的對(duì)比Fig.6 Comparison of binocular matching algorithm under weak texture data

        本文將所提出的線特征提取與匹配方法與目前已有方法進(jìn)行對(duì)比,線特征提取算法與原本的LSD 算法進(jìn)行對(duì)比,結(jié)果如圖5 所示。

        由圖5 可知,原始LSD 算法提取的線段分布較為集中,短小線段居多,且大部分梯度不明顯;相比之下,改進(jìn)LSD 線特征提取算法提取的線段質(zhì)量明顯高于原LSD 算法,且線特征大多為水平和豎直線段,為曼哈頓軸估計(jì)和基于線特征的位姿約束提供了更強(qiáng)的約束信息,更容易被跟蹤。

        線特征匹配實(shí)驗(yàn)中,將本文所提基于幾何約束的線特征匹配算法與傳統(tǒng)的基于LBD 描述子方法進(jìn)行對(duì)比。為了評(píng)估算法性能,本文使用的雙目匹配數(shù)據(jù)集為公開雙目數(shù)據(jù)集(室內(nèi)Euroc數(shù)據(jù)集[24]、室外KITTI 數(shù)據(jù)集[25])與自建弱紋理數(shù)據(jù)集。圖6 展示了在弱紋理圖像數(shù)據(jù)上進(jìn)行的線特征匹配結(jié)果(彩圖見期刊電子版)。

        在線特征提取方面,如圖6(a)和6(c)中紅色圓圈所示,LSD 算法提取的線特征大多具有較短的長(zhǎng)度和較小的梯度,無法進(jìn)行有效的匹配,因此被認(rèn)為是無效特征。相比之下,本文提出的改進(jìn)線特征檢測(cè)算法(如圖6(b)和6(d)所示)明顯提高了線特征的質(zhì)量,無效線特征的數(shù)量較少。在線特征匹配方面,本文所提方法基本無錯(cuò)誤匹配,而基于LBD 描述子的方法存在多處錯(cuò)誤匹配,如圖6(a)和6(c)中紅色線段所示,匹配精度明顯高于LSD+LBD 算法。為了定量評(píng)價(jià)雙目線特征匹配算法的精度,一般認(rèn)為投影誤差小于5 個(gè)像素為正確匹配。實(shí)驗(yàn)中,使用正確匹配的數(shù)量與匹配總數(shù)量之比來評(píng)估算法平均實(shí)驗(yàn)的匹配精度[20]。

        本文所用實(shí)驗(yàn)平臺(tái)CPU 為i5-4690,系統(tǒng)為ubuntu18.04;共進(jìn)行20 組實(shí)驗(yàn),每次實(shí)驗(yàn)取數(shù)據(jù)中跨度較大的實(shí)驗(yàn)場(chǎng)景,平均實(shí)驗(yàn)匹配精度與匹配時(shí)間如表1 所示。

        表1 該方法與基于LBD 的線特征匹配方法對(duì)比Tab.1 Comparison between proposed method and line segment matching method based on LBD

        表1 展示了本文所提算法與現(xiàn)有算法在公開數(shù)據(jù)集以及自建弱紋理數(shù)據(jù)集上的性能。首先,在線特征檢測(cè)數(shù)量方面,LSD 算法的平均檢測(cè)數(shù)量最多為84,F(xiàn)LD 算法平均檢測(cè)數(shù)量為63。雖然本文所提算法最少為54,但在匹配精度方面,基于LBD 描述子的線特征匹配方法中,LSD 算法的平均匹配精度為71%,F(xiàn)LD 的平均匹配精度為55%,而本文所提方法的平均匹配精度為85%,優(yōu)于其他兩種方法。這主要?dú)w因于本文方法提取的線特征質(zhì)量更高,并且通過雙目的幾何結(jié)構(gòu)約束,每條線特征具有唯一的極大值解。在結(jié)構(gòu)約束消融實(shí)驗(yàn)的對(duì)比中,當(dāng)缺少鄰域約束時(shí),平均精度為78%,減少6%,而缺少區(qū)域約束為83%,減少2%,可看出鄰域約束的作用大于區(qū)域約束,也證明了兩種約束的有效性。

        表2 比較了3 種不同方法的線特征平均提取時(shí)間以及匹配時(shí)間。其中,線特征提取時(shí)間是指兩張圖片的線特征提取時(shí)間,匹配時(shí)間則是指描述子的計(jì)算時(shí)間與匹配時(shí)間之和。在線特征提取方面,F(xiàn)LD 的提取速度最快,僅需18.5 ms,LSD 的線特征提取速度最慢,需要34.2 ms,本文所提出的算法的線特征提取速度居中為33.1 ms。在匹配時(shí)間方面,本文算法的線特征匹配時(shí)間僅需7.4 ms,而其他兩種算法的匹配時(shí)間分別需要17.5 ms 和15.3 ms。這表明基于幾何約束的線特征匹配方法比基于描述子的匹配方法具有更快的匹配速度。

        表2 不同算法的時(shí)間性能比較Tab.2 Comparison of time consumption of different algorithms(ms)

        綜上所述,本文提出的基于幾何約束的線特征匹配方法在精度和時(shí)間方面均表現(xiàn)出色,具有較高的實(shí)用性和效率。該方法能夠提供精準(zhǔn)的線特征匹配結(jié)果并在較短的時(shí)間內(nèi)完成匹配,在雙目視覺SLAM 系統(tǒng)中具有很大的應(yīng)用潛力。

        3.2 SLAM 建圖與定位實(shí)驗(yàn)

        本文將線特征檢測(cè)和線特征快速三角化方法到雙目視覺SLAM 系統(tǒng)中,提出一種點(diǎn)線特征融合的雙目視覺SLAM 系統(tǒng)。為了評(píng)估該系統(tǒng)的性能,選擇弱紋理的走廊和樓梯場(chǎng)景作為測(cè)試場(chǎng)景進(jìn)行了對(duì)比實(shí)驗(yàn)。將本文方法與基于點(diǎn)特征的雙目視覺SLAM 系統(tǒng)(ORBSLAM2 算法)進(jìn)行對(duì)比,它們的建圖和定位效果如圖7 所示。

        圖7 改進(jìn)雙目點(diǎn)線融合視覺SLAM 與ORBSLAM2 算法建圖與定位效果對(duì)比Fig.7 Comparison of image construction and positioning effects between improved binocular point line fusion visual SLAM and ORBSLAM2 algorithms

        從圖7(a)可以看出,基于點(diǎn)特征的ORBSLAM2[7]算法在轉(zhuǎn)彎時(shí)由于特征缺失發(fā)生了軌跡漂移導(dǎo)致最終與起點(diǎn)發(fā)生重大偏離,而在圖7(b)中則直接導(dǎo)致特征跟蹤失敗,算法失效。而點(diǎn)線融合雙目視覺SLAM 系統(tǒng)在走廊和樓梯場(chǎng)景下產(chǎn)生的軌跡依然平滑,不存在軌跡漂移以及跟蹤失敗的現(xiàn)象,且最終成功回到起點(diǎn),進(jìn)一步證明本文所提算法的抗干擾能力更強(qiáng),且本文算法在CPU 為i5-4690,系統(tǒng)為ubuntu18.04 的電腦主機(jī)上的平均運(yùn)行幀率達(dá)到18.1 frame/s,滿足實(shí)時(shí)性要求,具有更強(qiáng)的實(shí)用性能。為了進(jìn)一步驗(yàn)證算法的先進(jìn)性,將它與已有的基于點(diǎn)線融合的PL-SLAM[15]以及先進(jìn)的ORBSLAM3[9]進(jìn)行對(duì)比,它們的軌跡如圖8 所示。

        圖8 四種算法的軌跡對(duì)比Fig.8 Trajectories comparison of four algorithms

        圖8 展示了4 種算法在具有挑戰(zhàn)性的長(zhǎng)方形環(huán)形走廊場(chǎng)景下的定位軌跡.從圖8(a)可以觀察到,本文所提出的改進(jìn)算法是唯一成功回到起點(diǎn)形成閉環(huán)的算法,其他兩種算法則無法完成閉環(huán),而ORBSLAM2[8],ORBSLAM3[9]由于特征缺失也未觸發(fā)回環(huán)。以回到起點(diǎn)的距離作為誤差判定,本文所提算法、ORBSLAM2[8],ORBSLAM3[9],PL-SLAM[15]的定位誤差分別為1.24,7.49,6.36 和3.67 m。實(shí)驗(yàn)結(jié)果表明,該算法在弱紋理環(huán)境下的定位誤差較小,相對(duì)于ORBSLAM2[8],ORBSLAM3[9]算法,其精度分別提高了6.04 倍和5.13 倍;相對(duì)于PLSLAM[15]算法,其精度提高了2.96 倍。因此,在具有挑戰(zhàn)性的弱紋理環(huán)境下,除了追求更多的特征之外,還需要確保特征的質(zhì)量和穩(wěn)定性,并提高線特征匹配的精度,以進(jìn)一步提高定位的準(zhǔn)確性。

        4 結(jié)論

        針對(duì)室內(nèi)弱紋理環(huán)境下視覺SLAM 出現(xiàn)軌跡漂移等問題,本文提出了一種融合點(diǎn)線特征的雙目視覺SLAM 系統(tǒng),針對(duì)雙目視覺SLAM中線特征提取與匹配問題進(jìn)行研究,提出了一種基于改進(jìn)的LSD 線特征提取方法,并在此基礎(chǔ)上提出了一種基于幾何約束的快速線特征三角化方法。實(shí)驗(yàn)結(jié)果表明,該方法在多個(gè)數(shù)據(jù)集上的表現(xiàn)都優(yōu)于傳統(tǒng)的LSD+LBD 方法,在室內(nèi)弱紋理場(chǎng)景下的平均匹配精度達(dá)到91.67%,平均匹配時(shí)間為7.4 ms。雙目視覺SLAM 系統(tǒng)的定位誤差為1.24 m,其精度比ORBSLAM2,ORBSLAM3 算法高6.04 倍和5.13 倍,比PL-SLAM[算法高2.96 倍,具有很好的實(shí)用性和應(yīng)用前景。未來,可以考慮更多的幾何約束條件來進(jìn)一步提高線特征匹配的準(zhǔn)確性,或者探索更高效的線特征三角化方法,以及引入深度學(xué)習(xí)技術(shù)以提高系統(tǒng)的穩(wěn)定性和泛化能力。

        猜你喜歡
        雙目特征提取紋理
        基于BM3D的復(fù)雜紋理區(qū)域圖像去噪
        軟件(2020年3期)2020-04-20 01:45:18
        基于雙目測(cè)距的卡爾曼濾波船舶軌跡跟蹤
        電子制作(2019年20期)2019-12-04 03:51:38
        使用紋理疊加添加藝術(shù)畫特效
        基于Daubechies(dbN)的飛行器音頻特征提取
        電子制作(2018年19期)2018-11-14 02:37:08
        TEXTURE ON TEXTURE質(zhì)地上的紋理
        Coco薇(2017年8期)2017-08-03 15:23:38
        Bagging RCSP腦電特征提取算法
        消除凹凸紋理有妙招!
        Coco薇(2015年5期)2016-03-29 23:22:15
        基于雙目視覺圖像的長(zhǎng)度測(cè)量方法
        基于MED和循環(huán)域解調(diào)的多故障特征提取
        基于雙目視覺的接觸線幾何參數(shù)測(cè)量方法
        无码少妇一区二区三区| 免费黄片小视频在线播放| 国产情侣真实露脸在线| 国产超碰人人模人人爽人人喊| 毛片无码高潮喷白浆视频| 亚洲国产精品二区三区| 看日本全黄色免费a级| 玩弄放荡人妻少妇系列视频| 国产日韩欧美网站| 色视频日本一区二区三区 | 视频二区精品中文字幕| 久久精品亚洲牛牛影视 | 国产3p视频| 久草久热这里只有精品| 手机在线免费av资源网| 无码国模国产在线观看| 无码人妻视频一区二区三区99久久| 色se在线中文字幕视频| 日韩av精品视频在线观看| 男男受被攻做哭娇喘声视频| 久久国产精品视频影院| 国产亚洲av一线观看| 99无码精品二区在线视频| 一个人在线观看免费视频www| 一出一进一爽一粗一大视频免费的| 中文字幕精品亚洲二区| 国产草逼视频免费观看| 一夲道无码人妻精品一区二区| 国产亚洲精久久久久久无码苍井空| 91精品啪在线观看国产色| 成人午夜高潮a∨猛片| 国产老熟女狂叫对白| 国产不卡视频一区二区在线观看| 国语对白精品在线观看| 777精品久无码人妻蜜桃| 婷婷九月丁香| 国产激情小视频在线观看的| 国产高清av在线播放| 亚洲久热无码av中文字幕| 国产一区二区精品av| 亚洲 欧美 偷自乱 图片|