亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于2階HMM的智能車視覺(jué)地圖定位方法*

        2022-03-01 07:01:40胡釗政王志強(qiáng)肖漢彪
        汽車工程 2022年2期

        周 哲,胡釗政,2,王志強(qiáng),肖漢彪

        (1. 武漢理工大學(xué)智能交通系統(tǒng)研究中心,武漢 430063;2. 武漢理工大學(xué)重慶研究院,重慶 401120)

        前言

        獲取高精度的位置信息是智能車進(jìn)行路徑規(guī)劃、精確導(dǎo)航和障礙物避碰的必要條件,是保證智能車安全有序行駛的基礎(chǔ),被認(rèn)為是智能駕駛中最關(guān)鍵的問(wèn)題之一。目前,GPS、北斗導(dǎo)航系統(tǒng)獲取的智能車位置信息難以滿足全時(shí)高精度定位的需求。為了提高智能車的定位能力,利用車載傳感器獲取車輛的位置信息受到廣泛關(guān)注(如激光雷達(dá)、視覺(jué)傳感器等)。然而,激光雷達(dá)價(jià)格昂貴,一定程度上限制了智能車的普及。相比之下,視覺(jué)傳感器價(jià)格低廉,而且能夠提供豐富的紋理信息,因此,基于視覺(jué)的智能車定位成為近幾年研究的熱點(diǎn)。

        基于車載傳感器的定位方法需要事先對(duì)待定位場(chǎng)景進(jìn)行地圖構(gòu)建,而后利用傳感器實(shí)時(shí)獲取的傳感器數(shù)據(jù)與地圖數(shù)據(jù)匹配以獲取當(dāng)前車輛的位置信息,而正確的地圖匹配是實(shí)現(xiàn)車輛高精度定位的關(guān)鍵。Li 等和Lategahn 等分別在文獻(xiàn)[5]和文獻(xiàn)[6]中,將待定位場(chǎng)景離散為一序列節(jié)點(diǎn),每個(gè)節(jié)點(diǎn)包含場(chǎng)景的視覺(jué)特征和位置信息。定位階段,找到視覺(jué)地圖中與當(dāng)前圖像最相似的地圖圖像,并用PnP(perspective-n-points)方法求解當(dāng)前車輛的位置信息。特別是,近幾年隨著圖像局部特征描述符的快速發(fā)展(如SIFT、SURF、ORB),圖像中的場(chǎng)景信息可由多維特征向量進(jìn)行稀疏表示,大幅提高了圖像匹配的性能,其在智能車定位中的應(yīng)用也得到廣泛關(guān)注。Zhang 等利用SIFT 描述符的旋轉(zhuǎn)和尺度不變性,提出全景視覺(jué)里程計(jì)與自然路標(biāo)相結(jié)合的混合路標(biāo)定位方法。由于SIFT 算法的計(jì)算效率低,近年來(lái),更高效的SURF 和ORB 等特征描述符被用來(lái)進(jìn)行視覺(jué)定位。但隨著待定位場(chǎng)景的增大,特征匹配耗時(shí)增加,使得基于局部特征點(diǎn)匹配的方法難以在實(shí)時(shí)系統(tǒng)中應(yīng)用。

        為此,Galvez-Lpezde 等將文本檢索技術(shù)應(yīng)用于圖像檢索領(lǐng)域,提出視覺(jué)詞袋模型。在離線階段生成視覺(jué)詞典,每幅圖像由1 個(gè)特征向量表示,大幅提高匹配效率,使得視覺(jué)詞袋模型被廣泛的應(yīng)用。Garcia-Fidalgo 和Ortiz利用詞袋模型,提出層次化的圖像檢索方案,可以逐步縮小匹配范圍,提高檢索效率。但生成視覺(jué)詞典的過(guò)程復(fù)雜,需要消耗較長(zhǎng)的時(shí)間。為了提高特征匹配效率,Ma等在文獻(xiàn)[16]中將視覺(jué)地圖中相鄰的5 張圖像用一個(gè)GIST 描述符表示,并利用GIST 描述符進(jìn)行初定位,可以有效降低圖像搜索范圍。在文獻(xiàn)[17]中,劉國(guó)忠等將圖像重置為固定大小的圖像塊,并提取圖像中心的ORB 描述符作為整副圖像的描述,匹配效率得到極大的提升。為了提高系統(tǒng)運(yùn)行效率,本文中利用ORB 全局描述符構(gòu)建發(fā)射概率計(jì)算模型。此外,隨著深度學(xué)習(xí)的層次化特征提取不斷成熟,并在圖像檢索領(lǐng)域得到普遍關(guān)注。在文獻(xiàn)[18]中,王相龍等提出BoO(bag of objects)模型。首先利用AlexNet 網(wǎng)絡(luò)提取場(chǎng)景中較為穩(wěn)定的語(yǔ)義特征,生成表示場(chǎng)景的特征向量,在復(fù)雜光照條件下,能夠有效提高算法的魯棒性。在文獻(xiàn)[19]中,Khaliq 等利用卷積神經(jīng)網(wǎng)絡(luò)中間層提取圖像的全局特征實(shí)現(xiàn)位置識(shí)別。然而,這些圖像特征均是通過(guò)設(shè)計(jì)的算法對(duì)圖像的特征進(jìn)行提取和計(jì)算的,在紋理貧瘠的場(chǎng)景中魯棒性差。

        上述算法無(wú)論是特征相似度匹配,還是利用深度學(xué)習(xí)進(jìn)行的場(chǎng)景識(shí)別,其本質(zhì)是利用單幀圖像進(jìn)行匹配,并無(wú)考慮連續(xù)幀之間的約束關(guān)系。在高相似度的場(chǎng)景中,難以實(shí)現(xiàn)精確匹配,這也是視覺(jué)定位面臨的巨大挑戰(zhàn)之一。為了解決這一問(wèn)題,Milford 等利用連續(xù)幀之間的差異性作為相似性判斷標(biāo)準(zhǔn),但該方法需要計(jì)算連續(xù)幀灰度值之差,當(dāng)場(chǎng)景較大時(shí),會(huì)嚴(yán)重降低其計(jì)算效率,而且該方法對(duì)行駛速度限制苛刻,可擴(kuò)展性較差。另外,Qiao 等利用全局特征和局部特征相結(jié)合的多特征序列匹配,以提高匹配效率和精確度。雖然基于圖像序列的匹配提高了匹配的精度,但是這些方法并沒(méi)有考慮運(yùn)動(dòng)的拓?fù)湫畔?,制約了其在實(shí)際場(chǎng)景中的應(yīng)用。

        針對(duì)目前文獻(xiàn)中方法的不足之處,本文在視覺(jué)地圖構(gòu)建的基礎(chǔ)上,提出一種基于2 階隱馬爾科夫模型(HMM)的視覺(jué)地圖匹配方法,將智能車視覺(jué)地圖定位問(wèn)題轉(zhuǎn)化為HMM中最佳隱含狀態(tài)(對(duì)應(yīng)為視覺(jué)地圖中的節(jié)點(diǎn))估計(jì)問(wèn)題。其新穎之處在于:(1)利用智能車運(yùn)動(dòng)約束(即短時(shí)間內(nèi)勻速運(yùn)動(dòng)約束)構(gòu)建基于2 階HMM 模型的隱含狀態(tài)轉(zhuǎn)移概率模型,并通過(guò)前向算法將運(yùn)動(dòng)約束、道路拓?fù)浣Y(jié)構(gòu)與視覺(jué)場(chǎng)景約束進(jìn)行有機(jī)融合,以實(shí)現(xiàn)視覺(jué)地圖最優(yōu)匹配;(2)在2階HMM 模型中,提出基于ORB全局特征匹配的發(fā)射概率計(jì)算方法,并構(gòu)建高斯模型來(lái)描述查詢圖像與視覺(jué)地圖節(jié)點(diǎn)之間的發(fā)射概率,從而有效提高地圖匹配與定位的計(jì)算效率。

        1 研究方法

        1.1 面向視覺(jué)地圖匹配的2階HMM模型

        視覺(jué)地圖通過(guò)預(yù)先獲取道路場(chǎng)景的特征、三維結(jié)構(gòu)等信息完成場(chǎng)景表征。例如,文獻(xiàn)[5]和文獻(xiàn)[6]中利用每幀圖像提取的特征、軌跡與三維結(jié)構(gòu),構(gòu)造地圖節(jié)點(diǎn),完成視覺(jué)地圖構(gòu)建,地圖結(jié)構(gòu)如圖1所示。在定位過(guò)程中,智能車實(shí)時(shí)獲取道路場(chǎng)景的圖像數(shù)據(jù)并提取特征,通過(guò)與地圖中存儲(chǔ)的節(jié)點(diǎn)匹配,完成自身定位??梢园l(fā)現(xiàn),視覺(jué)地圖定位過(guò)程中最核心的問(wèn)題即為當(dāng)前圖像與地圖節(jié)點(diǎn)的最優(yōu)匹配問(wèn)題。

        圖1 視覺(jué)地圖示意

        本文中提出利用2 階HMM 模型來(lái)實(shí)現(xiàn)地圖最優(yōu)節(jié)點(diǎn)匹配,從而實(shí)現(xiàn)智能車地圖定位。其核心思想是將地圖中的節(jié)點(diǎn)定義為隱含狀態(tài),利用地圖節(jié)點(diǎn)與當(dāng)前查詢圖像的漢明距離定義發(fā)射概率,并利用運(yùn)動(dòng)約束來(lái)建立隱含狀態(tài)之間的轉(zhuǎn)移關(guān)系,這種狀態(tài)轉(zhuǎn)移模型充分描述了道路的拓?fù)浣Y(jié)構(gòu)與車輛的運(yùn)動(dòng)特征。然而,傳統(tǒng)的HMM 認(rèn)為時(shí)刻車輛的狀態(tài)只取決于- 1時(shí)刻的狀態(tài),而與- 1之前的狀態(tài)無(wú)關(guān)。在智能車定位過(guò)程中,這一假設(shè)顯然不能有效描述車輛復(fù)雜的運(yùn)動(dòng)特性。于是,為了適應(yīng)復(fù)雜的運(yùn)動(dòng),提高匹配的成功率,提出基于2 階HMM 的地圖匹配模型,即車輛在時(shí)刻的狀態(tài)由- 1 和-2 兩個(gè)時(shí)刻的狀態(tài)共同決定。從而,假設(shè)智能車在短時(shí)間內(nèi)滿足勻速運(yùn)動(dòng)約束,即可通過(guò)前兩個(gè)狀態(tài)計(jì)算出車輛短時(shí)間的速度。與經(jīng)典的HMM 相比,2 階HMM 模型拓展了算法的適用性。于是,本文中提出了基于2 階HMM 的視覺(jué)地圖匹配算法,其流程如圖2所示。

        圖2 基于2階HMM的視覺(jué)地圖定位流程

        該模型在視覺(jué)地圖構(gòu)建的基礎(chǔ)上,通過(guò)車輛-1和- 2兩個(gè)歷史狀態(tài)預(yù)測(cè)時(shí)刻的車輛狀態(tài),并利用構(gòu)建的高斯模型計(jì)算發(fā)射概率,而后通過(guò)前向算法求解當(dāng)前車輛與地圖各節(jié)點(diǎn)的概率,對(duì)應(yīng)的最大概率被認(rèn)為是最優(yōu)估計(jì)狀態(tài),也即當(dāng)前車輛的地圖匹配結(jié)果,記作。其核心為前向概率估計(jì)問(wèn)題,因此在本文中將地圖匹配問(wèn)題用最大條件概率表示,即為

        式中:表示時(shí)刻最優(yōu)估計(jì)狀態(tài);X為時(shí)刻的時(shí)間序列;={,,…,Z}表示觀測(cè)序列。為求解上述問(wèn)題,式(1)等號(hào)右邊可由全概率公式展開(kāi),又因觀測(cè)序列為已知,故有

        而直接計(jì)算式(2)需要邊緣化序列,即

        因車輛的歷史狀態(tài)和觀測(cè)均為已知,利用這些信息預(yù)測(cè)車輛在時(shí)刻的狀態(tài),故邊緣化時(shí)刻車輛的狀態(tài),即可獲取式(2)的結(jié)果,表示在序列觀測(cè)條件下對(duì)時(shí)刻的車輛狀態(tài)進(jìn)行估計(jì)。然而隨著時(shí)間序列的增加,其計(jì)算復(fù)雜度呈指數(shù)級(jí)增加。為了降低計(jì)算復(fù)雜度,前向算法利用HMM的條件獨(dú)立性假設(shè)對(duì)計(jì)算過(guò)程執(zhí)行遞歸運(yùn)算。為了實(shí)現(xiàn)遞歸運(yùn)算,定義:

        式(4)為實(shí)現(xiàn)前向算法迭代運(yùn)算的關(guān)鍵,其推導(dǎo)與計(jì)算過(guò)程見(jiàn)2.2節(jié)。

        1.2 基于視覺(jué)地圖的2階HMM構(gòu)建

        基于視覺(jué)地圖的智能車定位其主要任務(wù)是找到視覺(jué)地圖中與當(dāng)前車輛獲取圖像最相近的地圖節(jié)點(diǎn)。本研究中,概率最大的隱狀態(tài)認(rèn)為是當(dāng)前車輛匹配的最優(yōu)地圖節(jié)點(diǎn),如式(1)所示。于是,在2 階HMM 定位模型中,主要任務(wù)是找到每一時(shí)刻的,然而其計(jì)算復(fù)雜度較高。為了獲取當(dāng)前狀態(tài)的概率,研究中利用前向算法求解當(dāng)前時(shí)刻各狀態(tài)的概率,如圖3 所示。為了降低計(jì)算負(fù)擔(dān),提高算法迭代效率,定義- 1時(shí)刻的前向概率為

        圖3 基于2階HMM的智能車視覺(jué)地圖匹配與定位

        則時(shí)刻的前向概率為

        式中、、分別表示- 2、- 1 和時(shí)刻的狀態(tài)序列,x、x、x分別表示對(duì)應(yīng)的狀態(tài)。式(6)由鏈?zhǔn)椒▌t展開(kāi),變換后其迭代過(guò)程如下:

        式中:發(fā)射概率由觀測(cè)獨(dú)立假設(shè)獲得,即當(dāng)前時(shí)刻的觀測(cè)僅與當(dāng)前時(shí)刻的狀態(tài)有關(guān),記為bz);表示當(dāng)前狀態(tài);Z表示觀測(cè)的圖像數(shù)據(jù);狀態(tài)轉(zhuǎn)移概率由當(dāng)前時(shí)刻的車輛狀態(tài)與- 2和- 1兩個(gè)狀態(tài)之間的關(guān)系確定,記為a。式(7)可表述為

        式中為序列長(zhǎng)度。時(shí)刻所獲取各狀態(tài)的概率為

        則當(dāng)前時(shí)刻最大概率對(duì)應(yīng)的隱含狀態(tài)即為當(dāng)前時(shí)刻的地圖匹配結(jié)果,即為

        1.3 2階HMM模型參數(shù)設(shè)定

        基于2 階HMM 的地圖匹配模型包括狀態(tài)初始概率向量、隱狀態(tài)集合、觀測(cè)狀態(tài)集合、狀態(tài)轉(zhuǎn)移概率和發(fā)射概率5 個(gè)基本元素。所有視覺(jué)地圖中的節(jié)點(diǎn)位置組成隱狀態(tài)集合={X= x|∈[1,]},每個(gè)隱狀態(tài)由唯一的圖像數(shù)據(jù)與其對(duì)應(yīng),={Z=z|∈[1,]}為觀測(cè)狀態(tài)集合。在2 階HMM 中,狀態(tài)轉(zhuǎn)移概率(X|XX)表示當(dāng)前時(shí)刻的狀態(tài)由- 2 和- 1 兩個(gè)時(shí)刻的狀態(tài)決定。發(fā)射概率表示當(dāng)前狀態(tài)觀測(cè)到圖像數(shù)據(jù)的概率,表示為(Z|X),如圖3 所示。在該模型中狀態(tài)轉(zhuǎn)移概率和發(fā)射概率的正確表述是影響該算法性能的關(guān)鍵因素,具體過(guò)程如下文所述。

        1.3.1 系統(tǒng)初始化

        在2 階HMM 中,初始化包括初始狀態(tài)概率和初始狀態(tài)轉(zhuǎn)移概率。初始狀態(tài)與1 階隱馬爾科夫中的狀態(tài)初始化相同,均表示車輛在各狀態(tài)的概率。在本研究中,初始化狀態(tài)通常為已知,故

        初始狀態(tài)轉(zhuǎn)移概率則表示由初始狀態(tài)轉(zhuǎn)移到下一時(shí)刻狀態(tài)的概率,由={c|,∈[1,]}表示。由于初始狀態(tài)已知,故當(dāng)π= 0時(shí),到其他狀態(tài)的概率為0,則

        式中:為狀態(tài)轉(zhuǎn)移過(guò)程的標(biāo)準(zhǔn)差,為經(jīng)驗(yàn)值,本實(shí)驗(yàn)中取=0.5;則根據(jù)= 1 和= 2 時(shí)刻的狀態(tài)差而確定,以適應(yīng)不同速度的運(yùn)動(dòng)模型。= 1 時(shí)的定位結(jié)果為

        此時(shí)刻的狀態(tài)則由式(9)和式(10)獲得。

        1.3.2 基于高斯分布的狀態(tài)轉(zhuǎn)移建模

        在傳統(tǒng)HMM 中,假設(shè)時(shí)刻的狀態(tài)僅由- 1 時(shí)刻的狀態(tài)決定,這顯然難以應(yīng)對(duì)復(fù)雜的車輛運(yùn)動(dòng)。實(shí)際上車輛當(dāng)前時(shí)刻的狀態(tài)不僅直接受- 1 時(shí)刻的狀態(tài)影響,而且也受- 2,- 3,…等歷史狀態(tài)的影響。為了兼顧模型復(fù)雜度和車輛運(yùn)動(dòng)特征,研究中選取2 階狀態(tài)轉(zhuǎn)移模型,即時(shí)刻的狀態(tài)受影響于- 1和- 2兩個(gè)狀態(tài)。此時(shí)狀態(tài)轉(zhuǎn)移概率矩陣是3維矩陣,其大小為××(為地圖節(jié)點(diǎn)數(shù))。

        通常認(rèn)為狀態(tài)轉(zhuǎn)移過(guò)程服從高斯分布(如圖4所示)。例如,當(dāng)- 2 和- 1 時(shí)刻的狀態(tài)分別為xx,則時(shí)刻最大概率狀態(tài)為x,其分布概率為

        圖4 利用高斯分布進(jìn)行狀態(tài)轉(zhuǎn)移建模

        式中:= 2x- x,提供局部速度約束;根據(jù)構(gòu)建地圖和移動(dòng)速度的不同而不同,為經(jīng)驗(yàn)值,本文中選取=0.5。

        1.3.3 基于全局ORB匹配的發(fā)射概率建模

        發(fā)射概率b(z)表示車輛在x狀態(tài)下觀測(cè)到當(dāng)前圖像z的概率。為了提升狀態(tài)估計(jì)時(shí)的匹配效率,本研究利用全局圖像描述符計(jì)算地圖節(jié)點(diǎn)中存儲(chǔ)的圖像信息與當(dāng)前獲取圖像的相似度,具體為,把圖像重置為63×63 pixel 大小的圖像塊,將圖像中心作為整幅圖像的唯一特征點(diǎn),并提取該特征點(diǎn)的ORB 描述符向量,如圖5 所示。圖像相似度由兩個(gè)全局ORB 描述符的漢明距離計(jì)算得到,漢明距離(,)的計(jì)算方式如下所示:

        圖5 全局特征描述符

        式中:表示當(dāng)前圖像的全局描述符;表示地圖節(jié)點(diǎn)對(duì)應(yīng)圖像的全局描述符;f分別表示和的第位(∈[1,]);為異或運(yùn)算,漢明距離越小則對(duì)應(yīng)發(fā)射概率越大。

        通過(guò)式(16)可以計(jì)算當(dāng)前圖像與候選狀態(tài)對(duì)應(yīng)圖像之間的漢明距離。為了描述隨著圖像相似度的降低(漢明距離增大)發(fā)射概率逐漸變小這一現(xiàn)象,本文中通過(guò)構(gòu)建0 均值高斯模型,以描述觀測(cè)圖像與地圖節(jié)點(diǎn)圖像之間的相似度,也即HMM模型的發(fā)射概率為

        式中:(,)為當(dāng)前觀測(cè)圖像與狀態(tài)對(duì)應(yīng)的圖像數(shù)據(jù)的漢明距離;為方差;b(z)為狀態(tài)x到圖像z的發(fā)射概率。

        于是,車輛當(dāng)前時(shí)刻的狀態(tài)可由觀測(cè)圖像序列與視覺(jué)地圖的匹配結(jié)果獲取,其匹配過(guò)程見(jiàn)式(6)~式(8)。其中,- 1 時(shí)刻的前向概率可由觀測(cè)序列和- 1、- 2時(shí)刻的車輛狀態(tài)獲取,時(shí)刻車輛轉(zhuǎn)移到各狀態(tài)的概率由- 1 和- 2 時(shí)刻的車輛狀態(tài)獲得,如式(15),時(shí)刻的觀測(cè)信息由b(z)獲取,如式(17),則其對(duì)應(yīng)的最大隱狀態(tài)即為時(shí)刻的匹配結(jié)果,故基于2階HMM的地圖匹配結(jié)果可表示為

        2 實(shí)驗(yàn)與結(jié)果分析

        為了驗(yàn)證本算法的有效性,分別收集3 個(gè)不同路段的數(shù)據(jù)集進(jìn)行測(cè)試。其中前2 組試驗(yàn)利用試驗(yàn)室參與開(kāi)發(fā)的智能車系統(tǒng)進(jìn)行數(shù)據(jù)采集,如圖6 所示。該平臺(tái)配備有DGPS 和單目相機(jī)(point grey camera),圖像分辨率為1920×1080 pixel。第1 組實(shí)驗(yàn)數(shù)據(jù)在武漢某科技公司園區(qū)采集,如圖7(a)所示。第2 組實(shí)驗(yàn)采集開(kāi)放道路的數(shù)據(jù),數(shù)據(jù)采集路段為武漢市二環(huán)線的一段快速路,如圖7(b)所示。在快速路上車輛速度相對(duì)較高,節(jié)點(diǎn)間距比園區(qū)和KITTI數(shù)據(jù)集中的間距大。第3 組實(shí)驗(yàn)在公開(kāi)的KITTI 數(shù)據(jù)集上測(cè)試。3 組實(shí)驗(yàn)在相同的計(jì)算機(jī)硬件條件下進(jìn)行測(cè)試,其配置為Intel Core i7-7700HQ 2.8GHz CPU,開(kāi)發(fā)環(huán)境為Visual Studio 2017/C++。為了比較不同算法之間的性能差異,選取基于BoW模型的單幀匹配和基于深度學(xué)習(xí)的算法以及序列匹配的seqSLAM為對(duì)比算法。

        圖6 智能車視覺(jué)系統(tǒng)

        圖7 測(cè)試路段

        視覺(jué)地圖采用文獻(xiàn)[5]中的地圖構(gòu)建方法,將待定位場(chǎng)景離散為一序列節(jié)點(diǎn),每個(gè)節(jié)點(diǎn)包括視覺(jué)特征、三維信息和軌跡信息,其中視覺(jué)信息采用全局ORB 特征描述,全局ORB 特征提取如1.3.2 節(jié)中所述,所構(gòu)建視覺(jué)地圖如圖1所示。

        2.1 封閉工業(yè)園區(qū)測(cè)試

        在定位階段,僅使用單目攝像機(jī)作為數(shù)據(jù)采集傳感器,實(shí)驗(yàn)場(chǎng)景包括開(kāi)闊路段和陰影路段,長(zhǎng)近500 m,共采集圖像324張,測(cè)試場(chǎng)景如圖8所示。定位試驗(yàn)是在完成視覺(jué)地圖構(gòu)建的路段進(jìn)行測(cè)試。在封閉園區(qū)車輛行駛速度相對(duì)較低,視覺(jué)地圖節(jié)點(diǎn)平均間距約為3 m,共構(gòu)建164個(gè)視覺(jué)地圖節(jié)點(diǎn)。在構(gòu)建視覺(jué)地圖的基礎(chǔ)上,利用采集的226 張測(cè)試數(shù)據(jù)進(jìn)行驗(yàn)證。

        圖8 工業(yè)園區(qū)測(cè)試場(chǎng)景

        首先利用前30 張采集數(shù)據(jù)確定2 階HMM 模型的最優(yōu)參數(shù)。完成2 階HMM 模型參數(shù)確定后,利用測(cè)試集剩余的196 張圖像進(jìn)行驗(yàn)證。通過(guò)智能車的前2 個(gè)時(shí)刻的位置對(duì)系統(tǒng)進(jìn)行初始化,根據(jù)初始化位置,確定下一時(shí)刻車輛轉(zhuǎn)移到各地圖節(jié)點(diǎn)的概率。然后提取當(dāng)前圖像的ORB 全局描述符,并計(jì)算當(dāng)前圖像與各地圖節(jié)點(diǎn)對(duì)應(yīng)圖像的漢明距離,求得當(dāng)前圖像與各節(jié)點(diǎn)圖像的相似度。最后利用狀態(tài)轉(zhuǎn)移概率和計(jì)算的發(fā)射概率,通過(guò)前向算法獲取當(dāng)前位置與視覺(jué)地圖中節(jié)點(diǎn)之間的聯(lián)合概率,其最大概率認(rèn)為是當(dāng)前時(shí)刻的定位結(jié)果。本文研究的重點(diǎn)為智能車節(jié)點(diǎn)級(jí)定位,結(jié)果評(píng)價(jià)采用閉環(huán)檢測(cè)中常用的衡量標(biāo)準(zhǔn),即當(dāng)前車輛在相鄰節(jié)點(diǎn)之間時(shí),通常認(rèn)為最近的節(jié)點(diǎn)和次近的節(jié)點(diǎn)都是正確的匹配結(jié)果。

        本文中誤差幀是指獲取的地圖節(jié)點(diǎn)與真實(shí)節(jié)點(diǎn)之間的節(jié)點(diǎn)差。同時(shí),與當(dāng)前車輛相鄰的兩個(gè)節(jié)點(diǎn)被同等地認(rèn)為是與當(dāng)前車輛最近的節(jié)點(diǎn),其累積分布如圖9 所示。因?qū)Ρ人惴ǖ亩ㄎ唤Y(jié)果波動(dòng)比較大,為了便于數(shù)據(jù)的統(tǒng)計(jì)與分析,當(dāng)誤差大于4 幀時(shí)均按4幀處理。

        圖9 園區(qū)定位實(shí)驗(yàn)誤差分布

        本研究與經(jīng)典的基于BoW 的方法和基于深度學(xué)習(xí)的位置識(shí)別算法以及序列匹配的seqSLAM 算法進(jìn)行比較,其匹配范圍是由狀態(tài)預(yù)測(cè)的粗定位范圍。其定位誤差均值分別為0.12、0.48、0.43和0.46幀,誤差標(biāo)準(zhǔn)差分別為0.52、0.92、0.72 和1.04 幀。與對(duì)比算法的程序耗時(shí)74.55、86.38 和286.24 ms相比,本研究利用全局特征描述符來(lái)計(jì)算發(fā)射概率,省去了特征提取與卷積過(guò)程,而且僅需異或運(yùn)算即可獲得漢明距離,大幅降低了計(jì)算耗時(shí),如表1所示。算法成功找到最近節(jié)點(diǎn)的概率分別為93.24%、84.29%、89.10%和88.44%。此外,如圖9 所示,對(duì)比算法定位誤差大于等于4 幀的比例較大,表明定位結(jié)果波動(dòng)大。由上述數(shù)據(jù)顯示,本文中提出的2 階HMM 定位算法將拓?fù)湫畔⒑托蛄袌D像信息相融合,提高了定位的穩(wěn)定性和精度,其性能優(yōu)于對(duì)比算法。

        表1 不同算法在園區(qū)場(chǎng)景的性能對(duì)比

        2.2 開(kāi)放道路測(cè)試

        為了驗(yàn)證本算法對(duì)不同場(chǎng)景的適應(yīng)性,采集武漢市一段開(kāi)放道路的數(shù)據(jù)進(jìn)行驗(yàn)證,該測(cè)試路段共采集375 張圖像,路段長(zhǎng)度約為1200 m,測(cè)試路段如圖7(b)所示。由于此路段為快速路,車輛行駛速度相對(duì)較高,測(cè)試場(chǎng)景如圖10 所示。為了與封閉園區(qū)具有相似的測(cè)試數(shù)據(jù)集數(shù)量,該測(cè)試場(chǎng)景構(gòu)建的視覺(jué)地圖節(jié)點(diǎn)數(shù)為150 個(gè),相鄰節(jié)點(diǎn)之間的間距平均為8 m。利用采集的225張圖像作為測(cè)試數(shù)據(jù),參數(shù)確定過(guò)程與2.1節(jié)相同。

        圖10 快速路的測(cè)試場(chǎng)景

        開(kāi)放道路上的實(shí)驗(yàn)測(cè)試結(jié)果如圖11 所示,由概率分布可以看出,快速路場(chǎng)景下本算法的性能優(yōu)于園區(qū)的匹配結(jié)果,其平均匹配誤差為0.01 幀,匹配標(biāo)準(zhǔn)差為0.08 幀,性能均優(yōu)于對(duì)比算法,與對(duì)比算法的性能比較如表2 所示。經(jīng)分析,快速路場(chǎng)景下,本文算法相比于園區(qū)的匹配結(jié)果較好是因?yàn)樵诳焖俾穲?chǎng)景下光照條件好,圖像特征顯著,而且該測(cè)試路段不存在較大的轉(zhuǎn)彎等場(chǎng)景,因此視覺(jué)地圖匹配結(jié)果相對(duì)較高。由此也能夠說(shuō)明本算法更適應(yīng)在相對(duì)開(kāi)闊、光照條件好的場(chǎng)景下使用。

        圖11 快速路定位實(shí)驗(yàn)誤差分布

        表2 不同算法在快速路場(chǎng)景的性能對(duì)比

        2.3 公開(kāi)數(shù)據(jù)集KITTI測(cè)試

        KITTI數(shù)據(jù)集是智能駕駛領(lǐng)域使用最為廣泛的公開(kāi)數(shù)據(jù)集之一。本文中選取的測(cè)試數(shù)據(jù)集的采集設(shè)備如圖12所示,選取里程計(jì)數(shù)據(jù)集中的sequence_00作為測(cè)試數(shù)據(jù),其圖像大小為1241×376 pixel,其測(cè)試路段場(chǎng)景如圖13所示,為了說(shuō)明算法的可比性,選取包括兩個(gè)轉(zhuǎn)彎和一段陰影路段進(jìn)行測(cè)試。選取測(cè)試數(shù)據(jù)387張,距離近430 m,該場(chǎng)景構(gòu)建視覺(jué)地圖節(jié)點(diǎn)數(shù)為181 個(gè),節(jié)點(diǎn)平均間距約2.4 m。在確定2 階HMM最優(yōu)參數(shù)后,利用采集的206張圖像進(jìn)行測(cè)試。

        圖12 KITTI中用的數(shù)據(jù)采集系統(tǒng)

        圖13 KITTI測(cè)試道路場(chǎng)景

        在公開(kāi)數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果如圖14 所示,由圖中可以看出,在KITTI數(shù)據(jù)集中本算法的匹配性能與開(kāi)放道路場(chǎng)景下的匹配性能相當(dāng),其成功匹配的概率為99.33%。其與對(duì)比算法的平均匹配誤差分別為0.01、0.47、0.43 和1.07 幀,匹配誤差標(biāo)準(zhǔn)差分別為0.08、0.99、0.78 和1.78 幀,且程序平均耗時(shí)僅為3.31 ms,如表3 所示。因此,本研究中提出的基于2階HMM 的視覺(jué)地圖匹配算法在實(shí)地采集的數(shù)據(jù)集和公開(kāi)數(shù)據(jù)集中均有較好的定位精度和穩(wěn)定性。

        圖14 KITTI數(shù)據(jù)集定位實(shí)驗(yàn)誤差分布

        表3 不同算法在KITTI數(shù)據(jù)集中的性能對(duì)比

        3 結(jié)論

        本文中利用歷史狀態(tài)預(yù)測(cè)車輛的當(dāng)前位置,構(gòu)建2階HMM 的狀態(tài)轉(zhuǎn)移矩陣,并提取圖像的ORB全局描述符構(gòu)建基于漢明距離的發(fā)射概率計(jì)算模型,最后通過(guò)前向算法完成車輛狀態(tài)估計(jì),實(shí)現(xiàn)基于2階HMM 的智能車視覺(jué)地圖匹配。該方法可將圖像序列匹配與軌跡的拓?fù)湫畔⑾嗳诤?,有效降低?shù)據(jù)存儲(chǔ)空間和計(jì)算復(fù)雜度。為了驗(yàn)證算法的有效性,在不同場(chǎng)景和公開(kāi)數(shù)據(jù)集上進(jìn)行測(cè)試,試驗(yàn)結(jié)果表明,本算法在不同場(chǎng)景中均表現(xiàn)較好的匹配性能,其中在開(kāi)放道路和KITTI 數(shù)據(jù)集上的正確匹配率高達(dá)99%以上,具有較高的匹配精度和穩(wěn)定性。本研究能夠?qū)崿F(xiàn)精確的車輛實(shí)時(shí)定位,但單一攝像頭容易受外界干擾,在后續(xù)研究中,將開(kāi)發(fā)基于多傳感器融合的2階HMM智能車地圖匹配方案。

        日本a在线免费观看| 人妻精品人妻一区二区三区四区| 水蜜桃在线观看一区二区| 午夜毛片不卡免费观看视频| 亚洲国际无码中文字幕| 国产日韩午夜视频在线观看| av网站免费在线不卡| 蜜乳一区二区三区亚洲国产| 亚洲国产一区二区三区| 国产喷水1区2区3区咪咪爱av| 97se在线| 亚洲成av在线免费不卡| 丝袜美腿诱惑区在线播放| 丰满人妻猛进入中文字幕| 被黑人猛烈30分钟视频| 国产主播福利一区二区| 国产免费人成网站在线播放| 人妻系列中文字幕av| 久久精品国产亚洲av麻豆色欲| 国产成人精品久久一区二区三区| 就去吻亚洲精品欧美日韩在线| av亚洲在线一区二区| 亚洲综合一区二区三区在线观看 | 极品粉嫩小仙女高潮喷水网站 | 亚洲精品中字在线观看| 六月丁香综合在线视频| 欧美精品在线一区| 日韩人妻免费一区二区三区 | 国产精品久久久久乳精品爆| 欧美日韩中文制服有码| 一二区视频免费在线观看| 欧美熟妇另类久久久久久多毛 | 久久久国产精品五月天伊人| 亚洲一品道一区二区三区| 一边做一边喷17p亚洲乱妇50p| 伊人久久网国产伊人| 中文字幕精品亚洲一区二区三区| 国产精品沙发午睡系列| 国内精品卡一卡二卡三 | 欧美丰满熟妇性xxxx| 狠狠久久久久综合网|