亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        地面無人平臺視覺導(dǎo)航定位技術(shù)研究

        2019-07-11 04:59:44付夢印宋文杰王美玲
        導(dǎo)航定位與授時(shí) 2019年4期
        關(guān)鍵詞:里程計(jì)光流無人

        付夢印,宋文杰,楊 毅,王美玲

        (1.北京理工大學(xué),北京 100081; 2.南京理工大學(xué),南京 210094)

        0 引言

        地面無人平臺(Unmanned Ground Vehicle, UGV)是一個(gè)集環(huán)境感知、規(guī)劃決策、多等級輔助駕駛等功能于一體的綜合系統(tǒng),其具備的自動駕駛功能能夠?qū)崿F(xiàn)車輛在結(jié)構(gòu)化道路、非結(jié)構(gòu)化道路、非道路區(qū)域下連續(xù)、實(shí)時(shí)地自動駕駛。自20世紀(jì)80年代開始,以美國國防部高級研究規(guī)劃局舉辦的地面無人系統(tǒng)挑戰(zhàn)賽為標(biāo)志,地面無人平臺相關(guān)技術(shù)取得了較大的研究進(jìn)展[1-3]。而我國近些年來連續(xù)舉辦的多屆中國智能車未來挑戰(zhàn)賽和跨越險(xiǎn)阻陸上無人系統(tǒng)挑戰(zhàn)賽也極大地推動了國內(nèi)地面無人平臺技術(shù)的發(fā)展[4-5]。雖然相關(guān)技術(shù)經(jīng)過了近10年的高速發(fā)展,但在復(fù)雜的交通場景下實(shí)現(xiàn)完全的自動駕駛?cè)悦媾R著多項(xiàng)重大挑戰(zhàn)。其一,復(fù)雜多變的動態(tài)隨機(jī)場景要求地面無人平臺具有更高水平的自主學(xué)習(xí)能力;其二,多種類、長時(shí)間、高標(biāo)準(zhǔn)的任務(wù)需求要求地面無人平臺能夠更加準(zhǔn)確地獲得復(fù)雜環(huán)境中多類信息并實(shí)現(xiàn)自身的精確定位;其三,大范圍、高密度的使用頻率要求地面無人平臺擁有低成本、高可靠性的傳感器來輔助其實(shí)現(xiàn)相應(yīng)功能。機(jī)器視覺作為環(huán)境感知的重要技術(shù)手段,在信息豐富度和環(huán)境適應(yīng)性上具有較大優(yōu)勢,是目前地面無人平臺實(shí)現(xiàn)自主導(dǎo)航與實(shí)時(shí)定位的重要研究方向。以機(jī)器視覺為基礎(chǔ),加州大學(xué)伯克利分校、德國戴姆勒研發(fā)中心、芝加哥大學(xué)豐田技術(shù)研究院等頂級研究機(jī)構(gòu)分別發(fā)布BAIR[6]、Cityscape[7]、KITTI[8]等數(shù)據(jù)集,是目前地面無人平臺領(lǐng)域權(quán)威的算法開發(fā)及性能評測工具。Andreas Geiger[9]、Hermann Winner[10]、Reinhard Klette[11]、Stefan Milz[12]等機(jī)器視覺專家根據(jù)多類數(shù)據(jù)集對地面無人平臺自主導(dǎo)航及定位技術(shù)的最新研究進(jìn)展進(jìn)行了詳細(xì)對比分析,對本領(lǐng)域研究工作具有一定的指導(dǎo)意義和參考價(jià)值。

        典型的地面無人平臺視覺定位與地圖構(gòu)建系統(tǒng)架構(gòu)如圖 1所示,主要包括圖像信息預(yù)處理、視覺里程計(jì)、回環(huán)檢測、全局位姿優(yōu)化和地圖構(gòu)建等5個(gè)基本模塊,各模塊的實(shí)現(xiàn)手段則包括了多類關(guān)鍵技術(shù)。本文主要以該系統(tǒng)架構(gòu)為基礎(chǔ),針對各模塊所涉及的關(guān)鍵技術(shù),總結(jié)了近些年來國內(nèi)外主流的研究成果,對比分析了各關(guān)鍵技術(shù)中主流方法的性能,并對地面無人平臺視覺導(dǎo)航及定位技術(shù)的發(fā)展方向進(jìn)行了展望。

        圖1 視覺定位與地圖構(gòu)建系統(tǒng)框圖Fig.1 Block diagram of vision-based positioning and mapping system

        1 圖像信息預(yù)處理

        地面無人平臺常用的視覺傳感器主要包括單目相機(jī)、雙目或多目相機(jī)、全景相機(jī)、深度相機(jī)等。在這些傳感器原始數(shù)據(jù)的基礎(chǔ)上,研究人員通常通過不同的處理方法,提取光流、深度、場景流、語義等元素信息,以輔助地面無人平臺進(jìn)行自主導(dǎo)航與定位。

        1.1 光流計(jì)算

        光流(Optical Flow, OF)是在圖像坐標(biāo)系下表征2幅圖像之間亮度模式二維運(yùn)動的一種矢量簇,可以為場景理解、姿態(tài)估計(jì)、目標(biāo)跟蹤等任務(wù)提供重要信息。該問題的研究始于幾十年前,Horn和Schunck[13]在假設(shè)一段時(shí)間內(nèi)一個(gè)像素的亮度是恒定的前提下,首先利用變分公式計(jì)算獲得了光流信息。目前常見的光流場計(jì)算方法主要是在亮度恒定、小運(yùn)動、空間一致等約束條件下實(shí)現(xiàn)的,一般分為基于梯度、基于匹配、基于能量、基于相位、基于神經(jīng)動力學(xué)、基于深度神經(jīng)網(wǎng)絡(luò)等機(jī)器學(xué)習(xí)方法六類[14]。而光流的使用形式主要有稀疏光流和稠密光流兩種,其中稀疏光流僅包含主要特征點(diǎn)的運(yùn)動矢量信息,而稠密光流則包含了每個(gè)像素的運(yùn)動矢量信息,如圖 2所示。

        (a)稀疏光流

        (b)稠密光流圖2 稀疏光流與稠密光流計(jì)算結(jié)果[15]Fig.2 Calculation results of sparse and dense optical flow

        KITTI[7]作為目前地面無人平臺研究中最為流行的測評數(shù)據(jù)集,對目前自動駕駛功能中稠密光流的計(jì)算方法進(jìn)行了定量對比和排名。本文以KITTI2015數(shù)據(jù)集提供的光流計(jì)算方法排名為準(zhǔn),列出了目前主流方法的性能對比情況,如表1所示。其中,各方法的表現(xiàn)性能主要使用車輛運(yùn)動過程中背景信息平均光流離異值(Outliers)百分比(Fl-bg)、前景信息平均光流離異值百分比(Fl-fg)、全部像素平均光流離異值百分比(Fl-all)、計(jì)算時(shí)間(Runtime)和計(jì)算平臺(Environment)進(jìn)行表述。

        表1 目前主流的稠密光流計(jì)算方法對比

        1.2 圖像深度信息估計(jì)

        圖像深度信息通??梢酝ㄟ^兩種方式獲得:利用Kinect、Realsense等深度相機(jī)直接獲取[18-19]和通過立體匹配或其他深度估計(jì)方法獲得視差圖或深度圖[20-26],如圖 3所示。然而,深度相機(jī)由于探測距離近(3~5m)且在戶外易受干擾,并不適用于地面無人系統(tǒng)。因此,目前研究人員主要采用第二種方式獲得城市交通場景的實(shí)時(shí)深度信息。傳統(tǒng)立體匹配算法主要分為基于區(qū)域的立體匹配[20]、基于特征的立體匹配[21]和基于相位的立體匹配[22]等。其中,基于區(qū)域匹配的SGM[23]是目前應(yīng)用于戶外環(huán)境中最受研究者青睞的立體匹配算法。基于該算法,越來越多更為有效的立體匹配方法也被相繼提出,例如iSGM[24]、SORT-SGM[25]、rSGM[26]等。近些年,隨著深度學(xué)習(xí)技術(shù)的廣泛應(yīng)用,越來越多的研究者開始利用雙目圖像[27-28]或者甚至僅利用單目圖像[29]作為深度卷積神經(jīng)網(wǎng)絡(luò)的輸入進(jìn)行訓(xùn)練,直接獲得更為精確的稠密視差圖。本文以KITTI2015數(shù)據(jù)集提供的視差圖和深度圖估計(jì)方法的排名為基礎(chǔ),列出了目前主流方法的性能對比情況,如表2所示。其中,各方法的表現(xiàn)性能主要使用車輛運(yùn)動過程中背景信息平均視差離異值(Outliers)百分比(D1-bg)、前景信息平均視差離異值百分比(Dl-fg)、全部像素平均視差離異值百分比(Dl-all)、計(jì)算時(shí)間(Runtime)和計(jì)算平臺(Environment)進(jìn)行表述。

        (a)視差圖估計(jì)

        (b)深度圖估計(jì)圖3 圖像深度信息估計(jì)[27]Fig.3 Image depth information estimation

        方法D1-bgD1-fgD1-allRuntimeEnvironmentM2S_CSPN[27]1.51%2.88%1.74%0.5sGPU@2.5GHz(C/C++)FBA-AMNet1.57%3.38%1.87%0.9sGPU@2.5GHz(C/C++)EdgeStereo-V2[28]1.91%3.16%2.12%0.32sNvidia GTX Titan XpTinyStereo1.93%3.76%2.24%0.4sGPU@2.5GHz(Python)PWCDC_ROB5.11%7.03%5.43%0.02s1core@2.5GHz(Python)

        1.3 圖像場景流提取

        場景流(Scene Flow,SF)是場景的密集或半密集3D運(yùn)動場,用于表征場景中三維物體相對于相機(jī)的運(yùn)動情況,可以用于周圍物體的運(yùn)動預(yù)測,或是改進(jìn)已有的視覺預(yù)測與即時(shí)定位與地圖構(gòu)建(Simultaneous Localization and Mapping,SLAM)算法。雙目或多目相機(jī)立體匹配雖然可以獲得當(dāng)前幀圖像的深度信息,卻無法表達(dá)任何運(yùn)動信息。而單目相機(jī)通過前后幀匹配雖然可以獲得光流等運(yùn)動特征,但由于缺少深度信息,仍無法較好地解析出連續(xù)圖像幀的場景流特征。在地面無人平臺自主導(dǎo)航過程中,實(shí)現(xiàn)三維世界內(nèi)運(yùn)動物體的分割及運(yùn)動場景解析對于規(guī)劃、決策與控制等模塊均具有重要作用。場景流主要是將光流信息推廣到三維空間,或?qū)⒊砻苌疃刃畔⑼茝V到時(shí)間維度上。因此,場景流是建立在三維物理世界和時(shí)間維相結(jié)合的四維空間內(nèi)。其目標(biāo)是在給定連續(xù)圖像序列的基礎(chǔ)上,通過空間維度和時(shí)間維度的稠密匹配估計(jì)三維運(yùn)動場,即場景中每個(gè)可見表面上每一點(diǎn)的三維運(yùn)動向量,所得場景流效果圖如圖4所示[30]?;趫D像場景流估計(jì)的最小系統(tǒng)是由2個(gè)連續(xù)立體圖像對搭建的,如圖5所示[31]。以KITTI2015數(shù)據(jù)集提供的場景流計(jì)算方法排名為準(zhǔn),列出了目前主流方法的性能對比情況,如表3所示。其中,各方法的表現(xiàn)性能主要使用車輛運(yùn)動過程中背景信息平均場景流離異值(Outliers)百分比(SF-bg)、前景信息平均場景流離異值百分比(SF-fg)、全部像素平均場景流離異值百分比(SF-all)、計(jì)算時(shí)間(Runtime)和計(jì)算平臺(Environment)進(jìn)行表述。

        圖4 連續(xù)立體圖像幀估計(jì)場景流[30]Fig.4 Scene flow estimation by continuous stereo images

        圖5 雙目相機(jī)場景流估計(jì)最小系統(tǒng)[31]Fig.5 Minimal setup for image-based scene flow estimation

        方法SF-bgSF-fgSF-allRuntimeEnvironmentFSF+MS [32]11.17%33.91%14.96%2.7s4cores@3.5GHz(C/C++)PRSM[30]6.61%20.79%8.97%300s1core@2.5GHzISF[17]6.58%15.63%8.08%10min1core@3GHzDSSF4.39%15.94%6.31%0.75sCPU+GPU@2.5GHzDH-SF5.35%18.70%7.58%350s1core@2.5GHz

        1.4 圖像語義信息分類

        圖像語義分割(Semantic Segmentation)是一類能夠獲取圖像中的每個(gè)像素所對應(yīng)物體標(biāo)簽的像素級分割方法的統(tǒng)稱。在深度學(xué)習(xí)出現(xiàn)以前,早期的圖像分割方法大多僅能通過像素與像素間的關(guān)系進(jìn)行不包含語義信息的二分類,例如N-Cut[33]和在此基礎(chǔ)上發(fā)展出的包含人工干預(yù)的Grab Cut[34]等。而隨著深度學(xué)習(xí)的迅速發(fā)展,全卷積神經(jīng)網(wǎng)絡(luò)[35]的出現(xiàn)為像素級圖像語義分割(Pixel-level semantic segmentation)提供了一種全新的方法:通過將卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)的全連接層替換為卷積層,利用反卷積方法實(shí)現(xiàn)了像素級的語義劃分。隨后,空洞卷積核[36]和條件隨機(jī)場[37]方法進(jìn)一步解決了原網(wǎng)絡(luò)對細(xì)節(jié)不敏感的問題。在此基礎(chǔ)上,實(shí)例級的語義分割(Instance-level semantic segmentation)同樣在快速發(fā)展,其能夠在實(shí)現(xiàn)像素級語義劃分的基礎(chǔ)上,進(jìn)一步分割出圖像中同一種類的不同物體,如圖6所示。以KITTI2015數(shù)據(jù)集提供的像素級語義分割與實(shí)例級語義分割方法的排名為基礎(chǔ),列出了目前主流方法的性能對比情況,如表4和表5所示。其中,像素級語義分割各方法的表現(xiàn)性能主要使用車輛運(yùn)動過程中每個(gè)類或類別重疊區(qū)域占聯(lián)合區(qū)域的百分比(IoU class/category)、根據(jù)平均實(shí)例大小獲得的每個(gè)類或類別的加權(quán)重疊區(qū)域占聯(lián)合區(qū)域的百分比(IoU class/category)、計(jì)算時(shí)間(Runtime)和計(jì)算平臺(Environment)進(jìn)行表述。實(shí)例級語義分割各方法的表現(xiàn)性能主要使用車輛運(yùn)動過程中每個(gè)類區(qū)域級別IoU的平均準(zhǔn)確率(AP)、重疊值50%以上每個(gè)類區(qū)域級別IoU的平均準(zhǔn)確率(AP 50%)、計(jì)算時(shí)間(Runtime)和計(jì)算平臺(Environment)進(jìn)行表述。

        (a) 像素級語義分割

        (b) 實(shí)例級語義分割圖6 像素級與實(shí)例級語義分割結(jié)果[8]Fig.6 Semantic segmentation results of pixel-level and instance-level

        表4 目前主流的像素級語義分割方法對比

        表5 目前主流的實(shí)例級語義分割方法對比

        2 視覺里程計(jì)

        視覺里程計(jì)(Visual Odometry,VO)是指利用連續(xù)圖像計(jì)算或記錄一個(gè)或多個(gè)相機(jī)運(yùn)動軌跡的一種航位推算方法。該方法主要是通過估計(jì)連續(xù)圖像幀的相機(jī)位置之間相對轉(zhuǎn)換,并隨著時(shí)間推移積累所有轉(zhuǎn)換,以恢復(fù)完整的軌跡增量,其推算方式如圖7所示。從計(jì)算方法的角度分析,視覺里程計(jì)一般可以分為特征匹配法和直接公式推導(dǎo)法。一般而言,特征匹配法通常適用于直線、角點(diǎn)等特征信息豐富的環(huán)境。相比而言,直接公式推導(dǎo)法利用了整個(gè)圖像的梯度信息,因此這類方法在關(guān)鍵點(diǎn)較少的環(huán)境中可以獲得較高的精度和魯棒性。而從傳感器類型的角度分析,一般可以分為單目視覺里程計(jì)和雙目視覺里程計(jì)兩類。

        圖7 視覺里程計(jì)航位推算流程[68]Fig.7 Process flow of visual odometer

        2.1 單目視覺里程計(jì)

        單目視覺里程計(jì)由于缺少尺度信息,通常只能恢復(fù)一個(gè)維度上的運(yùn)動信息。然后,可以通過計(jì)算場景中物體的大小、根據(jù)運(yùn)動約束或與其他傳感器集成來確定絕對尺度。早期最為經(jīng)典的單目相機(jī)運(yùn)動估計(jì)方法是Longuet-Higgins提出的八點(diǎn)法[41],但該方法噪聲較大,尤其是相機(jī)矯正不準(zhǔn)確的情況下表現(xiàn)較差。Mirabdollah等利用八點(diǎn)法研究了基本矩陣的二階統(tǒng)計(jì)量,使用泰勒二階展開式得到協(xié)方差矩陣以及共面性方程以減少估計(jì)誤差[42]。但由于缺乏深度信息,該方法的漂移問題仍然尤為突出。隨后,他們又提出了一種基于迭代五點(diǎn)法的實(shí)時(shí)、魯棒的單目視覺里程計(jì)方法[43]。利用概率三角形獲取不確定地標(biāo)的位置,并對地面上具有低質(zhì)量特征的運(yùn)動尺度進(jìn)行估計(jì),以獲得更加準(zhǔn)確的定位效果。基于KITTI測試集提供的單目視覺里程計(jì)方法排名為基準(zhǔn),本文列出了目前主流方法的性能對比情況,如表6所示。其中,Translation為各方法在三軸方向上的平均平移誤差,Rotation為各方法在三軸方向上的平均旋轉(zhuǎn)誤差。

        2.2 雙目視覺里程計(jì)

        相比單目視覺里程計(jì),雙目視覺里程計(jì)對于圖像中像素的深度信息可以通過相機(jī)內(nèi)外參數(shù)進(jìn)行解算,因此不存在尺度估計(jì)的問題。同時(shí),雙目視覺里程計(jì)往往可以融合自身運(yùn)動估計(jì)和地圖構(gòu)建來解決漂移問題。所以,目前在KITTI測試集提供的視覺里程計(jì)性能排名中,雙目視覺里程計(jì)的表現(xiàn)普遍是優(yōu)于單目視覺里程計(jì)的。本文列出了目前主流的雙目視覺里程計(jì)方法的性能對比情況,如表7所示。其中,Engel等[47]提出了一種實(shí)時(shí)、大規(guī)模的直接雙目視覺里程計(jì)算法,該算法將多視角立體圖像與靜態(tài)立體圖像進(jìn)行耦合,從而實(shí)現(xiàn)了靜態(tài)立體圖像下實(shí)時(shí)深度估計(jì),避免了使用多視角立體圖像造成的尺度漂移,該算法實(shí)現(xiàn)效果如圖8所示。而ORB-SLAM2[48]則是從圖像中提取ORB特征,根據(jù)歷史幀進(jìn)行位姿估計(jì),然后跟蹤已經(jīng)重建的局部地圖進(jìn)行位姿優(yōu)化。

        表7 目前主流的雙目視覺里程計(jì)方法對比

        圖8 LSD-SLAM雙目視覺里程計(jì)位姿 估計(jì)及半稠密地圖構(gòu)建[47]Fig.8 Pose estimation and semi-dense map construction in LSD-SLAM

        3 回環(huán)檢測及全局優(yōu)化

        由于SLAM系統(tǒng)的位姿誤差隨著時(shí)間推移不斷累積,產(chǎn)生漂移現(xiàn)象,因此需要通過回環(huán)檢測模塊識別出曾經(jīng)到達(dá)過的場景,從而在地圖中得到一個(gè)回環(huán)路徑以便進(jìn)行全局優(yōu)化。

        為了實(shí)現(xiàn)回環(huán)檢測,通常需要通過某種方式在歷史數(shù)據(jù)庫中尋找與當(dāng)前采集的圖像相似的圖像,進(jìn)而求取2幅圖像的相機(jī)位姿變換關(guān)系實(shí)現(xiàn)閉環(huán)。目前主流的回環(huán)檢測方法可以大致分為基于全局特征和基于局部特征兩種。其中,基于全局特征的回環(huán)檢測方法通過對整幅圖像或部分圖像提取特征, 較典型的全局特征是GIST特征[49]。基于局部特征的回環(huán)檢測方法則是提取圖像中的關(guān)鍵點(diǎn),并提取關(guān)鍵點(diǎn)的局部描述子,例如SIFT[49]、SURF[50]、FAST[51]、ORB[52]等。由于圖像中的特征點(diǎn)數(shù)量較多,因此通常采用BoW[53]、VLAD[54]等方法對特征點(diǎn)進(jìn)行聚類,增加存儲效率和查找效率。與局部特征相比,全局特征傾向于概括整個(gè)場景的內(nèi)容,對于場景的整體光照變化較魯棒,但是對于相機(jī)視角的變化比較敏感。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,基于深度學(xué)習(xí)的回環(huán)檢測方法也不斷涌現(xiàn),例如Gao X等[55]利用降噪自編碼器對閉環(huán)檢測采用的特征點(diǎn)進(jìn)行無監(jiān)督學(xué)習(xí);Arandjelovic R[56]在傳統(tǒng)VLAD算法的基礎(chǔ)上,提出了一個(gè)新的廣義VLAD層來得到特征向量,該層可以嵌入到已有的神經(jīng)網(wǎng)絡(luò)中進(jìn)行訓(xùn)練,該方法對光照和視角變化有一定的魯棒性;Chen Z[57]等則在已有神經(jīng)網(wǎng)絡(luò)上進(jìn)行修改,使其輸出多尺度視角不變的特征。

        4 地圖構(gòu)建

        地面無人平臺構(gòu)建的地圖是對其運(yùn)動過程中所感知環(huán)境模型的表征。在實(shí)際使用中,由于應(yīng)用需求不同,構(gòu)建的地圖類型也不同,主要分為度量地圖[58]、拓?fù)涞貓D[59]與語義地圖[60]三種。

        度量地圖注重精確地表示地圖中環(huán)境物體的位置關(guān)系,圖9所示為二維度量地圖,其以占據(jù)柵格的形式表征,允許地面無人平臺在所處環(huán)境中精確定位。度量地圖可通過SLAM方法在線獲取[61],也可通過數(shù)據(jù)采集后離線生成地圖,再集成到地面無人平臺的系統(tǒng)中。例如Google的街景項(xiàng)目通過采集世界各地城市的全景圖像對場景進(jìn)行度量地圖重構(gòu)[62]。

        圖9 二維度量地圖[69]Fig.9 2D metric map

        相比于度量地圖的精確性,拓?fù)涞貓D則以環(huán)境區(qū)域編碼為節(jié)點(diǎn),更強(qiáng)調(diào)地圖元素的獨(dú)立性以及元素之間的連通關(guān)系,圖10所示為具有拓?fù)涔?jié)點(diǎn)和弧的2D拓?fù)涞貓D。拓?fù)涞貓D的構(gòu)建方法分為在線和離線兩種途徑,Vorinoi圖法[63]是一種在線創(chuàng)建拓?fù)涞貓D的方法,但該方法需要很長的計(jì)算時(shí)間。雖然拓?fù)涞貓D對環(huán)境信息的表達(dá)更加緊湊,但其忽略了地圖的細(xì)節(jié),不適用于復(fù)雜結(jié)構(gòu)環(huán)境下地面無人平臺的導(dǎo)航[64]。

        不同于度量地圖和拓?fù)涞貓D,語義地圖基于環(huán)境語義信息與度量地圖的融合,旨在賦予地面無人平臺對周圍環(huán)境的場景理解能力,可以為地面無人平臺提供特定任務(wù)所需的環(huán)境信息,如圖11所示的包含停車區(qū)域信息的語義地圖能夠輔助地面無人平臺完成自主泊車功能[65]。環(huán)境語義信息可通過概率圖模型來得到,如Vineet等使用條件隨機(jī)場(Conditional Random Fields, CRFs),提出了一種基于Hash和CRFs的大規(guī)模語義地圖創(chuàng)建算法[66],適用于室外大規(guī)模稠密語義地圖重建。近年來研究者們開始結(jié)合深度學(xué)習(xí)方法與SLAM技術(shù)創(chuàng)建面向?qū)ο蟮恼Z義地圖,如Yang等利用CNN進(jìn)行語義分割,構(gòu)建了一種三維滑動語義占據(jù)柵格地圖[67]。

        5 結(jié)論與展望

        隨著計(jì)算機(jī)科學(xué)、信息科學(xué)、人工智能等技術(shù)的深入發(fā)展,地面無人平臺視覺導(dǎo)航定位技術(shù)得到了越來越廣泛的應(yīng)用。通過構(gòu)建不同類型的地圖并實(shí)現(xiàn)自身的實(shí)時(shí)精確定位,地面無人平臺已在邊境巡邏、軍事偵察、樓宇探測、災(zāi)后救援、礦井維護(hù)、室內(nèi)服務(wù)等多個(gè)重要領(lǐng)域產(chǎn)生了積極影響,能夠代替人類完成高溫、高壓、劇毒等惡劣環(huán)境下的危險(xiǎn)工作和高密度、長周期、大流量等復(fù)雜場景下的繁瑣作業(yè)。不過,由于該技術(shù)尚處于初級階段,在實(shí)際導(dǎo)航定位過程中仍面臨著諸多問題。第一,車載視覺信息的應(yīng)用條件往往較為苛刻,在光照變化劇烈、遮擋嚴(yán)重、高速移動等情況下,該類信息的感知魯棒性較低。因此,如何在算法設(shè)計(jì)上克服此類因素的影響,在硬件設(shè)計(jì)上研制一批靜動態(tài)成像特性好且成本低廉的視覺傳感器將是未來視覺導(dǎo)航定位技術(shù)的研究重點(diǎn);如何將視覺感知信息與毫米波雷達(dá)、激光雷達(dá)等其他形式的車載傳感器信息進(jìn)行有機(jī)融合將是地面無人平臺視覺導(dǎo)航定位技術(shù)得到有力補(bǔ)充的關(guān)鍵。第二,現(xiàn)有的視覺導(dǎo)航算法雖然可以獲得較高精度的構(gòu)圖及定位效果,但其計(jì)算成本往往很高,大部分算法需要依賴高性能處理器甚至專用芯片。因此,如何在保證算法精度和穩(wěn)定性的前提下,降低視覺導(dǎo)航的運(yùn)算成本也是本領(lǐng)域接下來的一個(gè)重點(diǎn)研究方向。第三,目前大部分視覺導(dǎo)航技術(shù)只是關(guān)注全局靜態(tài)地圖構(gòu)建與定位,對于多語義目標(biāo)的動態(tài)特性考慮不足,從而導(dǎo)致地面無人平臺在實(shí)際導(dǎo)航過程中對于移動障礙物的處理能力較差。因此,如何利用視覺信息實(shí)時(shí)檢測、跟蹤移動目標(biāo),并在此基礎(chǔ)上對各類目標(biāo)的未來運(yùn)動軌跡進(jìn)行精確預(yù)測將是本領(lǐng)域研究工作的另一個(gè)主要方向。

        同時(shí),目前主流的視覺導(dǎo)航算法、測評數(shù)據(jù)集和開發(fā)工具大多來自于海外院?;蚩蒲袉挝弧=┠?,我國雖然在該領(lǐng)域取得了較快進(jìn)展,但在機(jī)理研究和平臺建設(shè)方面,與國外先進(jìn)水平仍存在著較大差距。因此,我國只有加強(qiáng)引進(jìn)國外先進(jìn)科技,進(jìn)一步深入與國際頂級研究機(jī)構(gòu)的交流與合作,才能逐步縮小與國際先進(jìn)水平的差距。

        猜你喜歡
        里程計(jì)光流無人
        室內(nèi)退化場景下UWB雙基站輔助LiDAR里程計(jì)的定位方法
        利用掩膜和單應(yīng)矩陣提高LK光流追蹤效果
        一種單目相機(jī)/三軸陀螺儀/里程計(jì)緊組合導(dǎo)航算法
        無人戰(zhàn)士無人車
        反擊無人機(jī)
        基于物理學(xué)的改善粒子圖像測速穩(wěn)健光流方法研究
        基于模板特征點(diǎn)提取的立體視覺里程計(jì)實(shí)現(xiàn)方法
        詩到無人愛處工
        岷峨詩稿(2017年4期)2017-04-20 06:26:43
        無人超市會流行起來嗎?
        大角度斜置激光慣組與里程計(jì)組合導(dǎo)航方法
        人妻少妇激情久久综合| 欧美性xxxx狂欢老少配| 久久久亚洲欧洲日产国产成人无码 | 免费av一区二区三区无码| 欧美人与动人物姣配xxxx| 人妻无码一区二区视频| 伊人99re| 免费毛片一区二区三区女同| 亚洲av五月天一区二区| 9 9久热re在线精品视频| 亚洲色图视频在线| 青青草视频国产在线观看| 亚洲av日韩一卡二卡| 无人高清电视剧在线观看| 99在线播放视频| 中文字幕二区三区在线| 不卡免费在线亚洲av| 国语对白福利在线观看| 中文www新版资源在线| 好爽受不了了要高潮了av| 亚洲一区二区三区一区| 国产视频自拍一区在线观看| 久久精品国产亚洲av四虎| 久久久久亚洲精品天堂| 国产人妖直男在线视频| 波多野结衣绝顶大高潮| 精品少妇爆乳无码av无码专区| 试看男女炮交视频一区二区三区| 亚洲一本之道高清在线观看| 美女脱了内裤露出奶头的视频| 成人久久久久久久久久久| 精品久久久久久蜜臂a∨| 国产一区在线视频不卡| 亚洲乱码中文字幕在线播放| 亚洲日产精品一二三四区| 无码人妻一区二区三区免费手机| 久久99免费精品国产| 公厕偷拍一区二区三区四区五区| 亚洲人成人网站在线观看| 国产乱子伦精品免费女| 色婷婷精品大在线视频|