亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        語素關(guān)聯(lián)約束的動態(tài)環(huán)境視覺定位優(yōu)化

        2021-12-09 03:12:44邵曉航吳杭彬蔡天池程帆瑾
        測繪學(xué)報 2021年11期
        關(guān)鍵詞:關(guān)聯(lián)語義特征

        邵曉航,吳杭彬,劉 春,陳 晨,蔡天池,程帆瑾

        同濟(jì)大學(xué)測繪與地理信息學(xué)院,上海 200092

        高精度定位是自動駕駛的核心技術(shù)[1]。傳統(tǒng)的GNSS(Global Navigation Satellite System)定位技術(shù)易受樹木、建筑和隧道等障礙物遮蔽的影響。這時,同時定位與地圖構(gòu)建(simultaneous location and mapping,SLAM)成為自動駕駛技術(shù)的定位方案之一。視覺SLAM不僅成本低、易維護(hù),還可以獲得豐富的色彩、紋理信息,逐漸成為該領(lǐng)域的重要補(bǔ)充[2-3]。

        PTAM[4]是其中第1個采用并行方式實(shí)現(xiàn)跟蹤和建圖的SLAM方案,它通過非線性的BA(bundle adjustment)優(yōu)化,能夠?qū)崟r獲得圖像關(guān)鍵幀的軌跡和姿態(tài)。ORB-SLAM[5-7]在此基礎(chǔ)上新增了回環(huán)檢測線程,并利用改進(jìn)的圖像特征,實(shí)現(xiàn)了基于單、雙目相機(jī)和RGB-D相機(jī)的定位和跟蹤,它也是當(dāng)前基于特征點(diǎn)法中最成熟的開源視覺SLAM方案。除此之外還有基于像素灰度變化的直接法[8]和半直接法[9]等方案。

        這些方法在定位過程中普遍存在“靜態(tài)世界”的假設(shè),即假設(shè)像素或特征點(diǎn)的空間位置是不變的,而造成圖像灰度和視角變化的唯一原因是相機(jī)的位姿變化。然而自動駕駛場景是動態(tài)的,行人、汽車等移動物體會影響視覺特征關(guān)聯(lián)的準(zhǔn)確性。雖然這種影響可以通過RANSAC[10]或者核函數(shù)[11]過濾,但這是一種被動機(jī)制,并沒有從根本上改變這一假設(shè)。因此,如何在動態(tài)場景中尋找更穩(wěn)健的特征是視覺定位技術(shù)應(yīng)用于自動駕駛的關(guān)鍵之一。

        解決上述問題有兩種思路[12]。一種是把動態(tài)目標(biāo)的運(yùn)動囊括進(jìn)SLAM的估計(jì)過程,例如采用粒子濾波方法克服錯誤估計(jì)的影響[13],但是粒子的數(shù)量選擇和維持實(shí)時計(jì)算較困難。另一種更普遍,是讓SLAM方法結(jié)合深度學(xué)習(xí)技術(shù)[14-15],分割圖像中的動態(tài)區(qū)域,從而把它轉(zhuǎn)換為靜態(tài)環(huán)境的SLAM問題。例如,DS-SLAM[16]算法使用SegNet[17]識別環(huán)境中的物體,并將人體去除;DynaSLAM[18]算法采用Mask-RCNN[19]檢測動態(tài)物體,過濾目標(biāo)的同時補(bǔ)全被遮擋部分;MaskFusion[20]實(shí)現(xiàn)了一種實(shí)例級別的語義分割,以更加完全地過濾動態(tài)特征。DetectionFusion(arXiv:1707.09127,2019.)在實(shí)例分割的基礎(chǔ)上識別了未知運(yùn)動目標(biāo),從而實(shí)現(xiàn)更為完整的動態(tài)過濾。還有學(xué)者結(jié)合道路結(jié)構(gòu)化特征,設(shè)計(jì)了帶有改進(jìn)金字塔池化模塊的語義分割神經(jīng)網(wǎng)絡(luò)[21]。這些方法通過設(shè)計(jì)精巧的神經(jīng)網(wǎng)絡(luò)完成動態(tài)環(huán)境中的目標(biāo)識別,但它們依賴于動態(tài)目標(biāo)的分類規(guī)則,忽略了物體可能有“動態(tài)”和“靜態(tài)”雙重屬性的事實(shí)。例如行駛的汽車是動態(tài)的,但是??康钠囀庆o態(tài)的;并且靜態(tài)的物體仍能為視覺SLAM過程提供豐富的特征。因此有學(xué)者提出Detect-SLAM的方法[22],考慮了物體上特征點(diǎn)的運(yùn)動特性,在識別出語義目標(biāo)的基礎(chǔ)上為其分配運(yùn)動概率,每一幀位姿在估計(jì)時都更新概率值并去除高于閾值的運(yùn)動點(diǎn),但這方面研究較少。

        綜上所述,目前視覺定位SLAM技術(shù)存在受動態(tài)目標(biāo)影響大,且在復(fù)雜環(huán)境中不易準(zhǔn)確分辨動態(tài)目標(biāo)。為此,筆者提出了基于語素關(guān)聯(lián)的方法,并且基于經(jīng)典的ORB-SLAM方法建立了動態(tài)環(huán)境中的視覺定位優(yōu)化流程。

        1 語素關(guān)聯(lián)約束的定位優(yōu)化方法

        傳統(tǒng)視覺定位的原理是:通過幀間匹配計(jì)算相同關(guān)鍵點(diǎn)之間的像素差異,從而估計(jì)產(chǎn)生這種差異的位置和姿態(tài)(簡稱位姿)變化,同時輔以閉環(huán)優(yōu)化以減少誤差,其流程如圖1(a)所示。然而提取的特征點(diǎn)可能位于動態(tài)目標(biāo)上,但基于“靜態(tài)世界”假設(shè),這些特征點(diǎn)不利于位姿估計(jì),具體說明如圖2所示。因此,本文提出的視覺定位優(yōu)化方法在傳統(tǒng)流程基礎(chǔ)上,通過語義關(guān)聯(lián)識別環(huán)境中的動態(tài)語義要素(簡稱動態(tài)語素),并且形成特征掩膜用于“特征匹配”過程,從而幫助過濾動態(tài)特征點(diǎn)以獲得“穩(wěn)定的特征”,進(jìn)而優(yōu)化后續(xù)位姿估計(jì),如圖1(b)所示。

        圖1 基于語義要素關(guān)聯(lián)優(yōu)化的動態(tài)環(huán)境定位流程Fig.1 Flowcharts of location optimization in dynamic scenes by semantic association

        1.1 動態(tài)環(huán)境的影響

        一般SLAM算法認(rèn)為環(huán)境中的地標(biāo)點(diǎn)(圖像中關(guān)鍵點(diǎn)所對應(yīng)的物體)是固定的,空間中同一個地標(biāo)在前后兩幀圖像中的像素差異,僅源于相機(jī)的位置和姿態(tài)改變。因此,當(dāng)相機(jī)內(nèi)參已知時,它的位姿和地標(biāo)點(diǎn)之間存在如式(1)的關(guān)系

        ξ(P,R)=Γ(K,M)

        (1)

        式中,K是用像素坐標(biāo)表達(dá)的關(guān)鍵點(diǎn);M是相機(jī)的內(nèi)參數(shù);ξ為相機(jī)的位姿,是一個與位置P和旋轉(zhuǎn)R有關(guān)的矩陣;Γ(·)是一個抽象函數(shù),具體的表達(dá)可參考文獻(xiàn)[23—24]。

        圖2 場景的動態(tài)物體對于視覺定位的影響Fig.2 Negative effects of moving objects in dynamic scenes

        1.2 語義實(shí)體識別

        獲得動態(tài)語素的第1步是識別出視覺圖像中的語義實(shí)體。假設(shè)環(huán)境中的語義實(shí)體G由位置L、大小S和類別M表達(dá),即G={L,S,M},根據(jù)相機(jī)的投影模型,圖像中的像素點(diǎn)(x,y)和g∈G存在如下的映射關(guān)系

        g=f(x,y)

        (2)

        語義實(shí)體識別就是確定映射f(·)的過程。本文利用了以YOLO(arXiv:2004.10934,2020)為代表的目標(biāo)識別算法和以SegNet[17]為代表的語義分割算法。在YOLO算法中,M為識別出的目標(biāo)類別,L和S分別是目標(biāo)最小外包矩形(bounding box)的邊界和大小。在語義分割方法中,M為分割出的目標(biāo)類別,L和S分別是圖像中的屬于指定類別的像素坐標(biāo)和數(shù)量。

        1.3 語義要素抽象和關(guān)聯(lián)

        語義要素約束是通過語素抽象和關(guān)聯(lián)實(shí)現(xiàn)的,其形式是動態(tài)特征掩膜。本文中,語素抽象就是提取語義實(shí)體識別出的元素,例如圖1(b)中列出的人、道路、汽車、自行車等元素。語素關(guān)聯(lián)就是通過建立不同元素之間的關(guān)系,判斷關(guān)聯(lián)后的語義是動態(tài)或靜態(tài)。例如“汽車”和“道路”關(guān)聯(lián)的結(jié)果是“行駛的車”這種動態(tài)語素,而“汽車”和“車位”關(guān)聯(lián)的結(jié)果是“停放的車”這種靜態(tài)語素。語素關(guān)聯(lián)能體現(xiàn)“汽車”具有“動”“靜”雙重屬性的事實(shí)。

        在視覺圖像中,關(guān)聯(lián)性通過像素區(qū)域的位置關(guān)系和面積大小計(jì)算得到。設(shè)有兩個語義實(shí)體g1,g2∈G,它們在圖像中的關(guān)系可以按照式(3)計(jì)算

        (3)

        式中,h(·)表示計(jì)算實(shí)體在圖像上的像素區(qū)域和面積;∩表示計(jì)算重疊像素區(qū)域的面積;∪表示計(jì)算合并后像素區(qū)域的面積;L表示像素位置;S表示像素大?。籸1、r2為兩種指標(biāo)計(jì)算方法;r1是相交區(qū)域面積比其中一種實(shí)體區(qū)域面積的指標(biāo),它側(cè)重體現(xiàn)動態(tài)部分與其中一種語義實(shí)體的關(guān)系;r2是相交區(qū)域面積比兩種實(shí)體合并后區(qū)域面積的指標(biāo),它側(cè)重體現(xiàn)動態(tài)部分與兩種實(shí)體之間的關(guān)系。當(dāng)關(guān)聯(lián)的兩者僅有一個具有動態(tài)性時,例如“人和道路”中“人”具有動態(tài)性,更加適用于r1指標(biāo),此時g1代表“人”;而當(dāng)關(guān)聯(lián)的兩者都具有動態(tài)性的時,例如“人和自行車”,更加適用于r2指標(biāo)。

        2 試驗(yàn)與分析

        2.1 試驗(yàn)環(huán)境和數(shù)據(jù)采集

        為了驗(yàn)證提出的方法,本文基于自主研發(fā)的移動視覺機(jī)器人平臺在校園道路場景開展了試驗(yàn)。該平臺為小型輪式移動機(jī)器人(圖3(a)),搭載了雙目RGB相機(jī),相片分辨率為640×400像素,采樣頻率30 Hz。

        如圖3(b)所示,試驗(yàn)行駛路線全程約2.4 km,途經(jīng)食堂、教學(xué)樓和校門,全程48 min,共得到約8萬對圖像;其中,除校門前的路段為機(jī)動車道路外,其他路段均為非機(jī)動車道路。如圖3(c)所示,SOI-1至SOI-6是典型動態(tài)場景的圖像興趣序列(sequence of interest)。由于“汽車”“自行車”“行人”是該環(huán)境中影響視覺定位的主要語義實(shí)體,因此本文利用YOLO目標(biāo)識別方法識別這3種目標(biāo),利用SegNet語義分割方法分割與之相關(guān)的“道路”“停車位”。

        圖3 試驗(yàn)數(shù)據(jù)采集平臺和過程Fig.3 Equipment and data collection

        表1以6個興趣序列為例,不分實(shí)例地統(tǒng)計(jì)了每段中各個實(shí)體出現(xiàn)的總頻次。從表1中可以看出,SOI-1和SOI-2所對應(yīng)的食堂、教學(xué)樓附近人、自行車較密集,機(jī)動車道路段中的SOI-4序列中有汽車駛過。環(huán)境中的停車區(qū)讓汽車或自行車具備了“動”“靜”雙重屬性,這給動態(tài)要素的準(zhǔn)確識別帶來困難。

        表1 局部場景圖像興趣序列信息

        2.2 語素關(guān)聯(lián)和定位約束

        根據(jù)場景的語義特點(diǎn),參考圖1(b)擬提取3種動態(tài)語素,其含義見表2。同時為了確定動態(tài)語素關(guān)聯(lián)的閾值,從興趣序列中選擇樣本,根據(jù)式(3)計(jì)算了3種動態(tài)語素的r指標(biāo)的分布,并把它們從大到小排序,結(jié)果如圖4所示。其中,根據(jù)指標(biāo)特性在動態(tài)語素1和動態(tài)語素3上統(tǒng)計(jì)r1指標(biāo),而動態(tài)語素2上統(tǒng)計(jì)r2指標(biāo)。需要說明的是,由于環(huán)境中車輛少、機(jī)動車路段集中,動態(tài)語素3的樣本不夠,因此相似場景下計(jì)算得到的r值較為接近。

        圖4 r指標(biāo)統(tǒng)計(jì)結(jié)果Fig.4 Statistics for r value

        表2 語素關(guān)聯(lián)過程和閾值

        考慮到閾值應(yīng)滿足篩選出大部分動態(tài)語素的要求,試驗(yàn)中以成功篩選出90%樣本為目標(biāo)確定了r的閾值,得到取值區(qū)間見表4。對于本試驗(yàn)的圖像序列,如果計(jì)算出的r落入當(dāng)前指定區(qū)間,則認(rèn)為該語素對應(yīng)的像素區(qū)域?qū)儆趧討B(tài)語素區(qū)域,則構(gòu)建特征掩膜以過濾相應(yīng)特征點(diǎn);反之則不構(gòu)建掩膜。需要說明的是,在以樣本估計(jì)總體閾值的過程中,本文方法基于兩個前提:不考慮靜態(tài)語素的關(guān)聯(lián)性和動態(tài)語素關(guān)聯(lián)性越強(qiáng)r值越大。

        動態(tài)語素關(guān)聯(lián)通過特征掩膜參與定位過程,如圖5所示。在圖5(a)中,通過語義實(shí)體識別可以得到“自行車”和“人”兩種語義實(shí)體,由最小外包矩形標(biāo)注;通過語義分割方法可以得到“道路”實(shí)體,由多邊形標(biāo)注。根據(jù)人與自行車的關(guān)聯(lián)性可以判斷出圖像存在“騎行目標(biāo)”語素,如圖5(b)中紅色區(qū)域; 根據(jù)人與道路的交集可以判斷圖像中存在“行人”語素,如圖5(b)中藍(lán)色區(qū)域。它們在視覺定位中都屬于動態(tài)語素,因此根據(jù)其范圍形成特征掩膜,如圖5(c)所示。在SOI-4中, 通過語義實(shí)體識別可以得到“汽車”“停車位”“道路”3種語義實(shí)體。通過“汽車”與“停車位”的交集判斷出“停放的汽車”語素,通過“汽車”與“道路”的交集判斷出“車行目標(biāo)”語素,如圖5(e)中黃色區(qū)域。后者在視覺定位過程中屬于動態(tài)語素,因此根據(jù)其范圍形成特征掩膜,如圖5(f)所示。

        圖5 語素關(guān)聯(lián)優(yōu)化過程Fig.5 Semantic elements association

        視覺定位過程中,高響應(yīng)值的特征點(diǎn)優(yōu)先參與位姿解算過程。然而它們中有一部分會落在動態(tài)語素目標(biāo)上,這些點(diǎn)并不利于位姿計(jì)算。語素關(guān)聯(lián)約束過程會過濾掉動態(tài)語素上的關(guān)鍵點(diǎn),如圖5(b)、(e)所示,綠色的關(guān)鍵點(diǎn)被保留并參與位姿估計(jì),而紅色的關(guān)鍵點(diǎn)被特征掩膜過濾。

        2.3 試驗(yàn)結(jié)果和分析

        2.3.1 局部優(yōu)化結(jié)果分析

        本文以SOI-1至SOI-6 6個場景的興趣序列為例,詳細(xì)說明在局部場景中語素關(guān)聯(lián)優(yōu)化對視覺定位結(jié)果的提升。圖6展示了序列中代表性的圖像,標(biāo)注了主要動態(tài)對象的移動方向和優(yōu)化前后的定位軌跡。其中,本文方法指經(jīng)過語素關(guān)聯(lián)約束得到的定位軌跡,對比方法指過濾所有人、車、自行車目標(biāo)后的定位軌跡,原始軌跡指不過濾任何目標(biāo)的定位軌跡。機(jī)器人的實(shí)際運(yùn)動狀態(tài)為向前行駛(SOI-1、SOI-2和SOI-4)和轉(zhuǎn)彎(SOI-3、SOI-5和SOI-6)兩種狀態(tài)。

        圖6 動態(tài)場景和語素關(guān)聯(lián)優(yōu)化前后視覺定位軌跡對比Fig.6 Performance of semantic elements filtering in dynamic scenes

        從試驗(yàn)對比中可看出,動態(tài)目標(biāo)通過特征點(diǎn)影響視覺定位結(jié)果,識別和消除其影響可以獲得更穩(wěn)定的視覺定位結(jié)果。在SOI-1中,有運(yùn)動的自行車和行人。其中一輛自行車從右后方駛?cè)胍曇?,為了避讓行人而左拐進(jìn)入步行道。自行車相對于機(jī)器人移動速度快,剛開始占據(jù)相機(jī)大部分視野,隨后逐漸消失。由于車身尾部顏色對比明顯,部分關(guān)鍵點(diǎn)落在自行車上。另一輛自行車由遠(yuǎn)處迎面駛來,但目標(biāo)較小,其上的關(guān)鍵點(diǎn)不多。視野中還有很多停放在路邊的自行車,它們提供了一些可用于定位的關(guān)鍵點(diǎn)。從軌跡對比結(jié)果可以看出,雖然機(jī)器人實(shí)際保持向前行駛,但是原始軌跡表現(xiàn)為先后退、再右轉(zhuǎn)。造成這種現(xiàn)象的原因是:相對于機(jī)器人,主要運(yùn)動自行車上的關(guān)鍵點(diǎn)發(fā)生了向左前方的快速移動,按照視覺定位算法“靜態(tài)世界”的假設(shè),如果認(rèn)為關(guān)鍵點(diǎn)是靜態(tài)的,那么相機(jī)就應(yīng)該發(fā)生向右后方向的移動。相對比地,無論是本文方法還是對比方法得到的軌跡都一直保持向前,比較符合機(jī)器人的行進(jìn)路線。

        這種情況在其他場景序列中也表現(xiàn)明顯。SOI-2序列中有行人從右向左橫穿視野,其書包和衣服紋理豐富,提供了大量視覺關(guān)鍵點(diǎn)。但是在運(yùn)動目標(biāo)的影響下,原始軌跡發(fā)生了向右的移動;經(jīng)過特征掩膜過濾后,優(yōu)化后定位軌跡不再存在這種情況。SOI-3序列中機(jī)器人緩慢向左拐彎,有人騎車從右向左穿過視野,經(jīng)過優(yōu)化后的軌跡更加平滑。SOI-5序列中采集車緩慢左拐彎,有人在視野中先向右前方移動,然后轉(zhuǎn)向左前方;由于行人運(yùn)動的影響,算法認(rèn)為機(jī)器人提前開始左轉(zhuǎn),而在優(yōu)化后的軌跡中,機(jī)器人先保持向前行駛一段距離后再左轉(zhuǎn)。

        然而雖然本文方法和對比方法都能減少運(yùn)動目標(biāo)的影響,但是本文提出的語素關(guān)聯(lián)方法能夠在定位時保留更多具備高響應(yīng)值的特征點(diǎn)。例如SOI-4序列中只有1輛汽車從視野中駛過,由于其上特征點(diǎn)少而且僅4 s就駛出視野,原始軌跡與本文方法軌跡差別不大。但由于對比方法丟失了一些靜止汽車上的高響應(yīng)特征,其定位軌跡在尺度上與前兩者具有明顯差別。需要特殊說明的是,如果動態(tài)語素區(qū)域的關(guān)鍵點(diǎn)少,那么三者的定位軌跡區(qū)別也不大,例如SOI-6序列中特征點(diǎn)集中于植被和樹枝,而不在騎行人身上。

        表3記錄了上述動態(tài)場景序列的時長,并且從本文方法和原始軌跡中采樣了受影響的定位點(diǎn),計(jì)算相應(yīng)兩個采樣點(diǎn)的差距。由表3可以看出,采樣點(diǎn)的最大差距在0.1~2.5 m之間;最大平均差距出現(xiàn)在SOI-3序列中,為1.454 m,該序列中機(jī)器人正在轉(zhuǎn)彎,并且有行駛快的自行車橫向穿過。最小平均差距在SOI-6中,該場景的關(guān)鍵點(diǎn)集中在非動態(tài)區(qū)域,優(yōu)化作用不大。

        表3 局部區(qū)域語素優(yōu)化前后定位軌跡差統(tǒng)計(jì)

        分析表明,語素關(guān)聯(lián)約束對動態(tài)場景的視覺定位結(jié)果有一定的提升作用,尤其在相機(jī)轉(zhuǎn)彎時或者動態(tài)目標(biāo)在視野中產(chǎn)生橫向移動時優(yōu)化效果明顯。然而,由于動態(tài)目標(biāo)是通過關(guān)鍵點(diǎn)影響視覺定位的,如果運(yùn)動目標(biāo)本身視覺特征不明顯、出現(xiàn)時間不長或者運(yùn)動幅度不大,優(yōu)化前后定位軌跡沒有明顯差異。

        2.3.2 整體優(yōu)化結(jié)果和分析

        因激光傳感器具有精度高、不易受動態(tài)環(huán)境影響的優(yōu)勢,定位結(jié)果更穩(wěn)定可靠[25],故以激光雷達(dá)數(shù)據(jù)計(jì)算得到的軌跡為真值,采用了EVO(https:∥github.com/Michae(Grupp/evo))軌跡評價工具,對比了原始軌跡(不處理動態(tài)目標(biāo))、對比方法(剔除所有“人”“車”目標(biāo))和本文方法的二維軌跡結(jié)果,結(jié)果如圖7所示。圖7(a)說明視覺軌跡與真值之間存在仿射變換差異,X軸是初始狀態(tài)的左右方向,Y軸是初始狀態(tài)的前后方向。經(jīng)過旋轉(zhuǎn)、平移和縮放變換后,本文方法更加貼近真值。圖7(b)的“小提琴圖”展示了絕對位姿誤差(absolute pose error,APE)中位移分量的分布,本文方法平均誤差更小,而且分布更加集中,這說明軌跡差更加穩(wěn)定。表4為視覺優(yōu)化前后軌跡與真值誤差對比。

        由表4和圖7(b)的誤差柱狀圖可以看出,本文方法定位軌跡在均方根誤差、偏差均值、偏差中位數(shù)、偏差標(biāo)準(zhǔn)差和最大偏差多個指標(biāo)都小于對比方法,遠(yuǎn)小于原始軌跡。相對于原始軌跡和對比方法,均方根誤差分別降低了38%和17%。

        圖7 語素優(yōu)化前后視覺定位整體軌跡對比Fig.7 Full trajectory before and after semantic elements filtering

        表4 視覺優(yōu)化前后軌跡與真值誤差對比

        2.3.3 精度和效率分析

        以6段興趣序列為基礎(chǔ),觀察和統(tǒng)計(jì)了語素關(guān)聯(lián)結(jié)果的正確性,得到預(yù)測與觀察結(jié)果的混淆矩陣見表5。同時選擇了精確率P、召回率R和綜合指標(biāo)F1來反映方法的精度,計(jì)算過程如式(4)—式(6)所示

        (4)

        (5)

        (6)

        經(jīng)計(jì)算,P約為91%,R約84%,平均精度F1約為87%。

        為了評價計(jì)算效率,以6個興趣序列為例,統(tǒng)計(jì)了其中語素關(guān)聯(lián)步驟(計(jì)算和判斷r值)的耗時,由表3可以看出,該步驟的效率與場景中語義的復(fù)雜性有關(guān),序列要判斷的動態(tài)語素種類越多耗時越高。同時對比序列的時長可以看出,語素關(guān)聯(lián)步驟能夠與數(shù)據(jù)采集同步。但是,語素關(guān)聯(lián)計(jì)算的前提是語義實(shí)體識別,即目標(biāo)識別和語義分割過程。在單核2.2 GHz CPU的計(jì)算平臺上進(jìn)行,處理每張圖片的耗時約0.8 s。因此,由于語義實(shí)體識別耗時過大,當(dāng)前方法仍不能達(dá)到實(shí)時計(jì)算的效果。

        表5 預(yù)測和觀察結(jié)果的混淆矩陣

        3 結(jié)論和展望

        本文提出的動態(tài)環(huán)境視覺定位優(yōu)化方法,能夠解決現(xiàn)有的特征點(diǎn)法受動態(tài)目標(biāo)影響大、視覺定位結(jié)果準(zhǔn)確度下降的問題。在保留更多高響應(yīng)值特征點(diǎn)的基礎(chǔ)上,能夠較好地抑制由于動態(tài)實(shí)體橫向穿越相機(jī)視場而導(dǎo)致的定位誤差。

        視覺定位是自動駕駛場景定位方案的重要補(bǔ)充,但環(huán)境中的動態(tài)目標(biāo)不是影響其的唯一因素,圖像匹配誤差、相機(jī)標(biāo)定誤差和深度估計(jì)誤差都會影響視覺定位結(jié)果[26]。另外,由于語義識別耗時,當(dāng)前方法無法達(dá)到實(shí)時優(yōu)化效果,并且受平臺限制本文未能討論其在城市級道路的定位提升能力。在更復(fù)雜的無人駕駛場景中,如何更好地優(yōu)化視覺定位結(jié)果仍有待深入研究。

        致謝:感謝武漢大學(xué)郭遲教授團(tuán)隊(duì)在結(jié)果分析的對比方法中提供幫助。

        猜你喜歡
        關(guān)聯(lián)語義特征
        “苦”的關(guān)聯(lián)
        語言與語義
        如何表達(dá)“特征”
        不忠誠的四個特征
        奇趣搭配
        抓住特征巧觀察
        智趣
        讀者(2017年5期)2017-02-15 18:04:18
        “上”與“下”語義的不對稱性及其認(rèn)知闡釋
        認(rèn)知范疇模糊與語義模糊
        線性代數(shù)的應(yīng)用特征
        河南科技(2014年23期)2014-02-27 14:19:15
        日韩有码中文字幕在线观看| 亚洲国产天堂一区二区三区| 亚洲av日韩av高潮潮喷无码| 久久中文字幕无码一区二区| 啪啪视频免费看一区二区| 国产在线91精品观看| 久久天天躁狠狠躁夜夜躁2014| a国产一区二区免费入口| 精品国内自产拍在线视频| 日本二区视频在线观看| 日韩一区二区三区久久精品| 人妻无码一区二区不卡无码av| 欧美色aⅴ欧美综合色| 国产精品久久一区性色a| 在线国人免费视频播放| 51看片免费视频在观看| 国产A√无码专区| 日本精品极品视频在线| 国产精品久久一区二区蜜桃| 老女老肥熟女一区二区| 欧洲精品免费一区二区三区| 一级一级毛片无码免费视频 | 网站在线观看视频一区二区| 三级做a全过程在线观看| 国农村精品国产自线拍| 国产亚洲高清不卡在线观看| aa视频在线观看播放免费| 中文字幕一区二区三区四区| 鲁丝片一区二区三区免费| 成人在线激情网| 亚洲av毛片成人精品| 国产精品久久久在线看| 亚洲国产精品va在线看黑人| 精品人妻VA出轨中文字幕| 国产色婷亚洲99精品av网站| 国产自国产自愉自愉免费24区| 中文字幕一区二区三区精华液| 久久se精品一区二区国产| 一本久道久久丁香狠狠躁| 日本丰满熟妇videossex一| 国产精品6|