亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        引入深度補(bǔ)全與實(shí)例分割的三維目標(biāo)檢測(cè)*

        2021-12-30 05:36:44高永彬
        傳感器與微系統(tǒng) 2021年1期
        關(guān)鍵詞:深度圖實(shí)例物體

        黃 漫, 黃 勃, 高永彬

        (上海工程技術(shù)大學(xué) 電子電氣工程學(xué)院,上海 201620)

        0 引 言

        三維目標(biāo)檢測(cè)技術(shù)[1,2]是利用顏色信息對(duì)物體進(jìn)行分類,且利用深度傳感器獲取的深度信息估算目標(biāo)的位置、三維邊界框及方向角。目前,該技術(shù)是實(shí)現(xiàn)室外自動(dòng)駕駛系統(tǒng)與室內(nèi)機(jī)器人系統(tǒng)的關(guān)鍵技術(shù)。

        深度相機(jī)出現(xiàn)后,三維目標(biāo)檢測(cè)方法大多基于深度相機(jī)獲取的RGB-D圖。Depth-RCNN[3]為基于RGB-D圖的三維目標(biāo)檢測(cè)方法奠定了基礎(chǔ),即在RCNN[4]的基礎(chǔ)上將深度信息編碼為視差、高度和角度三個(gè)通道,隨之而來的Amodal3Det[5]算法亦是以RGB-D圖作為輸入。然而,在室外自動(dòng)駕駛場(chǎng)景中存在強(qiáng)光且深度像機(jī)在強(qiáng)光下存在不穩(wěn)定性,導(dǎo)致獲取的RGB-D圖像受到影響,而激光雷達(dá)攝像機(jī)則不受強(qiáng)光影響,是以基于雷達(dá)點(diǎn)云的三維目標(biāo)檢測(cè)應(yīng)用范圍更為廣泛且研究意義更大。

        目前,基于雷達(dá)點(diǎn)云的三維目標(biāo)檢測(cè)方法不多,早期的一部分方法是將目標(biāo)檢測(cè)從二維拓展到三維,例如DSS[6]算法將二維滑動(dòng)窗拓展為三維滑動(dòng)窗。另外,亦有算法將RGB-D圖轉(zhuǎn)換為點(diǎn)云并輸入到卷積網(wǎng)絡(luò)進(jìn)行三維目標(biāo)檢測(cè),例如F-PointNet[7]算法。但在點(diǎn)云的新特征空間下,面臨的新問題是:點(diǎn)云存在稀疏性和無序性,深度學(xué)習(xí)直接作用點(diǎn)云上的效果較差,另外點(diǎn)云數(shù)目過大,直接對(duì)場(chǎng)景點(diǎn)云做處理導(dǎo)致計(jì)算復(fù)雜度過高且目前計(jì)算機(jī)性能亦無法滿足要求。然而,三維點(diǎn)云包含場(chǎng)景完整的幾何信息,基于點(diǎn)云進(jìn)行三維目標(biāo)檢測(cè)又是大勢(shì)所趨。

        因此,本文旨在以雷達(dá)點(diǎn)云作為三維目標(biāo)檢測(cè)輸入的同時(shí)克服上述難題。本文輸入RGB圖與雷達(dá)點(diǎn)云,結(jié)合IP-Basic[8]算法在消除噪聲的同時(shí)將稀疏雷達(dá)點(diǎn)云補(bǔ)全成稠密深度圖;其次,采用降維原理縮小點(diǎn)云的搜索空間,結(jié)合Mask R-CNN[9]在RGB圖上進(jìn)行實(shí)例分割,并根據(jù)分割實(shí)例提取目標(biāo)在深度圖上對(duì)應(yīng)的區(qū)域;再者,結(jié)合點(diǎn)云的自然不變性,將目標(biāo)對(duì)應(yīng)的深度圖還原為點(diǎn)云后輸入到卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行特征學(xué)習(xí)。實(shí)驗(yàn)結(jié)果表明:該方法在公開的三維目標(biāo)檢測(cè)數(shù)據(jù)集上達(dá)到了較好的檢測(cè)精度。

        1 算法實(shí)現(xiàn)

        1.1 深度補(bǔ)全

        目前,三維目標(biāo)檢測(cè)大多基于深度像機(jī)獲取的RGB-D圖,然而深度像機(jī)受強(qiáng)光影響而存在不穩(wěn)定性,輸入雷達(dá)點(diǎn)云則更符合室外自動(dòng)駕駛的應(yīng)用場(chǎng)景。但因雷達(dá)點(diǎn)云有噪聲且過于稀疏,直接輸入點(diǎn)云進(jìn)行三維目標(biāo)檢測(cè)的效果較差。本文利用IP-Basic算法對(duì)雷達(dá)點(diǎn)云做去噪的同時(shí)將稀疏雷達(dá)點(diǎn)云補(bǔ)全成稠密深度圖,從而提升深度信息的準(zhǔn)確率,該算法具體如下:

        1)深度反演:反演旨在避免后期圖像處理時(shí)近處物體的邊緣丟失問題。本文采用Kitti數(shù)據(jù)集針對(duì)三維目標(biāo)檢測(cè)任務(wù)提供的RGB圖與雷達(dá)點(diǎn)云。在將稀疏雷達(dá)點(diǎn)云轉(zhuǎn)化為深度圖后觀察到,空像素其值為0 m,近處物體像素值接近0 m,遠(yuǎn)處物體像素值最大為80 m。若對(duì)該深度圖直接膨脹,不僅近處物體接近0 m的像素值被該物體中較大的像素值覆蓋而導(dǎo)致近處物體的邊緣信息丟失,且接近0 m的像素值與空像素值不易區(qū)分。因此,對(duì)有效(非空)像素運(yùn)用式(1)進(jìn)行反轉(zhuǎn),對(duì)空像素不做反轉(zhuǎn),既可保證有效像素和空像素存在20 m以上的差值,又可保留近處物體的邊緣信息。深度反演公式如下,Dinput為Kitti雷達(dá)點(diǎn)云直接轉(zhuǎn)化的深度圖,其中空像素處以零值填充,Dinverted為反演后的深度值

        Dinverted=100.0-Dinput

        (1)

        2)以適宜內(nèi)核膨脹:通過有效像素填充鄰近空像素,試驗(yàn)證明內(nèi)核設(shè)置為圖1(a)所示形狀可達(dá)到更好的效果。

        3)小孔填充:深度圖膨脹后,仍存在許多未填充的孔洞。觀察物體結(jié)構(gòu)可知,物體邊緣為膨脹后相鄰深度的連線。因此,采用圖1(b)所示的5×5完整內(nèi)核進(jìn)行閉運(yùn)算來填充深度圖中的小孔洞。

        4)較大孔洞填充:先計(jì)算較大孔洞的掩碼,后進(jìn)行7×7完整內(nèi)核的膨脹操作達(dá)到填充較大孔洞的效果。算法中完整內(nèi)核皆類似圖1(b),僅改變內(nèi)核大小。

        5)每列頂端像素值向上延伸:在場(chǎng)景高度高于激光雷達(dá)攝像機(jī)掃描高度時(shí),其超出部分的點(diǎn)云無法獲取,為了深度圖完整,將每一列頂端有效像素值向上延伸。

        6)大孔填充:大孔洞因不含有效像素點(diǎn),無可使用圖像數(shù)據(jù),因此依據(jù)周圍點(diǎn)來推斷特大孔洞的深度值,即采用31×31完整內(nèi)核進(jìn)行膨脹來填充大孔洞。

        7)中值和高斯模糊:由于雷達(dá)點(diǎn)云自身存在噪聲和膨脹操作產(chǎn)生的噪聲影響算法的效果,因此,采用5×5內(nèi)核的中值模糊去除局部邊緣的離群點(diǎn),而后使用5×5內(nèi)核的高斯模糊來平滑局部平面以及尖銳的物體邊緣。

        8)恢復(fù)原始深度編碼:因步驟(1)中進(jìn)行了深度反演,因此在完成步驟(7)后通過式(2)恢復(fù)原始深度編碼。其中Doutput為最終的稠密深度圖,Dinverted為完成步驟(1)~步驟(7)后的深度圖。即

        Doutput=100.0-Dinverted

        (2)

        完成上述步驟可在消除噪聲的同時(shí)將稀疏雷達(dá)點(diǎn)云補(bǔ)全成稠密深度圖。步驟(5)將每列頂端像素值向上延伸雖不合理,但自動(dòng)駕駛系統(tǒng)關(guān)注的車輛、行人都沒超出激光雷達(dá)攝像機(jī)掃描高度,因此不受影響。此外,IP-Basic算法效果顯著且處理速度快,本文采用該算法即可解決雷達(dá)點(diǎn)云存在噪聲和稀疏性的問題。

        圖1 膨脹操作和閉運(yùn)算操作的內(nèi)核形狀

        1.2 結(jié)合Mask R-CNN提取目標(biāo)點(diǎn)云

        深度圖像將三維點(diǎn)云表示為二維深度圖,導(dǎo)致點(diǎn)云的幾何信息大部分被丟失。將深度圖轉(zhuǎn)化為點(diǎn)云,恢復(fù)場(chǎng)景完整的幾何信息十分必要。另外,自動(dòng)駕駛系統(tǒng)場(chǎng)景的點(diǎn)云數(shù)以萬計(jì),直接對(duì)場(chǎng)景點(diǎn)云進(jìn)行3D搜索的計(jì)算復(fù)雜度過高。因此,采用降維原理,通過Mask R-CNN算法對(duì)RGB圖進(jìn)行實(shí)例分割,既可縮小網(wǎng)絡(luò)的搜索空間從而降低計(jì)算復(fù)雜度,亦可避免目標(biāo)檢測(cè)網(wǎng)絡(luò)將同類且距離較近的物體預(yù)測(cè)為一個(gè)物體的情況。

        本文使用Kitti數(shù)據(jù)集對(duì)將Mask R-CNN網(wǎng)絡(luò)進(jìn)行訓(xùn)練,使實(shí)例分割模型更適用于自動(dòng)駕駛場(chǎng)景,而后使用該模型對(duì) RGB圖做實(shí)例分割,并將分割實(shí)例對(duì)應(yīng)到深度圖繼而通過式(3)轉(zhuǎn)換為點(diǎn)云,過程如圖2。式(3)如下

        圖2 實(shí)例分割后提取目標(biāo)點(diǎn)云

        xw=Ddepth·(u-u0)·dx/f,

        yw=Ddepth·(v-v0)·dy/f,

        zw=Ddepth

        (3)

        式中 (u0,v0)為圖像坐標(biāo)系下任意像素點(diǎn)的行列坐標(biāo)值,(u0,v0)為圖像坐標(biāo)系中心點(diǎn)坐標(biāo),(xw,yw,zw)為世界坐標(biāo)系下三維坐標(biāo)點(diǎn),Ddepth為深度圖的深度值,相機(jī)坐標(biāo)系與世界坐標(biāo)系下同一點(diǎn)深度相等,即zw=Ddepth。其中,dx和dy為每一個(gè)像素在u軸和v軸方向上的物理尺寸,f為相機(jī)焦距。

        1.3 排除信息量過少的目標(biāo)

        在現(xiàn)實(shí)世界中,遮擋永遠(yuǎn)存在。物體被遮擋部分的顏色與深度信息缺失,導(dǎo)致遮擋過多的物體信息量過少,作為訓(xùn)練數(shù)據(jù)將對(duì)三維目標(biāo)檢測(cè)網(wǎng)絡(luò)的訓(xùn)練產(chǎn)生干擾。其次,過遠(yuǎn)處的物體,因設(shè)備分辨率無法滿足要求,作為訓(xùn)練數(shù)據(jù)也會(huì)影響網(wǎng)絡(luò)模型的性能。對(duì)從RGB圖分割出來的實(shí)例進(jìn)行條件限制,對(duì)于被遮擋過多的實(shí)例與過遠(yuǎn)處的實(shí)例通過式(4)排除

        hstart-hend>nhthreshold,Ddepth

        (4)

        式中 (hstart,hend)為實(shí)例像素點(diǎn)的起始行和終止行,nhthreshold為實(shí)例像素點(diǎn)行數(shù)的閾值,Ddepth為實(shí)例的深度值,Dthreshold為實(shí)例的深度閾值。

        1.4 輸入物體點(diǎn)云到三維目標(biāo)檢測(cè)網(wǎng)絡(luò)進(jìn)行特征學(xué)習(xí)

        本文的三維目標(biāo)檢測(cè)網(wǎng)絡(luò)架構(gòu)如圖3。以RGB和雷達(dá)點(diǎn)云作為網(wǎng)絡(luò)輸入,將稀疏的雷達(dá)點(diǎn)云補(bǔ)全成稠密深度圖,將Mask R-CNN算法在RGB圖上提取得到的分割實(shí)例,對(duì)應(yīng)到稠密深度圖后轉(zhuǎn)化為點(diǎn)云輸入到三維目標(biāo)檢測(cè)網(wǎng)絡(luò)中進(jìn)行特征學(xué)習(xí)。

        圖3 本文三維目標(biāo)檢測(cè)算法流程

        三維目標(biāo)檢測(cè)網(wǎng)絡(luò)的目的是得到物體的類別和三維框的位置、尺寸和方向角,該三維目標(biāo)檢測(cè)網(wǎng)絡(luò)的損失函數(shù)定義如下

        Lloss=Lseg+λ(Lc1-reg+Lc2-reg+Lh-cls+Lh-reg+Ls-cls+Ls-reg+γLcorner)

        (5)

        式中Lseg為實(shí)例分割的損失值,Lc1-reg為用于網(wǎng)絡(luò)將目標(biāo)從相機(jī)坐標(biāo)系轉(zhuǎn)化到物體坐標(biāo)系的損失函數(shù),Lc2-reg為損失函數(shù)用于三維檢測(cè)框的中心點(diǎn)回歸。Lh-cls和Lh-reg為方向角預(yù)測(cè)的損失函數(shù),而Ls-cls和Ls-reg為三維框尺寸的損失函數(shù)。softmax用于所有分類任務(wù),smooth-l1(huber)損失用于所有回歸任務(wù)。

        2 實(shí)驗(yàn)與分析

        2.1 實(shí)驗(yàn)環(huán)境與參數(shù)設(shè)置

        實(shí)驗(yàn)基于Ubuntu16.04,64位操作系統(tǒng),訓(xùn)練平臺(tái)為Tensorflow,硬件配置為Nvidia 1080Ti。數(shù)據(jù)來源于Kitti數(shù)據(jù)集里的三維目標(biāo)檢測(cè)數(shù)據(jù)集。

        實(shí)驗(yàn)中,目標(biāo)點(diǎn)云的輸入大小為1 024,若物體點(diǎn)云數(shù)目小于1 024個(gè)則進(jìn)行雙線性插值,若大于1 024個(gè)則進(jìn)行下采樣從而滿足網(wǎng)絡(luò)輸入。實(shí)驗(yàn)中λ值與β值的設(shè)置是經(jīng)過多次試驗(yàn)得到的經(jīng)驗(yàn)值,其中λ設(shè)為1,γ設(shè)置為10,梯度下降的參數(shù)β設(shè)為0.9,權(quán)值衰減系數(shù)為0.000 5,學(xué)習(xí)率為0.001。

        2.2 結(jié)果與分析

        本文對(duì)Kitti數(shù)據(jù)集中的三個(gè)類別進(jìn)行檢測(cè),并通過三維目標(biāo)檢測(cè)通用的三維體積交集(Intersection over Union, IOU)[10]方法對(duì)檢測(cè)性能進(jìn)行評(píng)估。目前僅對(duì)車輛進(jìn)行三維目標(biāo)檢測(cè)的文獻(xiàn)居多,為和盡可能多的三維目標(biāo)檢測(cè)方法作對(duì)比,本文就車輛類別在Kitti驗(yàn)證集上與Mono3D[11],3DOP[12],VeloFCN[13],MV3D[14]及F-PointNet等方法作對(duì)比,平均檢測(cè)精度(mean average precision,MAP)的對(duì)比結(jié)果見表1。

        表1 Kitti驗(yàn)證集上三維目標(biāo)檢測(cè)精度對(duì)比

        由表1可知,本文方法較Mono3D,3DOP,VeloFCN及MV3D等方法有明顯的優(yōu)勢(shì),在Kitti復(fù)雜度較低的場(chǎng)景(Easy)下,平均檢測(cè)精度較MV3D方法提高了14.43 %,較F-PointNet方法提高了2.36 %,在其它兩個(gè)復(fù)雜度較高的場(chǎng)景(Moderate,Hard)下,平均檢測(cè)精度仍舊高于F-PointNet方法2.15 %,1.89 %。

        在Kitti測(cè)試集上的平均檢測(cè)精度比較結(jié)果如表2,同時(shí)本文就目前較為先進(jìn)的F-PointNet方法進(jìn)行了測(cè)試結(jié)果圖的對(duì)比,如圖4。由表2可知,在Kitti測(cè)試集上,對(duì)比DoBEM[15]方法、MV3D方法本文方法均有明顯優(yōu)勢(shì)。對(duì)比MV3D,本文方法在Kitti場(chǎng)景復(fù)雜度最高的數(shù)據(jù)集(Hard)下,就車輛類別仍舊提高了8.99 %。對(duì)比F-PointNet,本文方法在Kitti場(chǎng)景復(fù)雜度較低的數(shù)據(jù)集(Easy)下,對(duì)車輛、行人、騎自行車的人三類目標(biāo)分別提升了2.17 %,1.75 %,1.91 %的平均檢測(cè)精度,在Kitti場(chǎng)景復(fù)雜度最高的數(shù)據(jù)集(Hard)下,對(duì)車輛、行人、騎自行車的人三類目標(biāo)亦分別提升了1.92 %,1.66 %,1.73 %的平均檢測(cè)精度。實(shí)驗(yàn)結(jié)果表明,本文方法對(duì)Kitti數(shù)據(jù)集中三類目標(biāo)的平均檢測(cè)精度均有明顯提高。

        表2 Kitti測(cè)試集上結(jié)果對(duì)比

        圖4 測(cè)試結(jié)果對(duì)比

        3 結(jié) 論

        隨著自動(dòng)駕駛與智能機(jī)器人越來越受重視,三維目標(biāo)檢測(cè)技術(shù)的關(guān)注度也得到了提升,本文針對(duì)點(diǎn)云的三維目標(biāo)檢測(cè),分析了基于點(diǎn)云方法存在的問題,充分利用雷達(dá)點(diǎn)云的三維幾何信息,并融合二維特征和三維特征,既解決了點(diǎn)云稀疏導(dǎo)致的深度信息不全問題和點(diǎn)云數(shù)目過大導(dǎo)致的計(jì)算復(fù)雜度過大問題,又避免了三維目標(biāo)檢測(cè)網(wǎng)絡(luò)將同類且距離較近的物體預(yù)測(cè)為一個(gè)物體導(dǎo)致檢測(cè)結(jié)果混淆問題。實(shí)驗(yàn)結(jié)果表明:該方法在具有挑戰(zhàn)性的公開數(shù)據(jù)集Kitti上取得了較好的檢測(cè)精度。本文算法應(yīng)用于自動(dòng)駕駛領(lǐng)域,若直接用于實(shí)時(shí)的自動(dòng)駕駛場(chǎng)景,在計(jì)算速度上有待后續(xù)優(yōu)化。

        猜你喜歡
        深度圖實(shí)例物體
        深刻理解物體的平衡
        基于深度圖的3D-HEVC魯棒視頻水印算法
        我們是怎樣看到物體的
        一種基于局部直方圖匹配的深度編碼濾波算法
        疊加速度譜在鉆孔稀少地區(qū)資料解釋中的應(yīng)用
        科技視界(2016年2期)2016-03-30 11:17:03
        為什么同一物體在世界各地重量不一樣?
        完形填空Ⅱ
        完形填空Ⅰ
        懸浮的雞蛋
        Kinect深度圖像快速修復(fù)算法
        亚洲精品成人av在线| 中文字幕有码手机视频| 91久久综合精品久久久综合 | 国产亚洲AV片a区二区| 亚洲精品一区二区三区在线观| 天天爽夜夜爽夜夜爽精品视频| 水蜜桃无码视频在线观看| 久久精品免视看国产明星| 日韩国产一区二区三区在线观看 | 白浆国产精品一区二区| 国产女人高潮叫床免费视频 | 国内精品91久久久久| 人妻少妇偷人精品一区二区三区| 国产毛多水多高潮高清| 日韩精品一区二区亚洲av| 日本一道dvd在线中文字幕| 国产一区二区视频免费| 国产精品亚洲lv粉色| 美女黄18以下禁止观看| 胳膊肘上有白色的小疙瘩| 精品乱色一区二区中文字幕| 亚洲av日韩av天堂久久| 婷婷四房播播| 一本久久a久久精品综合| 在线精品国产亚洲av蜜桃| 久久夜色精品国产欧美乱| 狠狠丁香激情久久综合| 国产蜜桃传媒在线观看| 亚洲av无码成人精品区狼人影院| 国内精品一区二区三区| 日本一区二区三区的免费视频观看 | 国产毛片一区二区三区| 午夜福利理论片在线观看播放| 国产熟妇高潮呻吟喷水| 欧美精品久久久久久三级| 中文字幕亚洲入口久久| 任我爽精品视频在线播放| 国产日b视频| 国产精品高清免费在线| 亚洲成熟丰满熟妇高潮xxxxx| 亚洲人成无码网站久久99热国产|