亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進(jìn)YOLOv3和立體視覺的園區(qū)障礙物檢測(cè)方法

        2021-10-08 02:22:36胡丹丹張莉莎張忠婷
        關(guān)鍵詞:障礙物尺度園區(qū)

        胡丹丹,張莉莎,張忠婷

        (中國(guó)民航大學(xué) 電子信息與自動(dòng)化學(xué)院,天津 300300)

        0 引言

        由于封閉園區(qū)環(huán)境具有結(jié)構(gòu)化程度高、道路環(huán)境簡(jiǎn)單、行駛路線固定等特點(diǎn)[1],無人駕駛技術(shù)在園區(qū)物流、園區(qū)巡邏等場(chǎng)景的應(yīng)用越來越廣泛。障礙物的準(zhǔn)確檢測(cè)是園區(qū)無人車安全行駛的基礎(chǔ),也是當(dāng)前無人駕駛技術(shù)研究的重難點(diǎn)之一。其中基于視覺的障礙物檢測(cè)方法具有成本較低、檢測(cè)內(nèi)容直觀、檢測(cè)范圍廣泛等優(yōu)點(diǎn),是目前最常用的檢測(cè)方法。

        傳統(tǒng)的視覺障礙物檢測(cè)算法以基于人工特征提取方法為主[2],存在計(jì)算復(fù)雜度高和檢測(cè)速度慢等問題[3]。基于深度學(xué)習(xí)的障礙物檢測(cè)算法主要分為基于區(qū)域建議和基于邏輯回歸兩類。其中,以R-CNN[4-6]系列模型為代表的基于區(qū)域建議算法生成樣本候選框,通過卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行樣本分類[7],此類算法檢測(cè)精度較高,但計(jì)算復(fù)雜度大,無法滿足實(shí)時(shí)性要求;而以YOLO[8-10]系列模型為代表的基于邏輯回歸算法不需要生成候選框,網(wǎng)絡(luò)直接輸出邊界框信息,檢測(cè)速度和精度均有所提升,但仍存在少量漏檢情況。

        因而提升檢測(cè)精度和速度成為近幾年障礙物檢測(cè)算法改進(jìn)的重點(diǎn)。針對(duì)文獻(xiàn)[10]存在的問題,文獻(xiàn)[11]采用數(shù)據(jù)增強(qiáng)、引入CIOU(Complete Intersection Over Union)損失函數(shù)等方式,平均精度提升的同時(shí)檢測(cè)速度有所犧牲;其優(yōu)化版本YOLOv5減小模型體量,檢測(cè)速度有較大提升,但適用場(chǎng)景和精度均受到影響。

        綜上發(fā)現(xiàn),文獻(xiàn)[10]采用的YOLOv3算法在檢測(cè)精度和速度上均具有較好的表現(xiàn)。近幾年,國(guó)內(nèi)外諸多學(xué)者針對(duì)基于YOLOv3的檢測(cè)方法作出了不同程度的改進(jìn)。文獻(xiàn)[12]通過采用Gaussian-YOLOv3與變形卷積技術(shù),有效解決了小目標(biāo)的檢測(cè)問題;文獻(xiàn)[13]結(jié)合Tiny-YOLOv3和目標(biāo)跟蹤算法,提升了無人機(jī)針對(duì)地面目標(biāo)的檢測(cè)速度;文獻(xiàn)[14]通過改進(jìn)特征提取網(wǎng)絡(luò)和定位損失函數(shù),降低了非機(jī)動(dòng)車類目標(biāo)的漏檢率;文獻(xiàn)[15]考慮融入平滑標(biāo)簽,改進(jìn)特征提取網(wǎng)絡(luò)結(jié)構(gòu),一定程度解決了行人檢測(cè)實(shí)時(shí)性和精度不能同時(shí)兼顧的問題。

        基于以上研究,為實(shí)時(shí)準(zhǔn)確獲得園區(qū)障礙物的類別與位置信息,本文提出一種結(jié)合改進(jìn)YOLOv3和立體視覺的園區(qū)無人車障礙物檢測(cè)方法:通過優(yōu)化特征提取網(wǎng)絡(luò)、引入GIOU損失函數(shù)、采用k-means++聚類方法對(duì)YOLOv3算法進(jìn)行改進(jìn),并結(jié)合立體視覺測(cè)距原理獲得無人車與障礙物的距離,實(shí)驗(yàn)結(jié)果表明在公開數(shù)據(jù)集與園區(qū)自建數(shù)據(jù)集上均取得較好的檢測(cè)效果。

        1 YOLOv3算法

        如圖1所示,YOLOv3的網(wǎng)絡(luò)結(jié)構(gòu)主要包括基礎(chǔ)網(wǎng)絡(luò)和YOLOv3分支。其中Darknet-53負(fù)責(zé)特征提取,YOLOv3分支負(fù)責(zé)目標(biāo)檢測(cè)。YOLOv3網(wǎng)絡(luò)將圖片尺寸放縮到416×416作為網(wǎng)絡(luò)輸入,輸入的障礙物圖像經(jīng)過daknet-53特征提取網(wǎng)絡(luò)后得到3個(gè)尺度(13×13、26×26、52×52)的特征圖。接著將輸入的圖像分為S×S個(gè)網(wǎng)格,每個(gè)網(wǎng)格單元負(fù)責(zé)預(yù)測(cè)3個(gè)邊界框。預(yù)測(cè)信息包含邊界框的位置及尺寸信息(目標(biāo)中心坐標(biāo)(x,y)與邊界框尺寸(w,h))、置信度得分及其屬于某類別的條件概率。最后設(shè)置得分閾值,通過非極大值抑制過濾分?jǐn)?shù)較低的邊界框,其余邊界框信息將作為最終的障礙物檢測(cè)結(jié)果輸出。

        圖1 YOLOv3網(wǎng)絡(luò)結(jié)構(gòu)圖

        2 結(jié)合立體視覺的改進(jìn)YOLOv3算法

        目前基于YOLOv3的障礙物檢測(cè)研究中普遍存在檢測(cè)實(shí)時(shí)性差、具體場(chǎng)景檢測(cè)準(zhǔn)確率低等問題,本文針對(duì)園區(qū)無人車障礙物檢測(cè)場(chǎng)景,對(duì)YOLOv3算法進(jìn)行特征提取網(wǎng)絡(luò)結(jié)構(gòu)、損失函數(shù)和聚類方法三方面的的改進(jìn)。

        2.1 特征提取網(wǎng)絡(luò)結(jié)構(gòu)改進(jìn)

        考慮到無人車障礙物檢測(cè)的實(shí)時(shí)性要求以及園區(qū)檢測(cè)目標(biāo)多為行人和非機(jī)動(dòng)車的中小型目標(biāo)的情況,對(duì)YOLOv3采用的Darknet-53特征提取網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行以下改進(jìn)。

        1)網(wǎng)絡(luò)結(jié)構(gòu)簡(jiǎn)化:

        如圖1所示,DBL是YOLOv3的基本組成部件,在DBL單元結(jié)構(gòu)中,批次歸一化(batch normalization,BN)層一般置于卷積層之后,非線性處理單元(Leaky RELU)之前。其計(jì)算過程[16]如公式(1)所示,首先計(jì)算輸入數(shù)據(jù)均值μ和數(shù)據(jù)方差σ,然后對(duì)輸入數(shù)據(jù)進(jìn)行標(biāo)準(zhǔn)化操作,訓(xùn)練縮放因子γ與偏置參數(shù)β,經(jīng)γ、β線性變換后得到新的輸出值y。

        yi←γxi+β≡BNγ,β(xi)

        (1)

        對(duì)輸入數(shù)據(jù)進(jìn)行標(biāo)準(zhǔn)化操作之后,能夠有效解決梯度消失與梯度爆炸的問題,在模型訓(xùn)練時(shí)起能加速網(wǎng)絡(luò)收斂,并減少過擬合現(xiàn)象出現(xiàn)的可能性。但同時(shí)BN層會(huì)在網(wǎng)絡(luò)前向推理時(shí)增加模型運(yùn)算量,影響檢測(cè)性能,占用更多存儲(chǔ)空間,導(dǎo)致檢測(cè)速度變慢。本文將BN層的參數(shù)合并到卷積層,進(jìn)而減少模型運(yùn)算量。合并后的權(quán)值參數(shù)ω、偏置β與縮放因子γ、均值μ呈正相關(guān),進(jìn)而提升模型前向推斷速度。

        其中YOLOv3中卷積計(jì)算結(jié)果如公式(2)所示,xi、ωi分別為輸入數(shù)據(jù)和權(quán)值參數(shù),輸出為二者卷積之和。公式(3)中μ、σ分別為數(shù)據(jù)均值和方差,γ、β分別為縮放因子和偏置參數(shù),xout即為BN計(jì)算結(jié)果。

        (2)

        (3)

        將BN層參數(shù)與卷積層合并后的計(jì)算結(jié)果如公式(4)所示,變量含義與上文相同。合并后權(quán)值ωi和偏置β如公式(5)~(6)所示。

        (4)

        合并后權(quán)值ωi為:

        (5)

        偏置β為:

        (6)

        故合并后的計(jì)算結(jié)果為:

        (7)

        卷積層與BN層合并后,可以共用Blob數(shù)據(jù),進(jìn)而降低內(nèi)存的占用,提升速度。

        2)多尺度檢測(cè)改進(jìn)

        將輸入圖像尺寸統(tǒng)一放縮到416×416,特征提取網(wǎng)絡(luò)對(duì)輸入圖像進(jìn)行下采樣(subsampled)操作,每次下采樣對(duì)應(yīng)得到一個(gè)尺度的特征圖。具有較大分辨率的淺層特征圖涵蓋更多的位置相關(guān)信息,具有小分辨率的深層特征圖涵蓋更多的語(yǔ)義相關(guān)信息。將深層殘差塊采樣得到的特征圖與淺層殘差塊采樣得到的特征圖進(jìn)行融合,可以增強(qiáng)淺層特征的語(yǔ)義信息,同時(shí)在細(xì)節(jié)信息最多的特征圖上給待檢測(cè)障礙物分配最精準(zhǔn)的邊界框,提高對(duì)小目標(biāo)物體的檢測(cè)性能。

        如圖2所示,本文在 YOLOv3原有3個(gè)檢測(cè)尺度的基礎(chǔ)上進(jìn)行擴(kuò)展,添加一個(gè)尺度的特征圖。經(jīng)過2倍上采樣后,特征尺度輸出為104×104,將第11層特征提取層與第109層route層、第85層與第61層,第97層與第36層進(jìn)行融合,充分利用各層特征。特征圖大小依次變?yōu)榱?08、104、52、26、13;4個(gè)尺度大小為104×104、52×52、26×26和13×13。4個(gè)特征尺度分別為:104×104,52×52,26×26和13×13。最后借鑒特征金字塔網(wǎng)絡(luò)(FPN,featu-re pyramid network)結(jié)構(gòu)進(jìn)行特征融合,其中新增加的104×104特征圖采用更精準(zhǔn)的錨框(anchor box),提高算法對(duì)小目標(biāo)的檢測(cè)精度,同時(shí)緩解了在密集車輛和行人環(huán)境下待檢測(cè)目標(biāo)的錯(cuò)檢和漏檢問題。

        圖2 多尺度YOLOv3網(wǎng)絡(luò)結(jié)圖

        網(wǎng)絡(luò)首先依次對(duì)4個(gè)尺度(13×13、26×26、52×52、104×104)大小的特征圖進(jìn)行處理;然后將前3個(gè)尺度(13×13、26×26、52×52)的特征圖上采樣后與較大一個(gè)尺度的特征圖拼接后分別送至檢測(cè)大、中、小目標(biāo)的YOLO層;最后與新增加的104×104的特征圖進(jìn)行拼接操作后送到剩余YOLO層,實(shí)現(xiàn)4個(gè)尺度的融合操作。由此可以獲得一個(gè)強(qiáng)語(yǔ)義信息,并且在每個(gè)融合后的特征層上單獨(dú)進(jìn)行預(yù)測(cè)。

        預(yù)測(cè)的輸出張量中包括3部分內(nèi)容,分別是障礙物邊界框、障礙物目標(biāo)和障礙物類別。改進(jìn)后的YOLOv3將融合后生成的特征圖細(xì)分為S×S的網(wǎng)格(根據(jù)具體特征圖包含13×13、26×26、52×52、104×104),每個(gè)網(wǎng)格需要預(yù)測(cè)3個(gè)不同的邊界框,進(jìn)而輸出張量應(yīng)當(dāng)表示為S×S×[3×(4+1+3)],包含4個(gè)障礙物邊框偏移參數(shù),1個(gè)障礙物目標(biāo)和3個(gè)障礙物類型。

        2.2 損失函數(shù)改進(jìn)

        交并比(IOU,intersection over union)是比較兩個(gè)任意形狀之間相似性最常用的指標(biāo),IOU定義如公式(8)所示,其中A、B表示預(yù)測(cè)框與真實(shí)框。

        (8)

        YOLOv3原始算法采用IOU作為性能指標(biāo)和邊框損失函數(shù)。但物體重疊時(shí)IOU值為零,無法反映兩物體之間的距離;物體不重疊且梯度為零時(shí),無法進(jìn)行參數(shù)優(yōu)化。因此本文選用推廣IOU(generalized intersection over union,GIOU)[17]代替IOU。GIOU與IOU定義一致,并且維持尺度不變性,在重疊情況下與IOU具備強(qiáng)相關(guān)性。GIOU的計(jì)算公式如公式(9)所示,C為可以將A和B包圍在內(nèi)的最小封閉形狀。

        (9)

        在YOLO和YOLOv2的基礎(chǔ)上,YOLOv3將分類損失調(diào)整為二分交叉熵。如公式(10)所示,其損失函數(shù)依次由五部分組成:邊框中心位置誤差、邊框?qū)挾扰c高度誤差、邊框內(nèi)包含檢測(cè)目標(biāo)時(shí)的置信度誤差、邊框內(nèi)不包含檢測(cè)目標(biāo)時(shí)的置信度誤差和目標(biāo)分類誤差。

        (10)

        若值為1,則第i個(gè)網(wǎng)格的第j個(gè)anchor box負(fù)責(zé)預(yù)測(cè)該目標(biāo)邊界框。本文采用GIOU作為邊框損失函數(shù),首先輸入預(yù)測(cè)邊界框與真實(shí)邊界框的坐標(biāo)值,并將預(yù)測(cè)值進(jìn)行排序,然后分別計(jì)算、及二者交集的面積 ,隨后找出最小包圍框I,其中:

        (11)

        最小包圍框的面積為:

        (12)

        最后計(jì)算GIOU、LGIOU,其計(jì)算公式如公式(13)~(14)所示。

        (13)

        LGIOU=1-GIOU

        (14)

        2.3 聚類方法優(yōu)化

        YOLOv3采用anchor box機(jī)制進(jìn)行邊界框預(yù)測(cè),并選用k-means聚類方法對(duì)anchor box進(jìn)行初始化,獲得一組固定尺寸的候選框。特征圖的尺度與anchor box的尺寸信息成反比,較大尺度的特征圖使用較小的anchor box進(jìn)而獲得小目標(biāo)的檢測(cè)信息,較小尺度的特征圖使用較大的anchor box進(jìn)而獲得小目標(biāo)的檢測(cè)信息。例如,YOLOv3在COCO數(shù)據(jù)集上,可得9種anchor box的尺寸信息如表1所示。

        表1 YOLOv3 的先驗(yàn)框尺寸

        考慮到KITTI、PennFudanPed等數(shù)據(jù)集中圖像尺寸過大,且k-means聚類方法在初始聚類點(diǎn)選擇時(shí)具備過強(qiáng)的隨機(jī)性和較大的時(shí)間復(fù)雜度,本文采用k-means++算法[18]對(duì)數(shù)據(jù)重新進(jìn)行聚類,獲得更恰當(dāng)?shù)木垲愔行摹?/p>

        k-means++的基本思想是使所有被選擇的初始聚類中心之間的距離值盡量大。首先從輸入的眾多數(shù)據(jù)點(diǎn)中任意選擇一個(gè)數(shù)據(jù)點(diǎn)作為首個(gè)聚類中心x,然后針對(duì)數(shù)據(jù)集合中的每一個(gè)點(diǎn)a,計(jì)算其與最近聚類中心(當(dāng)前已選擇的聚類中心)的距離:d(a);接著對(duì)聚類中心點(diǎn)重新進(jìn)行選擇(依據(jù)是當(dāng)前d(a)最大的點(diǎn)),重復(fù)以上操作,直至k個(gè)聚類中心點(diǎn)均被選出;最后用選出的k個(gè)初始聚類中心運(yùn)行原始k-means算法,進(jìn)而獲得k個(gè)anchor box的尺寸信息。

        考慮到本文數(shù)據(jù)集與公開數(shù)據(jù)集的差異,原始參數(shù)會(huì)影響模型訓(xùn)練時(shí)間和準(zhǔn)確性,因此本文采用k-means++算法對(duì)園區(qū)障礙物數(shù)據(jù)重新進(jìn)行聚類分析,針對(duì)設(shè)置的4種尺度,基于本文數(shù)據(jù)集最終得到如表2所示的12種anch-or box大致尺寸信息。

        表2 k-means++聚類的先驗(yàn)框尺寸

        2.4 結(jié)合立體視覺的障礙物檢測(cè)流程

        針對(duì)封閉園區(qū)場(chǎng)景內(nèi)無人車障礙物實(shí)時(shí)檢測(cè)需求,首先對(duì)立體視覺相機(jī)左側(cè)圖像使用改進(jìn)YOLOv3網(wǎng)絡(luò)模型進(jìn)行障礙物目標(biāo)檢測(cè),得到其類別及預(yù)測(cè)框信息;然后結(jié)合立體視覺相機(jī)獲取左右兩側(cè)圖像,進(jìn)行立體匹配處理,通過深度計(jì)算獲取障礙物與相機(jī)的距離信息,最終實(shí)現(xiàn)障礙物的類別與位置檢測(cè)。檢測(cè)流程如圖3所示。

        圖3 障礙物檢測(cè)流程

        3 實(shí)驗(yàn)

        3.1 實(shí)驗(yàn)設(shè)置與數(shù)據(jù)集制作

        本文實(shí)驗(yàn)選用NVIDIA GTX1060 GPU,操作系統(tǒng)為Ubuntu 16.04,軟件環(huán)境為CUDA9.0、Open CV3.4。ZED雙目立體視覺相機(jī)用于獲取深度信息,其基線距離為120 mm,幀率最高可達(dá)100 fps(Frames Per Second,每秒傳輸幀數(shù))。

        實(shí)驗(yàn)選用KITTI公開數(shù)據(jù)集中的校園場(chǎng)景圖像數(shù)據(jù),包含車輛、行人等園區(qū)內(nèi)主要類別障礙物,由于該數(shù)據(jù)集中車輛類別占比較大,導(dǎo)致首次訓(xùn)練模型平均精度均值(mean Average Precision,mAP)僅為33%。因此,實(shí)驗(yàn)增加復(fù)旦大學(xué)PennFudanPed行人數(shù)據(jù)集和自制園區(qū)數(shù)據(jù)集HD-campus并進(jìn)行數(shù)據(jù)擴(kuò)充。最終根據(jù)實(shí)際場(chǎng)景將園區(qū)內(nèi)主要障礙物分為Car、Pedestrian、Cyclist三類,共包含11 050張圖像,按照6:2:2的比例分為訓(xùn)練集、驗(yàn)證集和測(cè)試集,將測(cè)試效果最好的模型用于實(shí)時(shí)場(chǎng)景檢測(cè)。

        3.2 模型訓(xùn)練

        本文將訓(xùn)練集中圖像統(tǒng)一轉(zhuǎn)換為416×416大小輸入網(wǎng)絡(luò),訓(xùn)練時(shí)設(shè)置32張圖像為一個(gè)批次,其它參數(shù)設(shè)置如表3所示。

        表3 模型訓(xùn)練參數(shù)設(shè)置表

        經(jīng)過20 000次迭代后的損失函數(shù)變化情況如圖4所示,橫坐標(biāo)為迭代次數(shù),縱坐標(biāo)為損失函數(shù)值??梢钥闯觯? 000次迭代中平均損失下降速度較快,2 000~10 000次迭代平均損失緩慢下降,10 000次以后趨于穩(wěn)定,只有小幅振蕩,說明模型訓(xùn)練效果較好。

        圖4 模型損失函數(shù)變化圖

        結(jié)果顯示,迭代20 000次的收斂效果最為穩(wěn)定,所以選取對(duì)應(yīng)的權(quán)重文件作為障礙物檢測(cè)實(shí)驗(yàn)的網(wǎng)絡(luò)模型。

        3.3 實(shí)驗(yàn)結(jié)果與分析

        1)分步改進(jìn)實(shí)驗(yàn):

        為了提升模型的檢測(cè)速度,本文將BN層參數(shù)合并到卷積層,并隨機(jī)選取測(cè)試集中的10張圖片,在其他實(shí)驗(yàn)設(shè)置相同情況下進(jìn)行測(cè)試,對(duì)比合并前后的單幀圖像檢測(cè)速度。如表4所示,參數(shù)合并后,在本文實(shí)驗(yàn)平臺(tái)上單幀圖像檢測(cè)時(shí)間平均減少25 ms,錄制視頻數(shù)據(jù)檢測(cè)幀率提升50%,且合并后檢測(cè)準(zhǔn)確程度不受影響。

        表4 單幀圖像檢測(cè)速度對(duì)比表

        合并參數(shù)后,為了降低較小障礙物的漏檢率,本文在YOLOv3的基礎(chǔ)上增加了一個(gè)檢測(cè)尺度。如表5所示,四尺度的特征提取網(wǎng)絡(luò)結(jié)構(gòu)較之前具有更高的檢測(cè)精度。其中,Car類提升效果最為明顯,mAP為98.55%,檢測(cè)幀率達(dá)到40 fps。其它數(shù)據(jù)類型也有明顯改善,平均檢測(cè)精度提升2.42%,平均幀率提升6 fps。數(shù)據(jù)表明,增加至4尺度的YOLOv3模型針對(duì)每一類數(shù)據(jù)的特征提取更精準(zhǔn),分類識(shí)別能力更強(qiáng)。

        表5 多尺度改進(jìn)檢測(cè)結(jié)果

        如圖6所示,引入GIOU代替IOU作為邊框損失函數(shù)后mAP值較改進(jìn)前提升了6.3%。其中,Car類檢測(cè)準(zhǔn)確率最高,而Cyclist類檢測(cè)準(zhǔn)確率提升效果最為明顯。實(shí)驗(yàn)表明,采用GIOU能有效提升模型檢測(cè)精度與目標(biāo)定位能力。

        圖5 改進(jìn)前后mAP對(duì)比圖

        本文將改進(jìn)后的模型與雙目測(cè)距算法結(jié)合,使用ZED雙目相機(jī)在校園(封閉園區(qū))場(chǎng)景進(jìn)行實(shí)時(shí)檢測(cè)。改進(jìn)后的模型檢測(cè)平均幀率可達(dá)40 fps,滿足實(shí)時(shí)要求。圖6為實(shí)時(shí)檢測(cè)效果截圖,圖(a)、(b)和(c)中類別檢測(cè)未出現(xiàn)錯(cuò)檢、漏檢情況,模型目標(biāo)檢測(cè)效果較好。

        圖6 實(shí)時(shí)檢測(cè)效果截圖

        本文將改進(jìn)后的模型與雙目測(cè)距算法結(jié)合,使用ZED雙目相機(jī)在校園(封閉園區(qū))場(chǎng)景進(jìn)行實(shí)時(shí)檢測(cè)。

        本文根據(jù)公式(15)計(jì)算測(cè)距誤差e,其中dm和dt分別為測(cè)量距離和真實(shí)距離。

        (15)

        表6為圖6中障礙物測(cè)距實(shí)驗(yàn)數(shù)據(jù),參考相機(jī)參數(shù)及數(shù)據(jù)可知校園場(chǎng)景中3~20 m內(nèi)障礙物測(cè)距檢測(cè)結(jié)果較為準(zhǔn)確,圖(b)與圖(c)中距離較近或較遠(yuǎn)的障礙物測(cè)距誤差稍大,平均測(cè)距誤差為4.67%,效果較好。

        表6 實(shí)際場(chǎng)景測(cè)距結(jié)果

        2)消融實(shí)驗(yàn):

        本文從特征網(wǎng)絡(luò)改進(jìn)、改進(jìn)多尺度融合、定位損失函數(shù)、聚類方法四方面對(duì)YOLOv3進(jìn)行改進(jìn),為單獨(dú)分析每一項(xiàng)對(duì)檢測(cè)效果的影響,設(shè)置消融實(shí)驗(yàn)。如表7所示,設(shè)置五組實(shí)驗(yàn),確保其它實(shí)驗(yàn)設(shè)置一致的情況下,從原始YOLOv3算法逐一添加改進(jìn)項(xiàng)。實(shí)驗(yàn)1只對(duì)特征網(wǎng)絡(luò)進(jìn)行改進(jìn),實(shí)驗(yàn)2在實(shí)驗(yàn)1的基礎(chǔ)上增加改進(jìn)多尺度融合操作,實(shí)驗(yàn)3在實(shí)驗(yàn)2的基礎(chǔ)上采用GIOU作為邊框損失函數(shù),最后一組即為本文改進(jìn)后算法。

        表7 消融實(shí)驗(yàn)結(jié)果

        對(duì)比YOLOv3與實(shí)驗(yàn)1可得,特征網(wǎng)絡(luò)改進(jìn)不僅提升了檢測(cè)精度,檢測(cè)幀率也有明顯改善;對(duì)比實(shí)驗(yàn)1、2、3和本文改進(jìn)算法實(shí)驗(yàn),可以發(fā)現(xiàn)改進(jìn)多尺度融合、采用GIOU邊框損失函數(shù)和優(yōu)化聚類方法均能有效提升檢測(cè)精度,但會(huì)增加計(jì)算量,使幀率稍有下降;最終改進(jìn)算法mAP達(dá)到98.57%,較原始算法提升4.19%,幀率提升5.1 fps。由此可見,本文的改進(jìn)方案對(duì)園區(qū)障礙物檢測(cè)具有實(shí)際意義。

        3)檢測(cè)效果對(duì)比實(shí)驗(yàn):

        改進(jìn)后模型檢測(cè)效果如圖7所示,進(jìn)行數(shù)據(jù)擴(kuò)充后訓(xùn)練得到的權(quán)重文件更容易檢測(cè)到Pedestrian和Cyclist類別。圖(a)、(b)為KITTI園區(qū)數(shù)據(jù)集改進(jìn)前后檢測(cè)效果對(duì)比,原模型未檢測(cè)出的障礙物,改進(jìn)后模型均能有效檢測(cè)(圖(a)、圖(b)白色框選部分);圖(c)選取了不同光照情況下的真實(shí)園區(qū)場(chǎng)景圖像數(shù)據(jù)進(jìn)行檢測(cè),原始YOLOv3模型法無法檢測(cè)出障礙物,改進(jìn)后模型可準(zhǔn)確檢測(cè),對(duì)強(qiáng)光及陰影等環(huán)境適應(yīng)性較好;圖(d)選取了多類型障礙物場(chǎng)景,原始模型存在漏檢現(xiàn)象,改進(jìn)后模型使障礙物漏檢率降低,且?guī)嗜詽M足實(shí)時(shí)檢測(cè)要求,可見本文算法可以提升園區(qū)環(huán)境內(nèi)障礙物檢測(cè)效果。

        圖7 改進(jìn)前后檢測(cè)效果

        將SSD、Faster R-CNN、近兩年改進(jìn)算法、YOLOv3以及本文選用算法檢測(cè)結(jié)果進(jìn)行比較分析。如表8所示,與YOLOv3原始算法相比,本文算法幀率增加了8 fps,mAP提升了4.19%,具有明顯改進(jìn)效果;而SSD與Faster R-CNN在檢測(cè)精度或檢測(cè)速度存在明顯不足;與文獻(xiàn)[14-15]的改進(jìn)算法相比,本文算法的mAP與幀率也有一定提升;與YOLO的較新版本YOLOv4和YOLOv5(YOLOv5中較為完善的版本YOLOv5l)相比,本文的算法能同時(shí)兼顧檢測(cè)精度與速度,可以較好適應(yīng)園區(qū)環(huán)境障礙物檢測(cè)。

        表8 多種算法檢測(cè)對(duì)比結(jié)果

        4 結(jié)束語(yǔ)

        針對(duì)園區(qū)無人車障礙物檢測(cè)存在的問題,本文提出結(jié)合改進(jìn)YOLOv3和立體視覺的檢測(cè)方法。實(shí)驗(yàn)表明,改進(jìn)后的模型單張圖像檢測(cè)速度和實(shí)時(shí)檢測(cè)幀率均有提升,滿足實(shí)時(shí)性要求;針對(duì)陰影及強(qiáng)光照等惡劣環(huán)境的漏檢情況有較好改善;測(cè)距誤差穩(wěn)定維持在厘米級(jí)??梢姡疚牡姆椒芨玫剡m用于封閉園區(qū)無人車障礙物檢測(cè)。

        在接下來的工作中,將針對(duì)存在的問題進(jìn)一步研究,豐富真實(shí)場(chǎng)景數(shù)據(jù)集和實(shí)驗(yàn)平臺(tái),繼續(xù)改進(jìn)相關(guān)算法。

        猜你喜歡
        障礙物尺度園區(qū)
        財(cái)產(chǎn)的五大尺度和五重應(yīng)對(duì)
        高低翻越
        SelTrac?CBTC系統(tǒng)中非通信障礙物的設(shè)計(jì)和處理
        蘇通園區(qū):激蕩開放潮 十年再出發(fā)
        園區(qū)的開放樣本
        商周刊(2018年24期)2019-01-08 03:30:36
        從園區(qū)化到國(guó)際化
        商周刊(2018年12期)2018-07-11 01:27:18
        宇宙的尺度
        太空探索(2016年5期)2016-07-12 15:17:55
        園區(qū)開發(fā)Ⅱ個(gè)股表現(xiàn)
        9
        土釘墻在近障礙物的地下車行通道工程中的應(yīng)用
        久久不见久久见中文字幕免费| 青青草视频在线观看9| 美女被黑人巨大入侵的的视频 | 亚洲va在线∨a天堂va欧美va| 色系免费一区二区三区| 色偷偷亚洲女人的天堂| 国产目拍亚洲精品一区二区| 精品蜜桃视频在线观看| 蜜桃精品视频一二三区| 欧美肥妇毛多水多bbxx水蜜桃| 在线人成免费视频69国产| 亚洲日本va99在线| 久久这里只有精品黄色| 国产三级黄色大片在线免费看| av黄页网国产精品大全| 国产精品欧美久久久久久日本一道| 中文字幕人妻丝袜乱一区三区| 在线观看国产三级av| 亚洲无人区乱码中文字幕| 亚洲男人av天堂久久资源| 无码人妻精品一区二区蜜桃网站| 国产成人无码av在线播放dvd| 亚洲欧洲日产国码无码av野外 | 99久久久人妻熟妇精品一区二区| 粗大的内捧猛烈进出看视频| 日韩a无v码在线播放| 久久久亚洲精品午夜福利| 三个黑人插一个女的视频| 精品卡一卡二乱码新区| v一区无码内射国产| 91精品国产免费青青碰在线观看| 一级二级三一片内射视频| 亚洲国产高清精品在线| 色多多性虎精品无码av| 性生交大片免费看淑女出招| 色播中文字幕在线视频| 中文字幕视频一区二区| 国产午夜激无码av毛片不卡| 日本无码人妻波多野结衣| 国产精品久久久久久久专区| 国产高清大片一级黄色|