亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于對(duì)抗神經(jīng)網(wǎng)絡(luò)的增強(qiáng)YOLOv3模糊目標(biāo)檢測(cè)

        2021-10-18 01:50:06梁銘峰成都信息工程大學(xué)四川成都610000
        關(guān)鍵詞:卷積圖像目標(biāo)

        梁銘峰 李 蠡(成都信息工程大學(xué) 四川 成都 610000)

        0 引 言

        隨著高速公路與高速城市道路交通事故頻率的不斷攀升,防碰撞預(yù)警輔助裝置的需求也在日益增多。由于行車(chē)記錄儀的鏡頭物理特性導(dǎo)致在高速情況下出現(xiàn)圖像失真、檢測(cè)目標(biāo)模糊等情況,通過(guò)消除模糊并提前預(yù)警前車(chē)的突然出現(xiàn)或者異常狀況可以最大程度地使駕駛員做出相應(yīng)的防御措施。模糊圖像去模糊方法分為兩種不同的類(lèi)型:盲目和非盲目去模糊。早期傳統(tǒng)方法主要圍繞著非盲目去模糊展開(kāi),如Lucy提出的一種基于貝葉斯理論且使用最頻繁、變體最多的迭代去卷積方式Lucy-Richardson圖模糊算法[1]。Wiener或Tihkonov regularization范數(shù)最小化誤差去卷積正則法也是最常用于獲得IS估計(jì)的兩種方法[2]。但在實(shí)際中很難找到適合模糊圖像的濾波系數(shù),因?yàn)槊恳粋€(gè)模糊圖像的像素模糊都存在不確定性,無(wú)法預(yù)先設(shè)定好系數(shù)使其完美濾波。自從生成對(duì)抗模型被提出以來(lái),GAN已經(jīng)擴(kuò)展到各種應(yīng)用程序[3]。針對(duì)高速運(yùn)動(dòng)模糊的運(yùn)用場(chǎng)景,本文對(duì)于模糊圖像的處理采用生成對(duì)抗網(wǎng)絡(luò)(GAN)。相較于傳統(tǒng)處理模糊圖像的方法,GAN網(wǎng)絡(luò)的效率更高,對(duì)于圖像的重建效果更好。本文采用的GAN網(wǎng)絡(luò)主要為DeblurGAN[4],是基于條件對(duì)抗式生成網(wǎng)絡(luò)和內(nèi)容損失的端對(duì)端學(xué)習(xí)網(wǎng)絡(luò)。深度檢測(cè)算法可以分為“one-stage”和“two-stage”兩類(lèi);“two-stage”檢測(cè)算法將檢測(cè)問(wèn)題劃分為兩個(gè)階段,首先產(chǎn)生候選區(qū)域(region proposals),然后對(duì)候選區(qū)域進(jìn)行識(shí)別位置調(diào)整與目標(biāo)分類(lèi),這類(lèi)算法的典型代表是基于region proposal的R-CNN系算法[5],如R-CNN[6]、SPPNet[7]、Faster R-CNN[8]、FPN[9]、R-FCN系列算法[10]?!皁ne-stage”檢測(cè)算法由于不需要region proposal這個(gè)過(guò)程,直接產(chǎn)生物體的類(lèi)別概率和位置坐標(biāo)值,經(jīng)過(guò)單次檢測(cè)即可得到最終的檢測(cè)結(jié)果,因此有著更快的檢測(cè)速度,如YOLO、SSD[11]、Retina-Net[12]。為了更好地處理動(dòng)態(tài)場(chǎng)景中的去模糊與目標(biāo)檢測(cè)所具有實(shí)時(shí)性與高準(zhǔn)確性的要求,本文在YOLOv3[13]的網(wǎng)絡(luò)基礎(chǔ)上根據(jù)目標(biāo)尺度進(jìn)行網(wǎng)絡(luò)裁剪壓縮,與預(yù)處理網(wǎng)絡(luò)相結(jié)合,形成深度融合的快速防碰撞交通檢測(cè)模型。

        1 DeblurGAN與YOLO檢測(cè)原理

        1.1 生成對(duì)抗網(wǎng)絡(luò)

        生成對(duì)抗網(wǎng)絡(luò)(GAN)[14]是非監(jiān)督式學(xué)習(xí)的一種方法,該方法由Goodfellow等在2014年首次提出。該網(wǎng)絡(luò)主要由一個(gè)生成網(wǎng)絡(luò)與一個(gè)判別網(wǎng)絡(luò)構(gòu)成,兩個(gè)網(wǎng)絡(luò)相互具有競(jìng)爭(zhēng)性。生成模型G的目標(biāo)旨在生成與真實(shí)圖像相似的圖像。判別模型鑒別器D的目標(biāo)旨在將來(lái)自發(fā)生器的偽圖像與真實(shí)樣本盡可能分辨出來(lái)。兩個(gè)網(wǎng)絡(luò)模型都是基于深度神經(jīng)網(wǎng)絡(luò)構(gòu)建的,因此,GAN網(wǎng)絡(luò)構(gòu)建了一種反饋循環(huán)結(jié)構(gòu),其中生成模型G幫助改進(jìn)鑒別器D,與此同時(shí)鑒別器D幫助改善發(fā)生器G的生成質(zhì)量,這兩個(gè)網(wǎng)絡(luò)模型相互反饋,針對(duì)目標(biāo)任務(wù)相互優(yōu)化,其原理與損失函數(shù)如圖1所示。

        (1)

        式中:B來(lái)源于模糊圖像數(shù)據(jù)源;S來(lái)源于真實(shí)圖像數(shù)據(jù)源;psharp表示真實(shí)圖像集中的圖像S所對(duì)應(yīng)的分布情況;pblurry表示模糊圖像集中的模糊圖像B經(jīng)生成器G所產(chǎn)生的輸出分布;E表示期望;D表示判別器對(duì)輸入圖像為真的概率;G表示生成器對(duì)圖像的生成結(jié)果。

        1.2 生成對(duì)抗去模糊預(yù)處理網(wǎng)絡(luò)

        DeblurGAN的網(wǎng)絡(luò)結(jié)構(gòu)主要由模糊生成器、去模糊處理和比較器三個(gè)模塊組成,網(wǎng)絡(luò)結(jié)構(gòu)中包含兩個(gè)1/2間隔的卷積單元、9個(gè)residual單元和兩個(gè)反卷積單元。每個(gè)ResBlock由一個(gè)卷積層、一個(gè)實(shí)例歸一化層和一個(gè)ReLU激活函數(shù)組成,這樣可以模擬更逼真和復(fù)雜的模糊像素。該算法遵循Boracchi等[15]描述的隨機(jī)軌跡生成的想法,通過(guò)將子像素內(nèi)插于軌跡向量來(lái)生成圖像。每個(gè)軌跡是復(fù)值向量,其對(duì)應(yīng)于在值與連續(xù)域中跟隨2D隨機(jī)運(yùn)動(dòng)的對(duì)象的離散位置。軌跡生成是通過(guò)馬爾可夫過(guò)程完成的,軌跡的下一個(gè)點(diǎn)的位置是基于先前的點(diǎn)速度和位置、高斯擾動(dòng)、脈沖擾動(dòng)和確定性慣性分量隨機(jī)生成的。DeblurGAN的原理如圖2所示。

        圖2 DeblurGAN原理

        隨后對(duì)抗過(guò)程是使用兩個(gè)卷積進(jìn)行兩倍下采樣,同時(shí)將網(wǎng)絡(luò)的通道數(shù)由原來(lái)的64增加至256。之后經(jīng)由9個(gè)residual殘差模塊進(jìn)行去模糊處理,最后由兩個(gè)反卷積模塊對(duì)圖像的上采樣還原圖像最初的輸入尺寸。DeblurGAN網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示。

        圖3 DeblurGAN網(wǎng)絡(luò)結(jié)構(gòu)

        1.3 YOLOv3檢測(cè)網(wǎng)絡(luò)原理

        YOLO是一種一階段目標(biāo)檢測(cè)算法,是端到端目標(biāo)檢測(cè)算法,它可以直接預(yù)測(cè)目標(biāo)的類(lèi)別和位置,因此具有高效的檢測(cè)速度與精確度[16]。YOLOv3新提出了一種名為Darknet-53的深度特征提取網(wǎng)絡(luò)架構(gòu),它包含53個(gè)卷積層,每個(gè)卷積后面都有標(biāo)準(zhǔn)池化層和Leaky ReLU激活層,并使用步長(zhǎng)為2的卷積層來(lái)對(duì)特征圖進(jìn)行下采樣。

        YOLOv3將待檢測(cè)圖像劃分為N×N個(gè)網(wǎng)格,如果待檢測(cè)目標(biāo)的中心位置落入網(wǎng)格中,網(wǎng)格則發(fā)起檢測(cè),預(yù)測(cè)出邊界框的分布及其置信度得分,同時(shí)得到待檢測(cè)目標(biāo)分類(lèi)的概率。邊界框的組成包含五個(gè)數(shù)據(jù)值,即x、y、w、h和置信度,其中:x和y表示當(dāng)前網(wǎng)格預(yù)測(cè)的對(duì)象邊界框中心位置的坐標(biāo);w和h是邊界框的寬度和高度。置信度的定義如下:

        (2)

        式中:pr(·)表示目標(biāo)是否存在,當(dāng)待檢測(cè)目標(biāo)落入網(wǎng)格中時(shí)pr(Object)=1,其他情況pr(Object)=0;IoU用于表示所預(yù)測(cè)的邊框與實(shí)際邊框的重合率大小,當(dāng)多個(gè)邊界框檢測(cè)到同一目標(biāo)時(shí),則使用非最大值抑制(NMS)[17]用于選擇最佳邊界框。盡管YOLO的檢測(cè)速度比R-CNN系列檢測(cè)速度更快,但它具有較高的檢測(cè)誤差。為了解決這個(gè)問(wèn)題,YOLOv3提出的第一項(xiàng)改進(jìn)是使用多標(biāo)簽分類(lèi),使用多標(biāo)簽分類(lèi)的Logistic分類(lèi)器,對(duì)于重疊的標(biāo)簽,可以更好地模擬數(shù)據(jù)。以前的YOLO版本使用Softmax函數(shù)用于分類(lèi),而YOLOv3中的分類(lèi)損失函數(shù)對(duì)每個(gè)標(biāo)簽使用二進(jìn)制交叉熵?fù)p失判別,從而代替先前版本中使用的一般均方誤差。第二項(xiàng)改進(jìn)是使用不同的邊界框預(yù)測(cè)方法,先前版本使用passthrough layer層,其作用是將前一層的feature map進(jìn)行特征重排,然后與后一層的全連接層進(jìn)行連接,感受野范圍的縮小有利于提升對(duì)小目標(biāo)檢測(cè)的精確度,這個(gè)思想在YOLOv3版本中得到了更進(jìn)一步提升。同時(shí)使用批量標(biāo)準(zhǔn)化BN(Batch Normalization)技術(shù),它通過(guò)歸一化的預(yù)處理達(dá)到調(diào)整和縮放激活輸入圖層,在所有卷積層上添加BN層后,YOLOv3的mAP提高了2%。此外,伴隨著B(niǎo)N與Dropout技術(shù)的使用,使得模型過(guò)擬合的情況得到抑制。YOLOv3采用了3個(gè)不同尺度的特征圖進(jìn)行檢測(cè),經(jīng)過(guò)32倍的下采樣得到13×13的特征圖,這里特征圖感受野比較大,適合中大尺寸對(duì)象檢測(cè),第79層進(jìn)行上采樣與第61層進(jìn)行特征融合得到較細(xì)粒度的特征圖,具有中等尺度的感受野,適合中等目標(biāo)檢測(cè)。最后,第91層特征圖再次上采樣,并與第36層特征圖融合,最后得到相對(duì)輸入圖像8倍下采樣的特征圖。它的感受野最小,適合檢測(cè)小尺寸的對(duì)象[18]。YOLOv3不僅為大特征映射提供了更精細(xì)的目標(biāo)信息,也為小特征映射提供了更深層的語(yǔ)義信息,通過(guò)上采樣調(diào)整特征圖的深度,通過(guò)串聯(lián)與深層的特征圖融合,使其具有良好的檢測(cè)性能。

        1.4 運(yùn)動(dòng)模糊原理

        通常模糊圖像可以使用式(3)進(jìn)行建模。

        F(x)=h(x)*f(x)+n

        (3)

        式中:F表示模糊圖像;f表示清晰原圖;h表示模糊點(diǎn)擴(kuò)散函數(shù)PSF(Point Spread Function);*表示卷積運(yùn)算符;n表示附加噪聲,通常情況n是高斯噪聲白噪聲。

        運(yùn)動(dòng)模糊是在曝光期間內(nèi),由待檢測(cè)目標(biāo)與物理鏡頭之間的相對(duì)線性運(yùn)動(dòng)所引起的,且與水平軸成θ角,運(yùn)動(dòng)模糊的點(diǎn)擴(kuò)散函數(shù)表達(dá)公式如下:

        (4)

        式中:L是模糊長(zhǎng)度;θ是模糊角度;x與y為真實(shí)像素點(diǎn)坐標(biāo)。運(yùn)動(dòng)模糊處理效果如圖4所示。

        (a) 清晰原圖

        (b) 運(yùn)動(dòng)模糊處理圖4 運(yùn)動(dòng)模糊處理效果

        2 BL-YOLOv3

        為了實(shí)現(xiàn)檢測(cè)模糊圖像功能,本文在YOLO網(wǎng)絡(luò)的預(yù)處理功能中加入DeblurGAN網(wǎng)絡(luò),YOLO除了對(duì)輸入的圖片進(jìn)行尺寸自適應(yīng)外,同時(shí)也能夠增強(qiáng)圖像清晰度,并將模型應(yīng)用于防碰撞預(yù)警檢測(cè)任務(wù),具體流程如圖5所示。在新的網(wǎng)絡(luò)結(jié)構(gòu)中,去除了DeblurGAN網(wǎng)絡(luò)的模糊生成器和比較器,只保留其去模糊處理,盡量減少GAN網(wǎng)絡(luò)的加入對(duì)YOLO原網(wǎng)絡(luò)的影響。當(dāng)YOLO網(wǎng)絡(luò)接收到輸入的圖片經(jīng)過(guò)自適應(yīng)處理生成416×416尺寸的幀圖片后,由DeburlurGAN網(wǎng)絡(luò)中的去模糊處理模塊對(duì)其進(jìn)行去模糊操作,DeburlurGAN在完成去模處理后經(jīng)由反卷積網(wǎng)絡(luò)層將圖片大小重新恢復(fù)成416×416尺寸。去模糊完成后經(jīng)由YOLO特征提取網(wǎng)絡(luò)resnet網(wǎng)絡(luò)進(jìn)行特征的提取。在這一部分本文分析檢測(cè)對(duì)象,行人、汽車(chē)、交通標(biāo)志,三者有明顯的剛性結(jié)構(gòu)特征且不易混淆,先由YOLOv3-tiny網(wǎng)絡(luò)進(jìn)行訓(xùn)練測(cè)試,達(dá)到了mAP 54.23%的檢測(cè)結(jié)果??紤]到將DebulurGAN加入到Y(jié)OLOv3網(wǎng)絡(luò)中勢(shì)必會(huì)增加網(wǎng)絡(luò)整體的計(jì)算量,大大降低其檢測(cè)速度?;谠赮OLOv3-tiny中測(cè)試得到的結(jié)果,對(duì)特征提取網(wǎng)絡(luò)進(jìn)行網(wǎng)絡(luò)壓縮,降低由于增加去模糊模塊所帶來(lái)的影響。分析YOLO的網(wǎng)絡(luò)結(jié)構(gòu),其對(duì)于目標(biāo)的特征提取網(wǎng)絡(luò)主要由23個(gè)殘差結(jié)構(gòu)組成,每個(gè)殘差結(jié)構(gòu)由1×1和3×3的卷積層組成,之后分別由三個(gè)不同尺度的YOLO層完成對(duì)目標(biāo)的檢測(cè)。本次實(shí)驗(yàn)中采用的壓縮方法主要為剪裁網(wǎng)絡(luò)層和對(duì)網(wǎng)絡(luò)通道進(jìn)行降維。對(duì)YOLOv3網(wǎng)絡(luò)層的參數(shù)結(jié)構(gòu)進(jìn)行分析,對(duì)于尺度為13和26的特征圖所使用的卷積層通道數(shù)較多,其中含有較多的無(wú)效連接,因此對(duì)于這兩個(gè)尺度的特征提取模塊,本文均對(duì)其卷積層進(jìn)行降維操作。分析整體應(yīng)用場(chǎng)景,本文實(shí)驗(yàn)去除一半52尺度的特征提取通道檢測(cè),最終訓(xùn)練得出的mAP也能達(dá)到76.48%,相較于網(wǎng)絡(luò)修改前所測(cè)得的mAP 79.14%,只下降了2.66百分點(diǎn),即說(shuō)明了52尺度的細(xì)粒度場(chǎng)景檢測(cè)對(duì)于本次實(shí)驗(yàn)中的檢測(cè)對(duì)象無(wú)太大檢測(cè)增強(qiáng)作用。在網(wǎng)絡(luò)結(jié)構(gòu)中,本文將60至80層的卷積殘差模塊特征提取通道降為原來(lái)的一半。BL-YOLOv3檢測(cè)流程如圖6所示。

        圖5 防碰撞預(yù)警檢測(cè)流程

        2.1 建立行駛樣本數(shù)據(jù)集

        由于車(chē)輛日常使用環(huán)境的多變性,本實(shí)驗(yàn)通過(guò)行車(chē)記錄儀截取了在不同天氣情況(雷雨、陰天)下以及早中晚不同陽(yáng)光強(qiáng)度下的行駛視頻幀,并充分涵蓋了上坡、快速、街道、下坡、急轉(zhuǎn)彎等復(fù)雜路段。本文檢測(cè)對(duì)象分別是行人(person)、車(chē)輛(Car)、交通標(biāo)志(Traffic Sign),選取多個(gè)不同環(huán)境下且具有良好目標(biāo)特征的視頻幀后,利用LabelImg標(biāo)工具對(duì)目標(biāo)進(jìn)行標(biāo)示,最后將標(biāo)簽數(shù)據(jù)文件.xml轉(zhuǎn)化為YOLO訓(xùn)練所需要的的TXT文本。數(shù)據(jù)集如表1所示。

        2.2 模型訓(xùn)練

        YOLOv3中的默認(rèn)anchor尺度是由作者通過(guò)聚類(lèi)VOC數(shù)據(jù)集得到的,20類(lèi)目標(biāo)中大到bicycle、bus,小到bird、cat,這樣的anchor參數(shù)并不適合本場(chǎng)景的待檢測(cè)目標(biāo)對(duì)象,本文利用標(biāo)簽中的先驗(yàn)信息進(jìn)行聚類(lèi)計(jì)算anchor,提高bounding box的檢出率。同時(shí)批次樣本數(shù)(Batch)設(shè)置為64,為了進(jìn)一步提升訓(xùn)練效率,將Subdivsion Size提高到16,將圖像輸入的默認(rèn)resize尺寸由416提升到608以達(dá)到提升圖像識(shí)別精度,迭代次數(shù)設(shè)置為83 000次,采用小批量SDG(隨機(jī)梯度下降法)進(jìn)行訓(xùn)練。本實(shí)驗(yàn)條件如下:基于Windows 10下的Visual Studio 2015平臺(tái),CPU為Intel I7-8700K,內(nèi)存為32 GB,GPU為NVIDIA GTX-1080TI,硬件加速庫(kù)為NVIDIA CUDA10.1。

        3 實(shí) 驗(yàn)

        3.1 去模糊塊對(duì)比實(shí)驗(yàn)

        為了檢驗(yàn)BL-YOLOv3的去模糊塊有效性,本文采用Lucy-Richardson算法估計(jì)點(diǎn)擴(kuò)展函數(shù)(PSF)與維納濾波器的傳統(tǒng)圖模糊算法、生成對(duì)抗網(wǎng)絡(luò)去模糊塊(deblur)與基于深度學(xué)習(xí)的圖像超分辨率重建算法在二級(jí)運(yùn)動(dòng)模糊情況下進(jìn)行仿真實(shí)驗(yàn)。Lucy-Richardson算法是一種基于貝葉斯思想的空間域上的圖像復(fù)原方法,該算法從貝葉斯理論出發(fā)推導(dǎo)了圖像迭代復(fù)原的基本框架。維納濾波器則是用最小均方差濾波來(lái)去除含有噪聲的模糊圖像,其目標(biāo)是找到未污染圖像的一個(gè)估計(jì),使它們之間的均方差最小。超分辨率重建算法則是對(duì)于一個(gè)低分辨率圖像,先使用雙三次(bicubic)插值將其放大到目標(biāo)大小,再通過(guò)三層卷積網(wǎng)絡(luò)做非線性映射,得到的結(jié)果作為高分辨率圖像輸出。本實(shí)驗(yàn)采用Tenengrad梯度的算法對(duì)增強(qiáng)圖像質(zhì)量進(jìn)行評(píng)估。該方法利用Sobel算子分別計(jì)算水平和垂直方向的梯度,同一場(chǎng)景下梯度值越高,圖像越清晰,衡量的指標(biāo)是圖像的平均灰度值,值越大,代表圖像越清晰。去模糊實(shí)驗(yàn)效果如圖7所示,圖像質(zhì)量評(píng)估結(jié)果如表2所示。

        (a) Lucy-Richardson算法結(jié)果

        (d) 超分辨率重建算法圖7 去模糊實(shí)驗(yàn)效果

        表2 圖像質(zhì)量評(píng)估

        由結(jié)果可知,在相同運(yùn)動(dòng)的模糊強(qiáng)度條件下,Lucy-Richardson與維納濾波器算法增強(qiáng)結(jié)果較差,當(dāng)噪聲較為復(fù)雜時(shí),傳統(tǒng)濾波方法難以計(jì)算出噪聲的頻域模型,不能合理地去除噪聲干擾,在這個(gè)應(yīng)用場(chǎng)景下幾乎失去了目標(biāo)檢測(cè)條件。相對(duì)于超參數(shù)處理算法,deblur的Tenengrad的Sobel結(jié)果更大,質(zhì)量評(píng)估效果更好,超參數(shù)處理算法在還原清晰圖像過(guò)程中,會(huì)帶來(lái)峰值信噪比(PSNR)與結(jié)構(gòu)相似性指標(biāo)(SSIM)的下降從而失去一些有用的細(xì)節(jié)部分,神經(jīng)網(wǎng)絡(luò)在淺層的特征提取只是位置信息,而加入的噪聲會(huì)導(dǎo)致在深層提取細(xì)節(jié)信息時(shí)造成干擾。由于YOLOv3具有良好的泛化能力,在模型計(jì)算開(kāi)銷(xiāo)與實(shí)時(shí)性的客觀要求下,deblur去模糊算法取得了較好的效果。

        3.2 檢測(cè)網(wǎng)絡(luò)優(yōu)化

        由于本次檢測(cè)的目標(biāo)主要為車(chē)輛,其目標(biāo)體積較大易檢測(cè)。在YOLOv3結(jié)構(gòu)的設(shè)計(jì)中為了增強(qiáng)小目標(biāo)的檢測(cè)加入了52尺度的特征檢測(cè),但根據(jù)實(shí)際應(yīng)用場(chǎng)景中需要檢測(cè)的目標(biāo)為大目標(biāo)較多,故本模型對(duì)52尺度的feature map進(jìn)行裁剪,減少網(wǎng)絡(luò)整體不必要的推算,并對(duì)裁剪前后的檢測(cè)效果進(jìn)行比對(duì)。同時(shí)對(duì)網(wǎng)絡(luò)層的參數(shù)量進(jìn)行計(jì)算,13和26尺度的feature map存在有計(jì)算量較多的層,為保證不丟失過(guò)多的目標(biāo)信息,只對(duì)每個(gè)殘差塊中最后一個(gè)3×3卷積層進(jìn)行通道壓縮,壓縮后的前后精度測(cè)試結(jié)果如表3所示。

        表3 目標(biāo)檢測(cè)模型優(yōu)化對(duì)比結(jié)果

        綜上,經(jīng)過(guò)剪裁與壓縮后的網(wǎng)絡(luò)在精度上并沒(méi)有太大損失,但對(duì)于計(jì)算量的減少與計(jì)算速度的提升有一定程度的優(yōu)化。

        3.3 訓(xùn)練結(jié)果與分析

        本文進(jìn)行了兩組對(duì)比實(shí)驗(yàn),分別使用改進(jìn)算法BL-YOLOv3和YOLOv3算法在自建數(shù)據(jù)上進(jìn)行訓(xùn)練測(cè)試,并計(jì)算出各自算法的AP(Average Precision),如圖8所示。

        圖8 平均準(zhǔn)確率對(duì)比

        實(shí)驗(yàn)結(jié)果表明,相比在相同基礎(chǔ)訓(xùn)練集上的YOLOv3模型,BL-YOLOv3網(wǎng)絡(luò)在輕量化處理以后,其在準(zhǔn)確性與精度上均達(dá)到了不錯(cuò)的水平,同時(shí)也加快了模型的識(shí)別速率與訓(xùn)練速度。從圖8中可以得到,本文提出的BL-YOLOv3獲得了75.48%的mAP,在此使用場(chǎng)景下,精度方面優(yōu)于YOLOv3,在視頻檢測(cè)中,實(shí)時(shí)速率達(dá)到了42.16幀/s,滿足實(shí)時(shí)檢測(cè)的要求??梢钥吹?,本文提出的模型對(duì)車(chē)輛、人、交通標(biāo)志的檢測(cè)分類(lèi)具有較好的魯棒性。

        圖9(c)和圖9(d)右邊圖像為Deblur預(yù)處理過(guò)后的識(shí)別效果,對(duì)比未先預(yù)處理過(guò)的YOLOv3模型,可以看出,BL-YOLO在該應(yīng)用場(chǎng)景下的(人、車(chē)、交通標(biāo)志)的AP數(shù)據(jù)有了一定幅度的提升(約13%),取得了較好的效果。

        (a) 模型視頻幀測(cè)試場(chǎng)景示意1

        (b) 模型視頻幀數(shù)測(cè)試場(chǎng)景示意2

        3.4 實(shí)驗(yàn)結(jié)果與分析

        按照3.1節(jié)的實(shí)驗(yàn)配置,本文將結(jié)合BL-YOLO與YOLOv3在同一超參數(shù)設(shè)置下進(jìn)行訓(xùn)練,并對(duì)測(cè)試結(jié)果做了橫向?qū)Ρ?。首先是?duì)兩個(gè)網(wǎng)絡(luò)進(jìn)行25 000次的迭代訓(xùn)練,將訓(xùn)練日志保存輸出,繪制出兩個(gè)網(wǎng)絡(luò)的訓(xùn)練損失曲線圖。曲線圖如圖10所示。

        為了降低DeblurGAN網(wǎng)絡(luò)的加入對(duì)YOLOv3檢測(cè)速度影響,本實(shí)驗(yàn)對(duì)YOLO的主干網(wǎng)絡(luò)進(jìn)行了壓縮,減少網(wǎng)絡(luò)參數(shù)加快了網(wǎng)絡(luò)的計(jì)算。通過(guò)訓(xùn)練損失曲線圖可以看出,雖然對(duì)主干網(wǎng)絡(luò)的壓縮操作會(huì)對(duì)特征的提取造成一定的影響,但是壓縮前后的訓(xùn)練損失偏差值只在0.1~0.2的范圍區(qū)間,說(shuō)明其檢測(cè)精度并未大幅度下降,滿足實(shí)際運(yùn)用條件。

        根據(jù)8 ∶2的訓(xùn)練集與測(cè)試集比例需求,本文使用測(cè)試集對(duì)BL-YOLOv3和YOLOv3進(jìn)行對(duì)比測(cè)試。測(cè)試的內(nèi)容主要包括準(zhǔn)確率、召回率、漏檢率和平均準(zhǔn)確率,測(cè)試集為6 961幅經(jīng)過(guò)運(yùn)動(dòng)模糊處理的樣本。測(cè)試結(jié)果如表4所示。

        表4 測(cè)試結(jié)果(%)

        (5)

        (6)

        (7)

        (8)

        分析表4數(shù)據(jù),YOLOv3即使擁有良好的泛化能力,但是對(duì)于模糊圖像的檢測(cè),其檢測(cè)精度與檢測(cè)性能都有明顯下降。但是加入去模糊處理的BL-YOLOv3對(duì)于模糊圖像的檢測(cè),精度與性能接近于目前深度學(xué)習(xí)算法對(duì)于該類(lèi)目標(biāo)檢測(cè)的平均值,說(shuō)明了去模糊處理的加入在很大程度上提高了檢測(cè)性能。

        關(guān)于二者的性能對(duì)比,查準(zhǔn)率結(jié)果如圖11所示,本實(shí)驗(yàn)直觀地從P-R曲線圖中可以看出,對(duì)于模糊目標(biāo)樣本的檢測(cè),優(yōu)化后的BL-YOLOv3要優(yōu)于YOLOv3。

        圖11 查準(zhǔn)率結(jié)果

        另外本實(shí)驗(yàn)采集了道路實(shí)景照片,經(jīng)過(guò)不同等級(jí)的運(yùn)動(dòng)模糊處理模仿實(shí)際情況中可能出現(xiàn)的模糊效果,對(duì)改進(jìn)前后的YOLOv3進(jìn)行對(duì)比,二者的檢測(cè)結(jié)果如圖12所示。

        (b) 二級(jí)模糊圖12 運(yùn)動(dòng)模糊處理圖像

        圖12(a)采用一級(jí)運(yùn)動(dòng)模糊模(一次運(yùn)動(dòng)模糊處理)擬車(chē)速較快時(shí)出現(xiàn)的模糊情況,圖12(b)采用二級(jí)運(yùn)動(dòng)模糊(在一次運(yùn)動(dòng)模糊的基礎(chǔ)上,保持相同參數(shù)再次模糊)模擬當(dāng)車(chē)輛經(jīng)過(guò)減速帶等崎嶇路面抖動(dòng)造成的模糊情況。

        對(duì)于一級(jí)模糊的檢測(cè)對(duì)比如圖13所示。

        (a) YOLOv3

        (b) BL-YOLOv3圖13 一級(jí)運(yùn)動(dòng)模糊檢測(cè)效果對(duì)比圖

        對(duì)于二級(jí)模糊的檢測(cè)對(duì)比如圖14所示。

        從圖13(a)和圖13(b)的對(duì)比結(jié)果直觀分析,在一級(jí)模糊的情況下YOLOv3的檢測(cè)只出現(xiàn)了小規(guī)模的漏檢情況,但在二級(jí)模糊條件下,如圖14(a)和圖14(b)所示,YOLOv3基本失去檢測(cè)能力。但是改進(jìn)后的算法仍然能對(duì)目標(biāo)進(jìn)行有效檢測(cè),說(shuō)明了加入去模糊模塊對(duì)檢測(cè)性能的提升有很大的幫助。

        4 結(jié) 語(yǔ)

        本文提出一個(gè)基于生成對(duì)抗網(wǎng)絡(luò)去模糊網(wǎng)絡(luò)模塊實(shí)時(shí)檢測(cè)算法的目標(biāo)檢測(cè)神經(jīng)網(wǎng)絡(luò)BL-YOLOv3,并用于實(shí)時(shí)防碰撞預(yù)警駕駛視頻目標(biāo)檢測(cè),為汽車(chē)前向目標(biāo)防碰撞測(cè)試提出了優(yōu)化方案。利用DeblurGAN的快速盲去模糊預(yù)處理的方法,優(yōu)化了一般檢測(cè)算法在模糊環(huán)境下的檢測(cè)精度。為了證明本文方法的有效性,將其與YOLOv3方法進(jìn)行了比較。實(shí)驗(yàn)結(jié)果表明,與YOLOv3模型相比,BL-YOLOv3在檢測(cè)速度與精度上有了顯著的提高。目前對(duì)灰暗環(huán)境以及處于反光條件的小目標(biāo)交通標(biāo)志的識(shí)別中,仍然出現(xiàn)空目標(biāo)或者識(shí)別框不準(zhǔn)確等問(wèn)題,這是下一步需要繼續(xù)完善的地方。

        猜你喜歡
        卷積圖像目標(biāo)
        改進(jìn)的LapSRN遙感圖像超分辨重建
        基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
        有趣的圖像詩(shī)
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        我們的目標(biāo)
        一種基于卷積神經(jīng)網(wǎng)絡(luò)的性別識(shí)別方法
        遙感圖像幾何糾正中GCP選取
        趣味數(shù)獨(dú)等4則
        意林(2011年10期)2011-05-14 07:44:00
        新目標(biāo)七年級(jí)(下)Unit?。尘毩?xí)(一)
        东北少妇不带套对白| 亚洲高清精品一区二区| 亚洲天堂一区二区偷拍| 九九久久自然熟的香蕉图片| 日韩a毛片免费观看| 91亚洲欧洲日产国码精品| 开心五月激情五月天天五月五月天| 亚洲av无码一区二区三区天堂| 亚洲小说区图片区另类春色| 国产精品玖玖玖在线资源| 国产成人高清亚洲一区二区| 欧美亚洲日韩国产人成在线播放| 免费人妻精品区一区二区三 | 中文字幕精品一区二区2021年| 久久中文字幕无码一区二区| 国产黄色看三级三级三级| 熟女人妻中文字幕av| 天堂aⅴ无码一区二区三区| 亚洲国产成人精品福利在线观看| 亚洲日本国产一区二区三区| 人人妻人人澡人人爽国产| 中文字幕人妻熟女人妻洋洋| 亚洲国产一区二区三区最新| 在线观看亚洲视频一区二区| 丰满大爆乳波霸奶| 国产免费又色又爽又黄软件| YW亚洲AV无码乱码在线观看| 亚洲国产线茬精品成av| 伦伦影院午夜理论片| 国产免费丝袜调教视频| 国产成人综合日韩精品无| 国产亚洲av综合人人澡精品| 亚洲av久久久噜噜噜噜| 午夜片无码区在线| 国产成版人性视频免费版| 日韩人妻无码精品一专区二区三区| 毛片24种姿势无遮无拦| 亚洲国产成a人v在线观看| 青青草视频是针对华人| 色avav色av爱avav亚洲色拍| 国产精品成人午夜久久|