亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于暗通道和改進(jìn)YOLOv3的霧天車(chē)輛檢測(cè)算法

        2022-09-19 04:40:08王藝鋼
        物聯(lián)網(wǎng)技術(shù) 2022年9期
        關(guān)鍵詞:特征檢測(cè)模型

        華 丹,楊 碩,2,王藝鋼

        (1.沈陽(yáng)化工大學(xué) 計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,遼寧 沈陽(yáng) 110142;2.遼寧省化工工程工業(yè)智能化技術(shù)重點(diǎn)實(shí)驗(yàn)室,遼寧 沈陽(yáng) 110142)

        0 引 言

        車(chē)輛檢測(cè)是計(jì)算機(jī)視覺(jué)中的重要任務(wù)之一,在智能交通和自動(dòng)駕駛等領(lǐng)域涉及較廣泛。在霧天環(huán)境下,圖像的對(duì)比度下降、可辨識(shí)度較低,嚴(yán)重影響車(chē)輛的檢測(cè)效果,因此提高霧天車(chē)輛檢測(cè)的準(zhǔn)確性具有重要意義。

        霧天環(huán)境下車(chē)輛檢測(cè)分為兩個(gè)階段:去霧階段和車(chē)輛檢測(cè)階段。針對(duì)去霧階段,文獻(xiàn)[4]提出了一種使用半全局加權(quán)最小二乘優(yōu)化局部大氣光去霧的算法,提高了去霧圖像的亮度,但該算法在去霧的效果方面仍不理想。文獻(xiàn)[5]通過(guò)級(jí)聯(lián)直方圖均衡化和NBPC+PA模型提高了去霧后圖像的能見(jiàn)度,但該算法魯棒性較差。文獻(xiàn)[6]提出了一種融合亮度模型和梯度域?yàn)V波的算法,一定程度上提升了去霧的效果,但該算法模型較復(fù)雜,魯棒性不夠。

        在車(chē)輛檢測(cè)階段,得益于深度學(xué)習(xí)強(qiáng)大的特征檢測(cè)能力,基于深度學(xué)習(xí)的車(chē)輛檢測(cè)算法發(fā)揮著越來(lái)越重要的作用。文獻(xiàn)[8]提出了一種基于Faster RCNN和增量學(xué)習(xí)的車(chē)輛目標(biāo)檢測(cè)算法,改善了漏檢錯(cuò)檢的問(wèn)題,但該算法檢測(cè)精度較差。文獻(xiàn)[9]提出了一種基于改進(jìn)SSD的車(chē)輛檢測(cè)算法,該算法通過(guò)網(wǎng)絡(luò)剪枝與參數(shù)量化融合減少了模型的冗余參數(shù),提升了檢測(cè)速度,但檢測(cè)精度有所欠缺。文獻(xiàn)[10]提出了一種改進(jìn)的YOLOv3算法,該算法通過(guò)增加網(wǎng)絡(luò)輸出層數(shù)在一定程度上提高了車(chē)輛檢測(cè)的精度,但檢測(cè)性能仍有所不足。

        針對(duì)上述去霧算法效果較差、檢測(cè)算法精度較低的問(wèn)題,本文提出一種基于暗通道去霧算法和改進(jìn)YOLOv3模型的霧天車(chē)輛檢測(cè)算法。首先,在去霧階段通過(guò)暗通道去霧算法降低霧氣對(duì)圖像檢測(cè)的影響;其次,在車(chē)輛檢測(cè)階段使用K-means聚類(lèi)算法計(jì)算出適用于車(chē)輛檢測(cè)的先驗(yàn)框。YOLOv3算法的先驗(yàn)框由COCO數(shù)據(jù)集的圖片進(jìn)行預(yù)設(shè),并不能完全適用于車(chē)輛檢測(cè),針對(duì)霧天車(chē)輛數(shù)據(jù)集計(jì)算先驗(yàn)框可以提高算法的精確度;最后,在YOLOv3算法的特征金字塔模塊中引入注意力機(jī)制,注意力機(jī)制可以加強(qiáng)算法對(duì)特征的挖掘能力,提高算法的檢測(cè)效果。

        1 去霧算法

        由于大氣中的微粒會(huì)對(duì)光產(chǎn)生大量的散射,霧天圖像質(zhì)量會(huì)被不同程度地降低?;谏鲜鲈恚琋arasimhan等人提出了解釋霧天圖像成像過(guò)程的大氣散射模型,該模型的數(shù)學(xué)描述如式(1)所示。

        上述模型的適用條件是場(chǎng)景中的霧分布均勻。式中:表示像素點(diǎn)位置;()和()分別表示待恢復(fù)的無(wú)霧圖像和原始霧圖;()為場(chǎng)景透射率;表示大氣光值。

        暗通道先驗(yàn)理論(DCP)是對(duì)無(wú)霧圖像屬性的一種經(jīng)驗(yàn)性觀察,該理論認(rèn)為在非天空的圖像區(qū)域,總有一些像素點(diǎn)至少有一個(gè)顏色通道具有接近零的像素值。暗通道先驗(yàn)理論的數(shù)學(xué)描述如式(2)所示。

        式中:()為像素點(diǎn)的鄰域;{,,}表示每個(gè)像素的三個(gè)顏色通道;是圖像的暗通道。

        結(jié)合式(1)和式(2),可以得到圖像的粗估計(jì)透射率()為:

        式中引入一個(gè)在[0,1]之間取值的修正參數(shù),從而保留圖像中遠(yuǎn)處的霧,使圖像更自然。仿真結(jié)果表明,取0.95時(shí)復(fù)原效果最好。

        將得到的透射率和大氣光值代入大氣散射模型中獲得去霧圖像,再對(duì)該圖像做Gamma校正調(diào)整對(duì)比度,最終得到復(fù)原的去霧圖像。

        暗通道去霧算法的效果如圖1所示。相較于原圖,暗通道去霧后的圖像更為清晰,車(chē)輛目標(biāo)的輪廓更明顯,對(duì)比度更強(qiáng),有利于提高檢測(cè)算法的精度。

        圖1 暗通道去霧算法效果

        2 改進(jìn)的YOLOv3

        2.1 YOLOv3原理

        YOLOv3算法由主干提取網(wǎng)絡(luò)、特征金字塔網(wǎng)絡(luò)(Feature Pyramid Network, FPN)和檢測(cè)網(wǎng)絡(luò)三部分組成,網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。

        圖2 YOLOv3算法網(wǎng)絡(luò)結(jié)構(gòu)

        YOLOv3算法以DarkNet-53為主干特征提取網(wǎng)絡(luò)。DarkNet-53通 過(guò) 3×3和 1×1的卷積層(Convolution Layers)跳躍連接,利用L2正則化、激活函數(shù)(Leaky ReLu)和批標(biāo)準(zhǔn)化(BatchNormalization, BN)提高模型泛化能力;同時(shí)引入了殘差網(wǎng)絡(luò)(Residual Network),減少了多層網(wǎng)絡(luò)的訓(xùn)練難度,提升了檢測(cè)的精度。

        在特征金字塔模塊,為了獲取細(xì)粒度特征,YOLOv3對(duì)深層特征圖進(jìn)行上采樣(UpSampling),再與淺層特征圖進(jìn)行Concatenate拼接。拼接后的特征圖融合了深層和淺層的特征信息,提升了算法的檢測(cè)性能。

        為了使算法針對(duì)不同尺度的目標(biāo)具有相同的檢測(cè)效果,YOLOv3算法采用多尺度檢測(cè)網(wǎng)絡(luò)。從DarkNet-53中選取3種不同尺度特征圖(13×13,26×26,52×52),對(duì)這三個(gè)特征圖分別做3×3和1×1的卷積運(yùn)算,并進(jìn)行特征整合和通道調(diào)整,計(jì)算后的結(jié)果合并轉(zhuǎn)移給損失函數(shù)。

        YOLOv3算法的損失函數(shù)為回歸損失、置信度損失和分類(lèi)損失的加權(quán)和。在回歸損失中采用誤差平方和,在置信度損失和分類(lèi)損失中采用交叉熵?fù)p失,各損失計(jì)算的數(shù)學(xué)描述如式(4)所示。

        YOLOv3算法在目標(biāo)檢測(cè)方面具有較好的性能,但在應(yīng)用于霧天車(chē)輛檢測(cè)時(shí)存在以下問(wèn)題:(1)YOLOv3算法的框不能完全適用于車(chē)輛檢測(cè);(2)多尺度檢測(cè)網(wǎng)絡(luò)雖然對(duì)特征進(jìn)行了整合,但是并沒(méi)有加強(qiáng)對(duì)特征的提取,還存在對(duì)特征挖掘不足的問(wèn)題。針對(duì)以上問(wèn)題,本文對(duì)YOLOv3進(jìn)行了相應(yīng)的改進(jìn)。

        2.2 K-means計(jì)算先驗(yàn)框

        YOLOv3算法的先驗(yàn)框是根據(jù)COCO數(shù)據(jù)集預(yù)設(shè)的,不能很好地適用于本文的霧天車(chē)輛檢測(cè)數(shù)據(jù)集。為了使算法能夠更加準(zhǔn)確和快速地對(duì)車(chē)輛進(jìn)行檢測(cè),通過(guò)K-means聚類(lèi)算法對(duì)本文數(shù)據(jù)集中的真實(shí)框(Ground TrueBox)進(jìn)行分析。

        傳統(tǒng)的K-means聚類(lèi)算法多以歐氏距離來(lái)計(jì)算對(duì)象間的距離,但是對(duì)先驗(yàn)框使用歐氏距離計(jì)算時(shí),大先驗(yàn)框的誤差更大,因此使用改進(jìn)的交并比(IOU)公式進(jìn)行計(jì)算,如式(5)所示。

        式中,IOU表示聚類(lèi)中心與真實(shí)框的重合程度,其數(shù)學(xué)描述如式(6)所示。

        2.3 注意力機(jī)制的引入

        CA(Coordinate Attention)模塊是一種融合位置信息和通道信息的注意力機(jī)制,在空間和通道維度上加強(qiáng)了特征挖掘能力,其網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示。

        圖3 注意力機(jī)制網(wǎng)絡(luò)結(jié)構(gòu)

        全局池化可以在通道注意力中采集空間信息,但是難以保留位置信息。為了將位置信息嵌入到空間信息中,將全局池化分解為兩組一維的池化。對(duì)尺寸為××的輸入,分別使用尺寸為(,1)和(1,)的池化核沿著水平和豎直方向?qū)γ總€(gè)通道進(jìn)行編碼。高度為和寬度為的第個(gè)通道的輸出分別為:

        將這一對(duì)輸出的池化結(jié)果進(jìn)行Concatenate級(jí)聯(lián),然后使用一個(gè)共享的1×1卷積對(duì)其做變換,如式(9)所示。

        其中,表示下采樣比例。沿著空間維度將劃分為兩個(gè)單獨(dú)的張量f∈ Rf∈ R。使用兩個(gè) 1×1 卷積FF將特征圖ff變換到與輸入同樣的通道數(shù),如式(10)和式(11)所示。

        對(duì)pp進(jìn)行拓展,作為注意力權(quán)重,添加到輸入中。CA模塊的最終輸出如式(12)所示。

        最終通過(guò)CA模塊,對(duì)輸入完成了水平和豎直方向的特征挖掘。

        3 實(shí)驗(yàn)分析

        3.1 實(shí)驗(yàn)環(huán)境與參數(shù)

        本文實(shí)驗(yàn)環(huán)境為:11th GenIntel Corei5-1135G7@2.4 GHz,8 GB內(nèi)存,NVIDIA Geforce MX450 2 GB,64位Windows10操作系統(tǒng)。編程語(yǔ)言為Python,框架為Pytorch1.8.1,GPU加速庫(kù)為CUDA11.1和cuDNN7.65。

        在本文的實(shí)驗(yàn)中,將數(shù)據(jù)集圖片的尺寸統(tǒng)一縮放到416×416,設(shè)置參數(shù)Batchsize為4,學(xué)習(xí)率為0.001,使用Adam優(yōu)化器調(diào)整網(wǎng)絡(luò)的學(xué)習(xí)率。實(shí)驗(yàn)的訓(xùn)練周期為100個(gè)Epoch,直到Loss不再變化,自動(dòng)終止訓(xùn)練。

        3.2 數(shù)據(jù)集

        本文使用的數(shù)據(jù)集為自制的霧天車(chē)輛檢測(cè)數(shù)據(jù)集,包含13 526張圖片,按照7∶2∶1的比例劃分為訓(xùn)練集、驗(yàn)證集和測(cè)試集。由于自制的數(shù)據(jù)集圖片數(shù)量有限,為了讓模型更好地學(xué)習(xí)到目標(biāo)特征和提高魯棒性,需要對(duì)數(shù)據(jù)做數(shù)據(jù)增強(qiáng)。

        本文采用Mosaic數(shù)據(jù)增強(qiáng)算法。Mosaic算法的流程有三步:(1)在數(shù)據(jù)集中隨機(jī)選取四張圖片;(2)對(duì)這些圖片進(jìn)行縮放、剪切和水平變換,裁剪的過(guò)程中保留含有待檢測(cè)目標(biāo)的區(qū)域;(3)將這四張圖片合并處理為一張。通過(guò)Mosaic算法的數(shù)據(jù)增強(qiáng),豐富了數(shù)據(jù)集的檢測(cè)背景,提高了模型訓(xùn)練后的泛化能力。本文霧天車(chē)輛數(shù)據(jù)集的Mosaic數(shù)據(jù)增強(qiáng)效果如圖4所示。

        圖4 Mosaic數(shù)據(jù)增強(qiáng)效果

        3.3 評(píng)價(jià)指標(biāo)

        對(duì)訓(xùn)練后模型的檢測(cè)平均精度(mean Average Precision,mAP)進(jìn)行對(duì)比。mAP的計(jì)算如式(13)~(16)所示。

        式中:TP為真正例;FP為假正例;FN為負(fù)正例;為種類(lèi)數(shù)。

        3.4 聚類(lèi)計(jì)算先驗(yàn)框

        對(duì)霧天車(chē)輛檢測(cè)數(shù)據(jù)集進(jìn)行K-means聚類(lèi)分析后,得到9種先驗(yàn)框的尺寸。K-means聚類(lèi)計(jì)算先驗(yàn)框的結(jié)果對(duì)比見(jiàn)表1所列。

        表1 K-means聚類(lèi)計(jì)算先驗(yàn)框結(jié)果對(duì)比

        在尺寸為13×13的特征圖中具有最大的感受野,采用70×135、46×72、31×48這三種尺寸的先驗(yàn)框檢測(cè)最大的車(chē)輛。相較于原先驗(yàn)框的平均寬高比1.04,改進(jìn)后的先驗(yàn)框尺寸更小,平均寬高比為0.61,更適用于本文數(shù)據(jù)集。在尺寸為26×26的特征圖中,采用23×35、19×10、18×27這三種先驗(yàn)框檢測(cè)圖像中尺寸較大的車(chē)輛。在尺寸為52×52的特征圖中具有最小的感受野,采用14×22、11×19、9×13這三種尺寸的先驗(yàn)框檢測(cè)小目標(biāo)車(chē)輛。綜上所述,改進(jìn)后的先驗(yàn)框尺寸更小,平均寬高比更適用于本文數(shù)據(jù)集,有利于提升小目標(biāo)車(chē)輛的檢測(cè)精度。

        3.5 對(duì)比實(shí)驗(yàn)

        為了驗(yàn)證本文算法對(duì)霧天車(chē)輛的檢測(cè)性能,將本文算法與目標(biāo)檢測(cè)算法效果良好的SSD、Faster RCNN、YOLOv2和YOLOv3在霧天車(chē)輛數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)對(duì)比。5種算法的實(shí)驗(yàn)結(jié)果對(duì)比見(jiàn)表2所列。

        表2 5種算法的實(shí)驗(yàn)結(jié)果對(duì)比

        從表2中可以看出,本文算法比SSD算法的mAP提升了11.8%。SSD的卷積層較少,特征提取不夠充分,導(dǎo)致檢測(cè)效果欠佳。相較于Faster RCNN,本文算法的mAP提高了5.9%。Faster RCNN 使 用 RPN(Region Proposal Networks)推薦候選區(qū)域,針對(duì)多尺度的目標(biāo)不能保證較好的檢測(cè)效果。與YOLO系列的算法相比,本文算法比YOLOv2的mAP提升了14.9%,比YOLOv3提升了4.1%。本文算法基于YOLOv3進(jìn)行了相應(yīng)的改進(jìn)和拓展,提升了對(duì)霧天車(chē)輛的檢測(cè)性能。對(duì)比本文算法和YOLOv3算法對(duì)霧天車(chē)輛檢測(cè)的效果,如圖5所示。

        圖5 霧天車(chē)輛檢測(cè)效果對(duì)比

        3.6 消融實(shí)驗(yàn)

        為了驗(yàn)證本文改進(jìn)方法的有效性,以及不同改進(jìn)策略對(duì)檢測(cè)效果的影響,以YOLOv3算法為基礎(chǔ)作消融實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果見(jiàn)表3所列。

        表3 消融實(shí)驗(yàn)結(jié)果對(duì)比

        由表3可知,單獨(dú)引入去霧算法時(shí),算法的mAP提了0.8%;單獨(dú)使用K-means聚類(lèi)計(jì)算先驗(yàn)框時(shí),mAP提升了1.2%;單獨(dú)向模型中加入注意力機(jī)制時(shí),mAP提升了0.5%。組合使用去霧算法和聚類(lèi)先驗(yàn)框使算法的mAP提升了3.2%,利用去霧算法和注意力機(jī)制使算法的mAP提升了2.3%,引入聚類(lèi)計(jì)算先驗(yàn)框和注意力機(jī)制使算法的mAP提升了3%。最后將三種改進(jìn)策略添加到模型中,得到的本文算法將mAP提升了4.1%,因此本文提出的改進(jìn)策略對(duì)提升霧天車(chē)輛檢測(cè)效果具有有效性。

        4 結(jié) 語(yǔ)

        本文針對(duì)霧天車(chē)輛檢測(cè)準(zhǔn)確率較低的問(wèn)題,提出了一種基于暗通道去霧和改進(jìn)YOLOv3的檢測(cè)算法。首先利用暗通道方法對(duì)圖像進(jìn)行去霧,然后通過(guò)K-means聚類(lèi)計(jì)算適用于車(chē)輛檢測(cè)的先驗(yàn)框,最后引入注意力機(jī)制,加強(qiáng)了算法對(duì)特征圖的特征挖掘能力。通過(guò)以上改進(jìn),本文算法對(duì)霧天車(chē)輛檢測(cè)具有良好的性能。

        與主流的目標(biāo)檢測(cè)算法相比,在霧天車(chē)輛檢測(cè)數(shù)據(jù)集上,本文算法具有更好的檢測(cè)精度,mAP達(dá)到了97.5%。下一步將在引入去霧算法和網(wǎng)絡(luò)模型的基礎(chǔ)上,針對(duì)算法的復(fù)雜度進(jìn)行研究,以提高算法的檢測(cè)速度。

        猜你喜歡
        特征檢測(cè)模型
        一半模型
        “不等式”檢測(cè)題
        “一元一次不等式”檢測(cè)題
        “一元一次不等式組”檢測(cè)題
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        如何表達(dá)“特征”
        不忠誠(chéng)的四個(gè)特征
        抓住特征巧觀察
        3D打印中的模型分割與打包
        最新69国产精品视频| 青青在线精品2022国产| 亚洲欧洲日产国码无码| 亚洲国产综合精品一区| 无码少妇丰满熟妇一区二区| 久久亚洲国产成人精品性色| 亚洲aⅴ无码日韩av无码网站| 国产高清一区二区三区视频| 国产一区二区三区亚洲avv| 欧美熟妇性xxx交潮喷| 少妇的丰满3中文字幕| 中文字幕精品亚洲无线码二区| av网页免费在线观看| 又粗又大又硬毛片免费看| 色94色欧美sute亚洲线路二| 视频女同久久久一区二区三区| 国产精品一区二区熟女不卡| 18精品久久久无码午夜福利 | 国产精品亚洲专区无码不卡| 久久精品国产熟女亚洲av麻豆| 久久人人爽爽爽人久久久| 毛片免费全部无码播放| 亚洲不卡av不卡一区二区| 午夜av天堂精品一区| 女女互揉吃奶揉到高潮视频| 亚洲自偷自拍另类图片小说| 国产大片在线观看三级| 在线视频观看国产色网| 久久国产精品-国产精品| 亚洲精品aⅴ无码精品丝袜足| 国产av一区二区日夜精品剧情 | 一区二区高清视频免费在线观看| 亚洲sm另类一区二区三区| 亚洲日韩乱码中文无码蜜桃臀| 日本啪啪一区二区三区| 91日韩东京热中文字幕| 久久99久久99精品中文字幕| 国产精品一区二区av片| 精品国产女主播一区在线观看| 人人妻人人澡人人爽欧美一区双| 特级毛片a级毛片在线播放www|