亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于密集連接卷積神經(jīng)網(wǎng)絡(luò)的道路車(chē)輛檢測(cè)與識(shí)別算法

        2022-04-12 09:24:52鄧天民冒國(guó)韜周臻浩段志堅(jiān)
        計(jì)算機(jī)應(yīng)用 2022年3期
        關(guān)鍵詞:先驗(yàn)特征提取殘差

        鄧天民,冒國(guó)韜,周臻浩,段志堅(jiān)

        (重慶交通大學(xué)交通運(yùn)輸學(xué)院,重慶 400074)

        0 引言

        近些年來(lái),全球各地汽車(chē)保有量飛速增長(zhǎng),大量學(xué)者對(duì)自動(dòng)駕駛領(lǐng)域展開(kāi)了深入研究,目標(biāo)檢測(cè)成為了自動(dòng)駕駛領(lǐng)域研究的一個(gè)重點(diǎn)。車(chē)輛作為目標(biāo)檢測(cè)任務(wù)中的重要對(duì)象之一,在自動(dòng)駕駛領(lǐng)域有著非常重要的應(yīng)用價(jià)值。隨著計(jì)算機(jī)硬件水平的提升,基于卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)的目標(biāo)檢測(cè)方法憑借其強(qiáng)大的特征表達(dá)能力取得了驚人的成果[1]。Krizhevsky 等[2]提出的AlexNet 結(jié)構(gòu)模型獲得2012 年國(guó)際視覺(jué)識(shí)別挑戰(zhàn)賽(ImageNet Large Scale Visual Recognition Challenge,ILSVRC)的冠軍,CNN 隨即迎來(lái)了歷史性的突破,掀起了對(duì)深度學(xué)習(xí)的研究熱潮。

        目前,基于深度學(xué)習(xí)的車(chē)輛檢測(cè)識(shí)別方法主要分為兩類(lèi):

        一類(lèi)是兩階段的目標(biāo)檢測(cè)算法,此類(lèi)方法檢測(cè)準(zhǔn)確率和定位精度較高,但缺點(diǎn)是訓(xùn)練速度慢、實(shí)時(shí)性差,其中代表性的算法有R-CNN[3]、Fast R-CNN[4]、Faster R-CNN[5]等。Nguyen[6]通過(guò)改進(jìn)Faster R-CNN 算法的特征提取網(wǎng)絡(luò),引入上下文感知池化,提高了對(duì)小目標(biāo)車(chē)輛和遮擋車(chē)輛的檢測(cè)精度,但檢測(cè)實(shí)時(shí)性還有待提升;楊薇等[7]提出了一種改進(jìn)的Faster R-CNN 車(chē)輛實(shí)時(shí)檢測(cè)算法,訓(xùn)練時(shí)采用多尺度策略,提高了模型泛化能力,但對(duì)于復(fù)雜環(huán)境下排列密集、遮擋嚴(yán)重的車(chē)輛檢測(cè)效果較差。

        另一類(lèi)是一階段的目標(biāo)檢測(cè)算法,這類(lèi)方法不需要產(chǎn)生候選框,直接預(yù)測(cè)物體位置與類(lèi)別,一次檢測(cè)就能得到最終檢測(cè)結(jié)果,其中代表性的算法有YOLO(You Only Look Once)系列算法[8-11]以及SSD(Single Shot MultiBox Detector)[12]等。Wang 等[13]提出了一種基于改進(jìn)的YOLOv3-Tiny 的車(chē)輛檢測(cè)方法,加入空間金字塔池化(Spatial Pyramid Pooling,SPP)模塊,提高了模型特征提取能力,取得了較高的檢測(cè)精度,但對(duì)于小尺度目標(biāo)檢測(cè)效果較差;趙文清等[14]提出了一種基于SSD 的反卷積和特征融合算法,降低了小目標(biāo)的漏檢率,但由于反卷積操作增大了運(yùn)算復(fù)雜度,導(dǎo)致檢測(cè)速度大幅降低。相較于兩階段的目標(biāo)檢測(cè)算法,一階段的方法檢測(cè)速度快、誤檢率低,但缺點(diǎn)是精度偏低、小目標(biāo)檢測(cè)效果較差以及對(duì)于復(fù)雜環(huán)境中的車(chē)輛檢測(cè)較為困難。

        本文針對(duì)上述道路車(chē)輛檢測(cè)算法檢測(cè)速度與檢測(cè)精度相矛盾、小目標(biāo)車(chē)輛漏檢及復(fù)雜環(huán)境下檢測(cè)困難的問(wèn)題,提出一種基于密集連接網(wǎng)絡(luò)的道路車(chē)輛檢測(cè)算法。采用改進(jìn)的密集連接殘差網(wǎng)絡(luò)結(jié)構(gòu),通過(guò)聚類(lèi)算法對(duì)車(chē)輛數(shù)據(jù)集的邊界框進(jìn)行聚類(lèi),同時(shí)增大網(wǎng)絡(luò)的檢測(cè)尺度,并在特征融合階段添加跳躍連接結(jié)構(gòu)增強(qiáng)網(wǎng)絡(luò)的特征信息融合,解決網(wǎng)絡(luò)模型大、車(chē)輛檢測(cè)精度不高和漏檢的問(wèn)題。

        1 基于密集連接的主干特征提取網(wǎng)絡(luò)

        本文選用YOLOv4 框架進(jìn)行改進(jìn),YOLOv4 模型的主干特征提取網(wǎng)絡(luò)CSPDarknet53 是在Darknet53 網(wǎng)絡(luò)[10]的5 組深度殘差結(jié)構(gòu)基礎(chǔ)上分別添加跨階段局部網(wǎng)絡(luò)(Cross Stage Partial Network,CSPNet)[15]模塊得到的,它將特征圖的映射劃分為兩部分:一部分經(jīng)過(guò)深度殘差結(jié)構(gòu)強(qiáng)化網(wǎng)絡(luò)特征提取的能力;另一部分通過(guò)跨階段層次結(jié)構(gòu)與它們?nèi)诤?,在減少了計(jì)算量的同時(shí)可以保持準(zhǔn)確性。對(duì)于道路車(chē)輛的檢測(cè)識(shí)別,CSPDarknet53 網(wǎng)絡(luò)中大量的運(yùn)算參數(shù)會(huì)使車(chē)輛檢測(cè)速度減慢,并且在數(shù)據(jù)集樣本量較小時(shí)易導(dǎo)致過(guò)擬合。

        1.1 密集連接模塊

        YOLOv4 模型在特征提取階段采用5 組深度殘差網(wǎng)絡(luò)結(jié)構(gòu)強(qiáng)化網(wǎng)絡(luò)的特征提取,當(dāng)網(wǎng)絡(luò)層數(shù)加深時(shí),解決梯度消失的問(wèn)題。

        圖1 所示為YOLOv4 的殘差模塊結(jié)構(gòu),殘差單元(Res unit)從殘差網(wǎng)絡(luò)(Residual Network,ResNet)[16]中借鑒而來(lái),其核心的表達(dá)式為:

        圖1 殘差模塊結(jié)構(gòu)Fig.1 Residual block structure

        其中:xn表示n層的輸出;Hn表示包括卷積、批歸一化和激活函數(shù)組合在一起的非線性變換。

        密集連接卷積網(wǎng)絡(luò)(Dense Connected Convolutional Network,DenseNet)[17]具有密集型連接結(jié)構(gòu),如圖2 所示。在DenseBlock 中,每個(gè)密集連接單元(Dense unit)層的輸入都包含了較早層的輸出,更好地利用了每一層的特征。

        圖2 DenseNet密集連接結(jié)構(gòu)Fig.2 Dense connected structure of DenseNet

        DenseNet 的核心表達(dá)式為:

        其中:[x0,x1,…,xm-1]表示將0 到m-1 層輸出的特征圖進(jìn)行并聯(lián)粘接(concat)操作;xm表示m層的輸出;Hm表示包括卷積、批歸一化和激活函數(shù)組合在一起的非線性變換。

        本文借鑒DenseNet 的密集連接結(jié)構(gòu),在原始的殘差結(jié)構(gòu)基礎(chǔ)上提出具有更強(qiáng)特征提取能力的網(wǎng)絡(luò),稱為DRNet(Dense Residual Network),如圖3 所示。采用DRBlock 代替網(wǎng)絡(luò)原有的ResBlock,通過(guò)殘差組件單元進(jìn)行特征提取,使網(wǎng)絡(luò)訓(xùn)練更加容易,在每個(gè)殘差組件之間采用密集連接方式,以加強(qiáng)特征復(fù)用,強(qiáng)化對(duì)淺層復(fù)雜度低的特征的利用。

        圖3 DRNet結(jié)構(gòu)Fig.3 Structure of DRNet

        1.2 跨層連接結(jié)構(gòu)

        根據(jù)CSP 模塊結(jié)構(gòu)與DRNet 結(jié)構(gòu)的特點(diǎn),設(shè)計(jì)以下兩種不同的CSP 模塊:CSPBlock-B 和CSPBlock-C,如圖4 所示。

        由圖4(b)與圖4(c)的對(duì)比可知,結(jié)構(gòu)B 先將兩個(gè)部分的特征進(jìn)行并聯(lián)粘接,之后再輸入到1×1 卷積的過(guò)渡層,這樣做可以使大量的梯度信息被重用,有利于網(wǎng)絡(luò)的學(xué)習(xí)。結(jié)構(gòu)C 則是先將部分的特征信息輸入過(guò)渡層,然后再進(jìn)行并聯(lián)粘接操作,采用這種做法損失了部分梯度信息的重用,但由于1×1 卷積層輸入維度小于結(jié)構(gòu)B,使得運(yùn)算復(fù)雜度降低。圖4(a)為原始的跨階段局部模塊結(jié)構(gòu),可以看出,結(jié)構(gòu)A 同時(shí)采用了上述兩種結(jié)構(gòu)中的過(guò)渡層,學(xué)習(xí)能力更強(qiáng),但提高了運(yùn)算復(fù)雜度。為提升模型的運(yùn)算效率,本文選用結(jié)構(gòu)B 作為新的跨階段局部模塊。

        圖4 三種不同的CSPBlockFig.4 Three types of CSPBlock

        1.3 深度殘差結(jié)構(gòu)

        綜合考慮道路車(chē)輛檢測(cè)的實(shí)時(shí)性需求與檢測(cè)精度,采用6 組深度殘差結(jié)構(gòu)強(qiáng)化主干網(wǎng)絡(luò)的特征提取能力。分別將6組深度殘差結(jié)構(gòu)中殘差組件數(shù)量設(shè)置為1、2、3、3、3、2,提出一種運(yùn)算復(fù)雜度相對(duì)較低、參數(shù)量相對(duì)較少的主干特征提取網(wǎng)絡(luò)CSPDRNet53,網(wǎng)絡(luò)模型結(jié)構(gòu)如圖5 所示。

        圖5 CSPDRNet53結(jié)構(gòu)Fig.5 Structure of CSPDRNet53

        相較于CSPDarknet53 中包含5 組深度殘差結(jié)構(gòu)以及1、2、8、8、4 個(gè)殘差組件的較為復(fù)雜冗余且參數(shù)量過(guò)多的網(wǎng)絡(luò),CSPDRNet53 降低了算法的參數(shù)量和運(yùn)算復(fù)雜程度,提升道路車(chē)輛檢測(cè)識(shí)別效率,同時(shí)能一定程度上避免過(guò)擬合。

        2 結(jié)合跳躍連接的多尺度特征融合網(wǎng)絡(luò)

        2.1 跳躍連接結(jié)構(gòu)

        YOLOv4 模型在多尺度特征融合階段采用路徑聚合網(wǎng)絡(luò)(Path Aggregation Network,PANet)結(jié)構(gòu)[18],如圖6 所示。通過(guò)自上向下的特征融合,將高層的特征信息通過(guò)上采樣的方式傳遞融合,對(duì)整個(gè)特征金字塔強(qiáng)語(yǔ)義特征進(jìn)行增強(qiáng),得到進(jìn)行預(yù)測(cè)的特征圖;通過(guò)自下向上的特征融合,用下采樣的方式將低層的強(qiáng)定位特征傳遞上去。

        圖6 PANet結(jié)構(gòu)Fig.6 Structure of PANet

        PANet 結(jié)構(gòu)中1、8 節(jié)點(diǎn)只存在一個(gè)輸入邊,沒(méi)有不同特征信息的融合,因此刪除對(duì)特征融合網(wǎng)絡(luò)貢獻(xiàn)較小的1、8 節(jié)點(diǎn)。除此之外,為使網(wǎng)絡(luò)在不增加太多成本的情況下融合更多的特征信息,在輸入特征圖和輸出特征圖大小相同的兩個(gè)節(jié)點(diǎn)之間添加跳躍連接結(jié)構(gòu),通過(guò)強(qiáng)化網(wǎng)絡(luò)的特征信息融合,增強(qiáng)網(wǎng)絡(luò)的表征能力,如圖7 所示。

        圖7 引入跳躍連接結(jié)構(gòu)的特征融合網(wǎng)絡(luò)Fig.7 Feature fusion network introduced by skip connection structure

        2.2 多尺度特征檢測(cè)

        在特征檢測(cè)過(guò)程中,原模型通過(guò)8 倍、16 倍、32 倍下采樣的特征圖對(duì)目標(biāo)進(jìn)行檢測(cè)。8 倍下采樣特征圖的下采樣倍數(shù)低,特征感受野較小,適合檢測(cè)小尺度的物體;32 倍下采樣的特征圖具有較大的特征感受野,適合檢測(cè)大尺度物體。

        為提高算法對(duì)小目標(biāo)檢測(cè)精度,本文將特征檢測(cè)網(wǎng)絡(luò)的3 尺度檢測(cè)改進(jìn)為4 尺度檢測(cè),將CSPDRNet53 主干特征提取網(wǎng)絡(luò)中第3 個(gè)深度殘差結(jié)構(gòu)輸出的104×104 特征圖與3 次上采樣后的特征圖進(jìn)行并聯(lián)粘接處理得到第4 個(gè)特征檢測(cè)尺度,并形成新的特征金字塔網(wǎng)絡(luò)。4 尺度檢測(cè)提高了對(duì)小目標(biāo)車(chē)輛的檢測(cè)精度,同時(shí)降低車(chē)輛的漏檢率,改進(jìn)后算法結(jié)構(gòu)如圖8 所示。

        圖8 提出的DR-YOLOv4算法結(jié)構(gòu)Fig.8 Structure of proposed DR-YOLOv4 algorithm

        3 先驗(yàn)框尺寸

        YOLOv4 中先驗(yàn)框的尺寸是由COCO(Common Objects in COntext)數(shù)據(jù)集通過(guò)聚類(lèi)得到,但考慮到COCO 數(shù)據(jù)集中包含的目標(biāo)種類(lèi)有80 類(lèi),檢測(cè)目標(biāo)的長(zhǎng)寬比差別也較大,不適用于道路車(chē)輛檢測(cè)。在道路車(chē)輛檢測(cè)任務(wù)中目標(biāo)車(chē)輛的長(zhǎng)寬比是相對(duì)固定的值,不能直接使用模型原本的先驗(yàn)框尺寸,需對(duì)所用訓(xùn)練集中的標(biāo)注框進(jìn)行聚類(lèi)并重新分配。本文選用K-Means++聚類(lèi)[19]方法計(jì)算聚類(lèi),基本步驟如下:

        1)從數(shù)據(jù)集中隨機(jī)抽取一個(gè)點(diǎn)作為初始的聚類(lèi)中心。

        2)計(jì)算每個(gè)樣本與已有的聚類(lèi)中心之間最短距離D(x)。

        4)重復(fù)步驟2)~3)選出所有的聚類(lèi)中心。

        5)用傳統(tǒng)的K-Means 算法對(duì)選出的聚類(lèi)中心聚類(lèi)。

        DR-YOLOv4 算法通過(guò)4 個(gè)特征檢測(cè)尺度對(duì)車(chē)輛目標(biāo)進(jìn)行檢測(cè),為每個(gè)特征檢測(cè)尺度分配3 個(gè)先驗(yàn)框,每個(gè)特征檢測(cè)尺度中的每個(gè)單元格通過(guò)3 個(gè)先驗(yàn)框分別對(duì)3 個(gè)邊界框進(jìn)行預(yù)測(cè),因此需要12 個(gè)先驗(yàn)框。利用K-Means++聚類(lèi)算法對(duì)車(chē)輛數(shù)據(jù)集中標(biāo)注框的長(zhǎng)寬進(jìn)行聚類(lèi)。

        根據(jù)聚類(lèi)結(jié)果得出更新后的先驗(yàn)框大小分別為:(13,28)、(22,47)、(32,77)、(45,60)、(46,114)、(46,193)、(72,96)、(78,145)、(92,191)、(97,257)、(109,392)、(127,204)。相比YOLOv4 原本的先驗(yàn)框,根據(jù)車(chē)輛數(shù)據(jù)集聚類(lèi)得到的先驗(yàn)框尺寸更符合訓(xùn)練集中道路車(chē)輛的長(zhǎng)寬比,使用更新后的先驗(yàn)框?qū)?chē)輛數(shù)據(jù)集進(jìn)行訓(xùn)練能夠使得定位更加精確。

        4 實(shí)驗(yàn)與結(jié)果分析

        4.1 實(shí)驗(yàn)環(huán)境

        本實(shí)驗(yàn)的硬件環(huán)境為Windows10 64 位操作系統(tǒng),Intel Core i7-8700K CPU @ 4.30 GHz 處理器,16 GB 內(nèi)存,NVIDA GTX 1080Ti 顯卡,8 GB 顯存。軟件環(huán)境采用Darknet 深度學(xué)習(xí)框架[20],相較于其他深度學(xué)習(xí)框架,Darknet 具有安裝速度快,易于安裝的獨(dú)特優(yōu)勢(shì);整個(gè)框架完全由C 語(yǔ)言實(shí)現(xiàn),不存在任何的依賴項(xiàng);支持CPU 和GPU 計(jì)算,使用者可以根據(jù)硬件條件靈活切換;移植性非常好,Darknet 框架部署到機(jī)器本地非常簡(jiǎn)單。

        4.2 實(shí)驗(yàn)數(shù)據(jù)集

        選用KITTI 數(shù)據(jù)集[21]和BDD100K(Berkeley DeepDrive)數(shù)據(jù)集[22]中的圖像作為本實(shí)驗(yàn)車(chē)輛檢測(cè)模型的數(shù)據(jù)。KITTI數(shù)據(jù)集由德國(guó)卡爾斯魯厄理工學(xué)院和豐田美國(guó)技術(shù)研究院聯(lián)合創(chuàng)辦,包含市區(qū)、鄉(xiāng)村和高速公路等場(chǎng)景采集的真實(shí)圖像數(shù)據(jù);BDD100K 數(shù)據(jù)集由伯克利大學(xué)人工智能實(shí)驗(yàn)室發(fā)布,數(shù)據(jù)集涵蓋了6 種不同天氣、6 種不同場(chǎng)景以及白天、黃昏、夜晚三種時(shí)間階段的復(fù)雜圖片。數(shù)據(jù)集部分樣本如圖9所示。

        圖9 部分樣本示意圖Fig.9 Schematic diagram of partial samples

        首先從KITTI 數(shù)據(jù)集的2D 目標(biāo)檢測(cè)數(shù)據(jù)集中選取7 481張圖片作為基礎(chǔ)實(shí)驗(yàn)數(shù)據(jù)集,其中6 000 張圖片作為訓(xùn)練集,742 張圖片作為驗(yàn)證集,739 張圖片作為測(cè)試集。數(shù)據(jù)集共含 有Car、Van、Truck、Tram、Pedestrain、Person(sit-ting)、Cyclist、Misc 這8 個(gè)類(lèi)別,將數(shù)據(jù)集按照VOC(Visual Object Classes)數(shù)據(jù)集的格式進(jìn)行整理,并刪除實(shí)驗(yàn)不需要數(shù)據(jù)的標(biāo)簽類(lèi)別,僅保留實(shí)驗(yàn)所需的3 個(gè)類(lèi)別:Car、Van、Truck,共計(jì)32 750 個(gè)標(biāo)注信息。最后從BDD100K 數(shù)據(jù)集中挑選7 000張復(fù)雜環(huán)境圖片作為擴(kuò)展實(shí)驗(yàn)數(shù)據(jù)集,其中5 000 張圖片作為訓(xùn)練集,1 000 張圖片作為驗(yàn)證集,1 000 張圖片作為測(cè)試集,保留實(shí)驗(yàn)所需的3 個(gè)類(lèi)別:Car、Bus、Truck。

        4.3 實(shí)驗(yàn)結(jié)果分析

        4.3.1 特征提取網(wǎng)絡(luò)實(shí)驗(yàn)

        本文方法在特征提取網(wǎng)絡(luò)進(jìn)行三處改進(jìn),分別是密集連接模塊、跨層連接結(jié)構(gòu)及深度殘差結(jié)構(gòu)。為探究其對(duì)模型整體性能的影響,針對(duì)特征提取網(wǎng)絡(luò)改進(jìn)方案進(jìn)行對(duì)比實(shí)驗(yàn)。

        由表1 可知,融合密集連接網(wǎng)絡(luò)后,導(dǎo)致模型運(yùn)算量增加,檢測(cè)速度有所下降,但同時(shí)增強(qiáng)了模型對(duì)淺層特征的復(fù)用,提升了一定的檢測(cè)精度;在跨層連接結(jié)構(gòu)改進(jìn)后,由于損失了部分梯度信息復(fù)用,模型均值平均精度(mean Average Precision,mAP)降低了0.06 個(gè)百分點(diǎn),檢測(cè)速度有所提升;在對(duì)模型深度殘差結(jié)構(gòu)進(jìn)行簡(jiǎn)化后,模型精度降低了0.97個(gè)百分點(diǎn),檢測(cè)速度上升了10.2 frame/s;最后,同時(shí)采用上述三種特征提取網(wǎng)絡(luò)改進(jìn)方案后,模型精度較原模型有所下降,檢測(cè)速度達(dá)到了51.39 frame/s。

        表1 不同特征提取網(wǎng)絡(luò)對(duì)模型性能影響對(duì)比Tab.1 Influence comparison of different feature extraction networks on model performance

        4.3.2 特征融合網(wǎng)絡(luò)實(shí)驗(yàn)

        在模型的特征融合網(wǎng)絡(luò),本文采用跳躍連接結(jié)構(gòu)和多尺度特征檢測(cè)兩種方案對(duì)其進(jìn)行改進(jìn)。通過(guò)對(duì)兩種方案的對(duì)比實(shí)驗(yàn),驗(yàn)證其對(duì)模型性能的影響。

        由表2 的改進(jìn)方案對(duì)比實(shí)驗(yàn)可知,通過(guò)引入跳躍連接結(jié)構(gòu),強(qiáng)化了網(wǎng)絡(luò)特征信息之間的融合,在提升精度的情況下,損失了一定的檢測(cè)速度;在多尺度特征檢測(cè)改進(jìn)后,由于采用4 尺度進(jìn)行檢測(cè),使得模型整體結(jié)構(gòu)更為復(fù)雜,運(yùn)算量增加,檢測(cè)速度下降了5.85 frame/s,但采用4 尺度對(duì)車(chē)輛目標(biāo)進(jìn)行檢測(cè),有效降低了車(chē)輛漏檢率,并提升了整體檢測(cè)性能,檢測(cè)精度提升了0.57 個(gè)百分點(diǎn);在同時(shí)采用兩種改進(jìn)方案后,模型損失了一定的檢測(cè)速度,但檢測(cè)精度達(dá)到了98.09%。

        表2 不同特征融合網(wǎng)絡(luò)對(duì)模型性能影響對(duì)比Tab.2 Influence comparison of different feature fusion networks on model performance

        4.3.3 先驗(yàn)框分配策略實(shí)驗(yàn)

        原模型為每個(gè)特征檢測(cè)尺度分配3 個(gè)先驗(yàn)框,以此適用于不同大小的檢測(cè)目標(biāo)。采用模型默認(rèn)的先驗(yàn)框分配策略不一定適用于道路車(chē)輛數(shù)據(jù)集,因此需要對(duì)模型的先驗(yàn)框重新進(jìn)行分配。本文在特征檢測(cè)部分使用4 個(gè)特征檢測(cè)尺度,其中13×13 特征圖具有最大的感受野,適合檢測(cè)大目標(biāo)物體,分配最大的幾個(gè)先驗(yàn)框;104×104 特征圖分配最小的先驗(yàn)框;26×26 和52×52 特征圖分配中等大小的先驗(yàn)框。為了驗(yàn)證先驗(yàn)框分配策略對(duì)模型性能的影響,針對(duì)不同特征檢測(cè)尺度分配不同數(shù)量的先驗(yàn)框,探究最佳的分配方案。由于采用4 個(gè)特征檢測(cè)尺度,因此將先驗(yàn)框總數(shù)控制為12。

        由表3 的分配策略對(duì)比實(shí)驗(yàn)可知,不同先驗(yàn)框分配策略會(huì)對(duì)模型的性能有一定的影響,當(dāng)為13×13 特征圖分配4 個(gè)先驗(yàn)框時(shí),模型的檢測(cè)精度和檢測(cè)速度均有所下降,這是因?yàn)橛?xùn)練集中大目標(biāo)物體相對(duì)中小目標(biāo)物體要更少,分配更多的先驗(yàn)框反而導(dǎo)致其他檢測(cè)尺度訓(xùn)練難度增加;當(dāng)13×13 特征圖少分配1 個(gè)先驗(yàn)框,52×52 特征圖多分配1 個(gè)先驗(yàn)框時(shí),模型的檢測(cè)精度與速度都達(dá)到最優(yōu),可見(jiàn)訓(xùn)練集中,中等偏小目標(biāo)占比最大,大目標(biāo)占比最小,合理地分配降低了模型的訓(xùn)練難度。根據(jù)實(shí)驗(yàn)結(jié)果,將聚類(lèi)得到的12 個(gè)不同大小的先驗(yàn)框,分別按照2、3、4、3 的先驗(yàn)框分配策略,分配給4個(gè)特征檢測(cè)尺度。先驗(yàn)框按照分配策略重新分配后結(jié)果為:將尺寸為(97,257)、(109,392)的先驗(yàn)框分配給13×13 特征圖;(46,193)、(92,191)、(127,204)先驗(yàn)框分給26×26 特征圖;(45,60)、(46,114)、(72,96)、(78,145)先驗(yàn)框分給52×52 特征圖;(13,28)、(22,47)、(32,77)先驗(yàn)框分給104×104特征圖。

        表3 不同先驗(yàn)框分配策略對(duì)模型性能影響對(duì)比Tab.3 Influence comparison of different anchor allocation strategies on model performance

        4.3.4 模型結(jié)構(gòu)改進(jìn)實(shí)驗(yàn)

        為探究主干特征提取網(wǎng)絡(luò)改進(jìn)、特征融合網(wǎng)絡(luò)改進(jìn)以及先驗(yàn)框尺寸聚類(lèi)與分配三種綜合改進(jìn)方案對(duì)模型整體性能的影響,構(gòu)建8 組不同的實(shí)驗(yàn)方案對(duì)網(wǎng)絡(luò)的檢測(cè)精度和速度進(jìn)行對(duì)比分析,實(shí)驗(yàn)結(jié)果如表4 所示。

        表4 不同實(shí)驗(yàn)方案對(duì)模型性能影響分析Tab.4 Analysis of influence of different experimental schemes on model performance

        由實(shí)驗(yàn)B 可知,在對(duì)特征提取網(wǎng)絡(luò)進(jìn)行簡(jiǎn)化后,模型mAP 下降了0.48 個(gè)百分點(diǎn),檢測(cè)速度較原始模型有所上升;實(shí)驗(yàn)C 對(duì)特征融合網(wǎng)絡(luò)改進(jìn)后,模型獲得了98.09% 的mAP,Car 作為數(shù)據(jù)集中包含小目標(biāo)最多的類(lèi)別,檢測(cè)精度比Van 和Truck 提升明顯,檢測(cè)速度則隨著模型結(jié)構(gòu)復(fù)雜化有一定降低;實(shí)驗(yàn)D 對(duì)模型的先驗(yàn)框進(jìn)行維度聚類(lèi)并重新分配后,模型檢測(cè)精度提升了0.55 個(gè)百分點(diǎn),檢測(cè)速度也略有提升,不難看出先驗(yàn)框聚類(lèi)及再分配可提升模型的檢測(cè)性能;通過(guò)實(shí)驗(yàn)H 可知,同時(shí)使用三種改進(jìn)方案時(shí),在檢測(cè)速度上比傳統(tǒng)YOLOv4 高出2.33 frame/s,獲得了48.05 frame/s 的檢測(cè)速度,同時(shí)mAP 達(dá)到了98.21%,較原始模型提升了0.8個(gè)百分點(diǎn),模型結(jié)構(gòu)改進(jìn)后在檢測(cè)精度和速度上均有所提升。

        通過(guò)以上改進(jìn)實(shí)驗(yàn)可知,DR-YOLOv4 算法將先驗(yàn)框根據(jù)特征檢測(cè)尺度由小到大按照2、3、4、3 個(gè)的策略進(jìn)行分配;設(shè)計(jì)簡(jiǎn)化的跨階段局部模塊結(jié)構(gòu)和6 組密集連接的深度殘差結(jié)構(gòu),其中殘差組件數(shù)量分別為1、2、3、3、3、2 個(gè);在特征融合階段引入跳躍連接結(jié)構(gòu)并采用4 尺度檢測(cè)。圖10 所示為模型訓(xùn)練過(guò)程中的平均損失收斂曲線,當(dāng)模型迭代次數(shù)達(dá)到14 000 時(shí),學(xué)習(xí)率由初始的10-3下降到10-4;當(dāng)模型迭代次數(shù)達(dá)到16 000 左右時(shí),損失值在0.9 左右上下浮動(dòng),此時(shí)的學(xué)習(xí)率降低為10-5,并且在16 000 至18 000 次迭代過(guò)程中損失值無(wú)明顯下降,平均損失收斂曲線趨近平穩(wěn)。

        圖10 本文算法平均損失收斂曲線Fig.10 Average loss convergence curve of proposed algorithm

        表5 中顯示了改進(jìn)后模型與不同目標(biāo)檢測(cè)模型在KITTI數(shù)據(jù)集上的測(cè)試結(jié)果。DR-YOLOv4 算法在檢測(cè)速度方面略遜色于SSD300,但仍以48.05 frame/s 的速度達(dá)到了實(shí)時(shí)檢測(cè)的效果,并在檢測(cè)精度方面以98.21%的mAP 優(yōu)于其他的目標(biāo)檢測(cè)算法。

        表5 不同目標(biāo)檢測(cè)模型在KITTI數(shù)據(jù)集上效果對(duì)比Tab.5 Comparison of effects of different target detection models on KITTI dataset

        為進(jìn)一步驗(yàn)證模型在復(fù)雜惡劣的環(huán)境中對(duì)車(chē)輛目標(biāo)的檢測(cè)效果,本文選取包含各種困難樣本的BDD100K 數(shù)據(jù)集對(duì)模型進(jìn)行訓(xùn)練和測(cè)試,由表6 的測(cè)試結(jié)果可以看出,改進(jìn)后的模型在BDD100K 數(shù)據(jù)集上的檢測(cè)精度與檢測(cè)速度方面均優(yōu)于原始模型。

        表6 模型改進(jìn)前后在BDD100K數(shù)據(jù)集上測(cè)試結(jié)果Tab.6 Test results on BDD100K dataset before and after model improvement

        由圖11 可以看出,本文算法在KITTI 數(shù)據(jù)集上的檢測(cè)效果良好,在有遮擋及強(qiáng)光照的環(huán)境仍然具有很好的檢測(cè)能力,可以精準(zhǔn)地對(duì)車(chē)輛進(jìn)行分類(lèi)。在BDD100K 數(shù)據(jù)集的夜間環(huán)境中,存在遮擋、小目標(biāo)及反光等因素干擾時(shí),本文算法也能獲得較好的檢測(cè)效果,對(duì)道路車(chē)輛的檢測(cè)具有良好的魯棒性。

        圖11 部分檢測(cè)結(jié)果示意圖Fig.11 Partial schematic diagram of test results

        5 結(jié)語(yǔ)

        本文提出了一種基于密集連接網(wǎng)絡(luò)的道路車(chē)輛檢測(cè)算法DR-YOLOv4,采用改進(jìn)的密集連接的殘差結(jié)構(gòu)和跨階段局部模塊結(jié)構(gòu)及6 組深度殘差塊的主干網(wǎng)絡(luò);特征融合階段通過(guò)采用多尺度特征檢測(cè)和跳躍連接方式加強(qiáng)特征信息的融合;并對(duì)重新生成的先驗(yàn)框進(jìn)行分配策略實(shí)驗(yàn)。實(shí)驗(yàn)結(jié)果表明,DR-YOLOv4 模型在KITTI 數(shù)據(jù)集上取得了98.21%的均值平均精度與48.05 frame/s 的檢測(cè)速度,具有較好的檢測(cè)精度和實(shí)時(shí)性,對(duì)小目標(biāo)車(chē)輛的檢測(cè)效果良好。最后為了驗(yàn)證模型在復(fù)雜環(huán)境中對(duì)車(chē)輛目標(biāo)的檢測(cè)性能,在BDD100K數(shù)據(jù)集上進(jìn)行訓(xùn)練和測(cè)試,結(jié)果表明,改進(jìn)后的模型對(duì)復(fù)雜環(huán)境下的車(chē)輛目標(biāo)也具有良好的檢測(cè)效果。

        猜你喜歡
        先驗(yàn)特征提取殘差
        基于雙向GRU與殘差擬合的車(chē)輛跟馳建模
        基于殘差學(xué)習(xí)的自適應(yīng)無(wú)人機(jī)目標(biāo)跟蹤算法
        基于無(wú)噪圖像塊先驗(yàn)的MRI低秩分解去噪算法研究
        基于遞歸殘差網(wǎng)絡(luò)的圖像超分辨率重建
        基于Daubechies(dbN)的飛行器音頻特征提取
        電子制作(2018年19期)2018-11-14 02:37:08
        基于自適應(yīng)塊組割先驗(yàn)的噪聲圖像超分辨率重建
        Bagging RCSP腦電特征提取算法
        基于平滑先驗(yàn)法的被動(dòng)聲信號(hào)趨勢(shì)項(xiàng)消除
        先驗(yàn)的廢話與功能的進(jìn)路
        平穩(wěn)自相關(guān)過(guò)程的殘差累積和控制圖
        河南科技(2015年8期)2015-03-11 16:23:52
        99久久免费国产精品| 国产偷拍自拍在线观看| 国产亚洲精品一区在线| 无码人妻久久一区二区三区蜜桃| 伊人狠狠色丁香婷婷综合| 亚洲AV无码久久久一区二不卡| 国产女主播视频一区二区三区| 亚洲国产精品国自产拍久久蜜av| 日韩欧美成人免费观看| 99精品视频免费热播| 亚洲女同一区二区久久| 亚洲一区二区三区高清在线观看| 免费a级毛片无码免费视频120软件| 免费特级黄毛片| 欧美国产伦久久久久久久| 日韩精品中文字幕一区二区| 中文字幕日韩精品一区二区三区| 免费的成年私人影院网站| 国产伪娘人妖在线观看| 日韩人妻中文字幕专区| 色噜噜狠狠狠综合曰曰曰| 亚洲国产美女精品久久| 亚洲国产成人av第一二三区| 日本最新一区二区三区视频观看| 男女裸交无遮挡啪啪激情试看| 国产主播在线 | 中文| 羞涩色进入亚洲一区二区av| 老熟女富婆激情刺激对白| 日韩插啊免费视频在线观看| 精品国产一区二区三区香蕉| 青青草在线免费观看在线| 久久亚洲av午夜福利精品一区| 人人妻人人玩人人澡人人爽| 亚洲AV无码一区二区水蜜桃| 国产传媒精品成人自拍| 国产精品 人妻互换| 男人j进女人p免费视频| 一区二区三区四区国产亚洲| 国产播放隔着超薄丝袜进入| 国产一起色一起爱| av网站可以直接看的|