亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        面向遙感圖像小目標(biāo)檢測的改進(jìn)YOLOv3算法

        2021-10-28 05:52:48王建軍梅少輝
        計算機(jī)工程與應(yīng)用 2021年20期
        關(guān)鍵詞:特征檢測模型

        王建軍,魏 江,梅少輝,王 健,2

        1.西北工業(yè)大學(xué) 電子信息學(xué)院,西安 710129

        2.西北工業(yè)大學(xué) 第365研究所,西安 710129

        目標(biāo)檢測是一種為檢測特定對象(汽車、建筑物和人類等)而提出的計算機(jī)視覺技術(shù),廣泛應(yīng)用于機(jī)器人導(dǎo)航、智能監(jiān)控、工業(yè)檢測、航空航天等諸多領(lǐng)域。近年來,隨著深度學(xué)習(xí)理論的成熟,基于深度學(xué)習(xí)的目標(biāo)檢測算法得到了快速發(fā)展,目前大多數(shù)目標(biāo)檢測算法都采用卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)作為特征提取器,例如AlexNet[1]?;贑NN的目標(biāo)檢測算法通常可以分為兩大類:一類是單階段目標(biāo)檢測算法,這類算法不需要生成候選區(qū)域,直接在網(wǎng)絡(luò)中提取特征來預(yù)測目標(biāo)的類別和位置,再經(jīng)過檢測器得到檢測結(jié)果,典型的代表算法有YOLO[2-5]、SSD[6]、Retina-Net[7]等;另一類是雙階段目標(biāo)檢測算法,這類算法首先產(chǎn)生候選區(qū)域,然后對候選區(qū)域進(jìn)行分類,代表算法有R-CNN[8]、Fast R-CNN[9]、Faster R-CNN[10]、Mask R-CNN[11]等。

        遙感圖像通常由航空航天平臺獲取,其中感興趣的目標(biāo)相對背景而言比較小,這些小目標(biāo)的檢測是富有挑戰(zhàn)的研究方向。大部分目標(biāo)檢測算法雖然在通用目標(biāo)檢測中有較高的精度和泛化性能,但是在遙感圖像小目標(biāo)檢測中精度仍然較低。小目標(biāo)的定義方式有兩種,一種是相對尺寸的定義,若目標(biāo)尺寸是原圖像尺寸的十分之一,即可認(rèn)為是小目標(biāo);另外一種是絕對尺寸的定義,即尺寸小于32×32像素的目標(biāo)即可認(rèn)為是小目標(biāo)。Lin等人[12]提出的FPN(Feature Pyramid Networks)首先將小尺度特征圖上采樣,然后與大尺度特征圖進(jìn)行融合,最后再進(jìn)行預(yù)測,使小目標(biāo)檢測的精度提升顯著;Li等人[13]提出的感知生成對抗網(wǎng)絡(luò)(Perceptual Generative Adversarial Network,Perceptual GAN)算法通過降低小目標(biāo)和大目標(biāo)之間的表示差距來提升小目標(biāo)檢測的精度;Kisantal等人[14]將包含小目標(biāo)的樣本進(jìn)行過采樣,使小目標(biāo)的檢測精度有較大提升;Liu等人[15]提出了RFB(Receptive Field Block)結(jié)構(gòu),通過引入空洞卷積[16],增大感受野,進(jìn)而提高小目標(biāo)的檢測精度。

        YOLOv3[4]借鑒了FPN的思想,通過特征融合,既保證了大目標(biāo)的檢測精度,又提高了小目標(biāo)的檢測精度。本文基于YOLOv3提出了一種改進(jìn)的目標(biāo)檢測算法——YOLOv3-CS,首先根據(jù)不同尺度特征在網(wǎng)絡(luò)中的重要程度來修改backbone結(jié)構(gòu),然后引入RFB結(jié)構(gòu)增大淺層特征圖的感受野,最后對anchor boxes重新分配。在數(shù)據(jù)集RSOD上的驗證結(jié)果表明本文提出的算法在遙感圖像小目標(biāo)檢測方面有較高的優(yōu)勢。

        1 YOLOv3目標(biāo)檢測模型

        圖1為YOLOv3結(jié)構(gòu)圖,YOLOv3比YOLOv2[3]在精度方面有大幅度提升的一個主要原因是采用Darknet-53作為backbone。backbone包含1個輸入層,5個下采樣層和23個殘差結(jié)構(gòu)(Residual block),全部由卷積層構(gòu)成,使用1×1和3×3兩種尺度的卷積核。YOLOv3中每一個卷積層之后都含有一個BN層,對卷積層的輸出進(jìn)行歸一化,再輸入到激活層,激活函數(shù)采用Leaky ReLU,即構(gòu)成backbone的最小組件DBL(Conv+BN+Leaky ReLU)。Darknet-53是基于ResNet[17]的思想提出的,在卷積層之間設(shè)置了快捷鏈路層(shortcut),防止由于網(wǎng)絡(luò)過深導(dǎo)致的性能“退化”,相比于ResNet-101和ResNet-152,Top-1精度與ResNet-101相當(dāng),Top-5精度與ResNet-152相當(dāng),但速度比ResNet-152提高了2倍以上。

        圖1 YOLOv3結(jié)構(gòu)圖Fig.1 Structure of YOLOv3

        YOLOv3對輸入圖片進(jìn)行“端到端”預(yù)測。一幅輸入圖像(縮放到416×416)經(jīng)過YOLOv3的backbone后輸出三個不同尺度的特征(13×13、26×26和52×52),分別針對大、中、小三類目標(biāo)進(jìn)行預(yù)測,每個尺度對應(yīng)一個三維張量,如圖2所示。以13×13特征圖為例,輸入圖像被劃分為13×13的Grid Cell,則輸出張量的維度為13×13×(k×(4+1+class)),每個Grid Cell對應(yīng)一個三維張量中的一個子張量1×1×(k×(4+1+class)),其中k(默認(rèn)為3)表示Bounding boxes數(shù)量,由anchor boxes對應(yīng)得來,4表示每個Bounding box對應(yīng)四個坐標(biāo)預(yù)測,1表示每個Bounding box有一個置信度預(yù)測,class表示類別預(yù)測。如果一幅圖像的目標(biāo)對應(yīng)Bounding Box的中心恰好落在了某個Grid Cell(圖2紅色Grid Cell)中,那么這個Grid Cell就負(fù)責(zé)預(yù)測該目標(biāo)的Bounding Box,并將它的置信度設(shè)為1,其余Grid Cell的置信度則為0。

        圖2 YOLOv3檢測流程Fig.2 Detection flow chart of YOLOv3

        YOLOv3設(shè)定每個Grid Cell會預(yù)測3個Bounding Boxes。Grid Cell會選擇與Bounding Box的IoU最高的anchor box進(jìn)行微調(diào)作為網(wǎng)絡(luò)的輸出預(yù)測框。每個Bounding Box有5個預(yù)測參數(shù)(t x、t y、t w、t h、confidence)和class個類別概率。YOLOv3輸出的Bounding Box坐標(biāo)實際為偏移量,需要對其進(jìn)行修正,圖3為坐標(biāo)偏移示意圖。圖中t x、t y表示預(yù)測框的左上角坐標(biāo),t w、t h表示預(yù)測框的寬度和高度,如果預(yù)測框中心點所處Grid Cell的左上角坐標(biāo)為c x、c y,且anchor box的寬和高分別為pw和p h,則修正后的邊框為:

        圖3 坐標(biāo)偏移示意圖Fig.3 Diagram of coordinate offset

        b x和b y表示預(yù)測框的中心坐標(biāo),b w和b h表示預(yù)測框的寬和高,δ代表sigmoid函數(shù),目的是將預(yù)測偏移量縮放到0和1之間。

        2 改進(jìn)的YOLOv3模型

        YOLOv3雖然通過特征融合輸出三個尺度的特征圖,兼顧了小目標(biāo)預(yù)測,但是對于以小目標(biāo)檢測為主的遙感目標(biāo)檢測任務(wù),YOLOv3的檢測精度仍然有待提升。本文首先根據(jù)對backbone中不同尺度特征重要性的分析,對backbone進(jìn)行重構(gòu),其次引入RFB結(jié)構(gòu)來增大淺層特征的感受野,最后優(yōu)化了anchor boxes并改進(jìn)其分配原則。

        2.1 特征重要性分析

        對于特定的數(shù)據(jù)集,backbone中五種尺度特征的重要性通常不同,本文在分析每種尺度特征重要性的基礎(chǔ)上,對網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行重構(gòu)。

        文獻(xiàn)[18]證明了網(wǎng)絡(luò)中某層的所有濾波器中,位于或靠近幾何中位數(shù)(Geometric Median,GM)的濾波器對網(wǎng)絡(luò)的貢獻(xiàn)較小,可以用其他濾波器來代替。假設(shè)網(wǎng)絡(luò)有L層,N i和N i+1分別表示第i層卷積層的輸入通道和輸出通道數(shù),F(xiàn)i,j∈?N i×K×K表示第i層卷積層的第j個濾波器,K為卷積核尺寸,則第i層濾波器的幾何中位數(shù)定義為:

        那么第i層接近幾何中位數(shù)的濾波器可以表示為:

        幾何中位數(shù)是歐氏空間數(shù)據(jù)中心的一個估計量,如果某個濾波器接近幾何中位數(shù)xGM,可以認(rèn)為這個濾波器和其他濾波器共享信息,該濾波器可以被其他濾波器替代,因此去掉該濾波器不會對網(wǎng)絡(luò)的輸出產(chǎn)生影響。在訓(xùn)練過程中,直接將接近幾何中位數(shù)的濾波器置零,即稀疏訓(xùn)練。濾波器置零后對應(yīng)的輸出特征圖為無效特征圖,對網(wǎng)絡(luò)的輸出不再起作用。

        本文首先在遙感數(shù)據(jù)集上對YOLOv3進(jìn)行流程如圖4所示的稀疏訓(xùn)練,再統(tǒng)計不同尺度特征圖中無效特征圖的比例,最后調(diào)整不同尺度特征的深度來改善網(wǎng)絡(luò)性能,調(diào)整原則為:如果一種尺度的特征圖中無效特征圖的比例較高,則降低該尺度特征對應(yīng)卷積層的深度,反之則增加該尺度特征對應(yīng)卷積層的深度。

        圖4 稀疏訓(xùn)練流程Fig.4 Sparse training flowchart

        2.2 RFB模塊

        在YOLOv3的三個檢測頭中,檢測頭2和檢測頭3分別融合了26×26和52×52的特征,進(jìn)行中等尺寸和較小尺寸目標(biāo)的預(yù)測。雖然淺層特征的細(xì)節(jié)信息比較豐富,對檢測遙感圖像小目標(biāo)有很大的幫助,但是特征圖的感受野較小,缺少上下文信息。本文為了增大特征圖的感受野,在YOLOv3中引入了RFB。

        RFB利用擁有不同尺寸卷積核的卷積層構(gòu)成多分支結(jié)構(gòu),再引入空洞卷積增加感受野,提高了小目標(biāo)檢測精度。與Inception[19]結(jié)構(gòu)類似,RFB的每個分支上使用不同尺度的常規(guī)卷積和空洞卷積的組合。不同尺度的常規(guī)卷積用來模擬群體感受野(population RF,pRF)中的不同感受野,空洞卷積所得到的離心率來模擬pRF的尺度與離心率的比例,最后將三個通道連接以減少特征的通道數(shù)。RFB度量了感受野的尺度、離心率間的關(guān)系,可以生成更有判別性、更具魯棒性的特征。

        圖5為RFB的一種結(jié)構(gòu),首先通過1×1、3×3和5×5卷積核構(gòu)成三分支結(jié)構(gòu),并在每一個分支中分別引入dilation rate=1、dilation rate=2和dilation rate=3的空洞卷積增大感受野,最后將三個分支的輸出連接在一起,達(dá)到融合不同特征的目的。

        圖5 RFB結(jié)構(gòu)圖Fig.5 Structure diagram of RFB

        2.3 優(yōu)化anchor

        YOLOv3使用K-means算法對COCO數(shù)據(jù)集的標(biāo)注框聚類得到9個anchor boxes,每個檢測層分配3個anchor boxes。不同的數(shù)據(jù)集有不同的anchor boxes分布,anchor boxes的選擇會直接影響網(wǎng)絡(luò)的預(yù)測精度,在YOLOv3中9個anchor boxes平均分配在三個檢測頭上,但是不同尺寸的特征對不同的anchor box有不同的敏感程度,因此需要對不同尺寸的特征匹配對應(yīng)的anchor boxes。文獻(xiàn)[20]對數(shù)據(jù)集進(jìn)行聚類,但是沒有考慮anchor boxes分配問題,本文首先計算三種尺度特征圖對應(yīng)的anchor box尺寸范圍[21],然后對數(shù)據(jù)集重新聚類,進(jìn)行不同尺度特征上anchor boxes的分配。

        圖6為anchor box、Grid Cell和預(yù)測框的位置關(guān)系圖,金色框表示anchor box,黑色框表示目標(biāo)的標(biāo)注框,紅色框為Grid Cell。為了方便計算,假設(shè)anchor box和標(biāo)注框均為正方形并且anchor box比標(biāo)注框大,anchor box邊長為a,標(biāo)注框邊長為g,Grid Cell邊長為2s,s為下采樣倍數(shù)。

        圖6 anchor box、Grid Cell和預(yù)測框位置關(guān)系圖Fig.6 Structure diagram of anchor box,Grid Cell and prediction box location

        下面分兩種情況討論:

        (1)當(dāng)標(biāo)注框在anchor box內(nèi)部時,IoU可以定義為:

        當(dāng)IoU≥0.5時,可得:

        (2)當(dāng)anchor box的中心在特征圖Grid Cell的左上角,真實框的中心在Grid Cell的右下角,并且anchor box和標(biāo)注框邊長的二分之一大于Grid Cell的邊長時,即,IoU定義為:

        令a=g,可得:

        當(dāng)IoU≥0.5時,可以得到s和a的關(guān)系:

        根據(jù)式(1),可以知道anchor boxes的尺寸和下采樣倍數(shù)的關(guān)系如表1所示。實際的標(biāo)注框不一定是正方形,因此通過K-means算法聚類得到的anchor boxes也不一定是正方形,這里通過面積做近似。假設(shè)一個anchor box的寬為w,高為h,則面積為w×h,即可用來近似a。

        表1 下采樣數(shù)與anchor boxes尺寸之間的關(guān)系Table 1 Relationship between down sampling number and anchor boxes size

        3 實驗

        3.1 實驗數(shù)據(jù)

        本文實驗在遙感圖像數(shù)據(jù)集RSOD上測試。RSOD數(shù)據(jù)集由武漢大學(xué)于2015年發(fā)布,用于遙感圖像目標(biāo)檢測。數(shù)據(jù)集包含從谷歌Earth和Tianditu下載的976張圖像,圖像的空間分辨率在0.3 m到3 m之間,其中包含飛機(jī)(aircraft)、油桶(oiltank)、立交橋(overpass)和操場(playground)四類目標(biāo)。圖7為樣例圖片。

        圖7 RSOD數(shù)據(jù)集樣例Fig.7 Sample image of RSOD dataset

        遙感圖像中大多是小目標(biāo),這就導(dǎo)致目標(biāo)信息量小,難以檢測。由于YOLOv3的輸入為416×416,因此本文首先將圖片縮放到416×416,然后對目標(biāo)的大小做了統(tǒng)計。圖8為四類目標(biāo)的標(biāo)注框占原圖像尺寸的比例分布圖,可以看出,aircraft和oiltank類別中基本為小目標(biāo),并且分布集中。overpass類別中包含少量的小目標(biāo),playground類別中目標(biāo)分布較為分散,總之?dāng)?shù)據(jù)集中大部分目標(biāo)為小目標(biāo)(目標(biāo)的尺寸是原圖的十分之一)。

        圖8 RSOD數(shù)據(jù)集標(biāo)注框占原圖像尺寸的比例分布Fig.8 Proportion of labeled box to original image size in RSOD dataset

        3.2 目標(biāo)檢測算法評價指標(biāo)

        目標(biāo)檢測的效果由預(yù)測框的分類精度和定位精度共同決定,因此目標(biāo)檢測問題既是分類問題,又是回歸問題。目標(biāo)檢測算法的綜合評價指標(biāo)通常有平均精確率和F1分?jǐn)?shù)。

        (1)平均精確率(Average Precision,AP)

        AP被定義為PR曲線下的面積,用來衡量數(shù)據(jù)集中一類的平均分類精確率,計算公式如下:

        6.預(yù)防措施:正確使用安全套,采取安全的性行為;不吸毒,不共用針具;推行無償獻(xiàn)血,對獻(xiàn)血人群進(jìn)行HIV篩查;加強(qiáng)醫(yī)院管理,嚴(yán)格執(zhí)行消毒制度,控制醫(yī)院交叉感染;預(yù)防職業(yè)暴露與感染;控制母嬰傳播;對HIV/AIDS患者的配偶和性伴、與HIV/AIDS患者共用注射器的靜脈藥物依賴者,以及HIV/AIDS患者所生的子女,進(jìn)行醫(yī)學(xué)檢查和HIV檢測,為其提供相應(yīng)的咨詢服務(wù)。

        但是對于多分類問題,需要對N個類別的AP求均值,即平均精確率均值(mean Average Precision,mAP),用來衡量分類器對所有類別的分類精度,也是目標(biāo)檢測算法最重要的指標(biāo),計算公式如下:

        (2)F1分?jǐn)?shù)(F1 Score,F(xiàn)1)

        僅使用P和R兩個指標(biāo)不能很好地評價模型的綜合性能,因此通過F1分?jǐn)?shù)來評價模型的綜合性能,計算公式如下:

        3.3 實驗結(jié)果與分析

        本文實驗在Ubuntu16.04操作系統(tǒng)下進(jìn)行,模型搭建采用PyTorch深度學(xué)習(xí)框架,CPU為i7-6850K,內(nèi)存為64 GB,GPU為NVIDIA GTX1080。在模型的訓(xùn)練過程中batch_size設(shè)置為16;優(yōu)化器為SGD(Stochastic Gradient Descent),動量參數(shù)momentum設(shè)置為0.93;epochs設(shè)置為273;初始學(xué)習(xí)率設(shè)置為0.005。

        首先設(shè)計了三組實驗分別對三個改進(jìn)點進(jìn)行訓(xùn)練和測試,最后結(jié)合三個改進(jìn)點,設(shè)計了綜合實驗并進(jìn)行訓(xùn)練和測試:

        實驗1對改進(jìn)backbone的YOLOv3在遙感圖像數(shù)據(jù)集RSOD上進(jìn)行訓(xùn)練和測試。根據(jù)式對網(wǎng)絡(luò)進(jìn)行稀疏訓(xùn)練,設(shè)定稀疏率(無效特征圖占總特征圖的比例)為40%,然后統(tǒng)計每種尺度特征中無效特征的比例。圖9為backbone在稀疏訓(xùn)練后不同尺度無效特征圖的占比,可以看出,13×13的特征圖中有70%以上為無效特征圖,26×26的特征圖中有約56%的無效特征圖,52×52特征圖的無效特征約為13%,104×104的無效特征約為2%,這說明YOLOv3在進(jìn)行小目標(biāo)檢測時,具有豐富位置信息的淺層特征比具有豐富語義信息的深層特征更重要,因此小目標(biāo)檢測需要更多的淺層特征。在文獻(xiàn)[22]中,通過進(jìn)一步融合104×104的特征,提升小目標(biāo)檢測精度,文獻(xiàn)[23]中更是對6個不同尺寸的特征進(jìn)行融合。但是融合104×104特征會增加一個檢測頭,同時會增加32 448個輸出預(yù)測框,不僅增大了模型尺寸,還降低了推理速度。

        圖9 不同尺度特征中無效特征的占比Fig.9 Proportion of invalid features in different scale features

        為了符合YOLOv3的結(jié)構(gòu)特點,以2的倍數(shù)增減殘差層數(shù)量。表2中分析了增減不同尺度特征圖對應(yīng)殘差塊數(shù)量時,mAP和F1的變化情況,可以看出,當(dāng)增加104×104特征圖對應(yīng)的殘差層后,模型的mAP提升比較明顯,降低13×13特征圖對應(yīng)的殘差層后,mAP損失較小,而且模型大小降低較為明顯。綜合考慮模型的mAP、F1以及模型大小,本文在backbone的基礎(chǔ)上增加了2個104×104特征對應(yīng)的殘差層,減少了2個13×13特征對應(yīng)的殘差層。

        表2 增加不同尺度特征圖對應(yīng)殘差塊時精度的變化Table 2 Change of accuracy when adding residual blocks corresponding to different scale feature maps

        表3比較了改進(jìn)backbone的YOLOv3算法、文獻(xiàn)[22]算法和YOLOv3,可以看出,相比YOLOv3-[22],改進(jìn)backbone的YOLOv3算法mAP提高1.06%,模型大小降低16.97%。

        表3 改進(jìn)backbone的YOLOv3、YOLOv3-[22]和YOLOv3比較Table 3 Comparison of YOLOv3,YOLOv3-[22]and YOLOv3 of improved backbone

        圖10 改進(jìn)backbone的YOLOv3在數(shù)據(jù)集上的各類精度Fig.10 Accuracy of improved backbone’s YOLOv3 in dataset

        實驗2對引入RFB的YOLOv3進(jìn)行訓(xùn)練和測試。RFB結(jié)構(gòu)的作用是增大特征圖的感受野,一般來說淺層特征感受野較小,深層特征的感受野較大。YOLOv3通過上采樣的方式將深層特征與淺層特征進(jìn)行融合。本文首先將淺層特征輸入RFB,然后再與深層特征進(jìn)行融合,表4分析了RFB對不同尺度特征圖的作用,可以發(fā)現(xiàn),與YOLOv3相比,當(dāng)RFB插入在檢測頭1之前時,mAP并沒有提高,而F1有了3.15%的提高,而在檢測頭2和檢測頭3之前同時插入RFB時,mAP提高了3.07%,F(xiàn)1提高了4.97%。因此RFB可以增大淺層特征圖的感受野,從而提高目標(biāo)的檢測精度。

        表4 不同位置插入RFB的精度比較Table 4 Accuracy comparison of RFB insertion in different positions

        圖11為檢測頭2和檢測頭3之前同時引入RFB時,數(shù)據(jù)集中各類的AP比較圖,可以發(fā)現(xiàn),小目標(biāo)居多的aircraft類的AP提高約為6.42%,目標(biāo)相對較大的playground類的AP提高約為1.15%。說明YOLOv3中引入RFB結(jié)構(gòu)主要通過提高小目標(biāo)的檢測精度來提高整個模型的檢測精度。

        圖11 引入RFB的YOLOv3在數(shù)據(jù)集上的各類精度Fig.11 Accuracy of YOLOv3 with RFB in dataset

        實驗3對優(yōu)化anchor boxes的YOLOv3進(jìn)行訓(xùn)練和測試。RSOD數(shù)據(jù)集小目標(biāo)居多,本文對RSOD數(shù)據(jù)集使用K-means聚類算法進(jìn)行聚類,得到新的anchor boxes,根據(jù)表1中不同下采樣倍數(shù)與anchor boxes之間的關(guān)系重新分配三個檢測頭中的anchor boxes,分配結(jié)果與每個分類層的濾波器個數(shù)如表5所示。

        表5 各尺度上的anchor box分配Table 5 Anchor box assignment on different scales

        圖12比較了優(yōu)化anchor boxes的YOLOv3和原始YOLOv3的精度,可以看出,優(yōu)化anchor boxes的YOLOv3在遙感圖像數(shù)據(jù)集RSOD上,mAP提升約2%,F(xiàn)1提升約4.48%。

        圖12 優(yōu)化anchor boxes的YOLOv3與YOLOv3精度比較Fig.12 Comparison of accuracy between optimized anchor boxes’s YOLOv3 and YOLOv3

        綜合實驗前三組實驗證明,本文對YOLOv3的三個改進(jìn)點對目標(biāo)檢測的精度都有所提升,尤其是遙感小目標(biāo)的檢測精度。因此,綜合三個改進(jìn)點,本文提出了改進(jìn)的YOLOv3目標(biāo)檢測算法——YOLOv3-CS,結(jié)構(gòu)如圖13所示。

        圖13 YOLOv3-CS結(jié)構(gòu)圖Fig.13 Structure of YOLOv3-CS

        CNN在本質(zhì)上是一種輸入到輸出的映射,它能夠?qū)W習(xí)大量的輸入與輸出之間的映射關(guān)系,而不需要任何輸入和輸出之間的精確的數(shù)學(xué)表達(dá)式,只要用已知的模式對卷積網(wǎng)絡(luò)加以訓(xùn)練,網(wǎng)絡(luò)就具有輸入輸出對之間的映射能力。YOLOv3-CS的訓(xùn)練過程中網(wǎng)絡(luò)的總損失、mAP和F1的變化曲線如圖14所示。橫軸表示迭代次數(shù)(epoch),可以看出,隨著訓(xùn)練過程的進(jìn)行,網(wǎng)絡(luò)的損失穩(wěn)定下降,mAP和F1的變化也比較平穩(wěn),因此網(wǎng)絡(luò)的收斂過程非常穩(wěn)定。

        圖14 YOLOv3-CS的損失、mAP、F1變化曲線Fig.14 Loss,mAP and F1 of YOLOv3-CS

        表6中比較了YOLOv3-CS、YOLOv3、YOLOv3-SPP和YOLOv4[5]的精度、模型尺寸和推理時間,可以看出,YOLOv3-CS的mAP比YOLOv3提高約6.49%,比YOLOv3-SPP高5.49%,比YOLOv4高3.08%;F1比YOLOv3高4.85%,比YOLOv3-SPP高3.35%,比YOLOv4高1.53%;模型大小比YOLOv3減小了12.58%??梢姡琘OLOv3-CS目標(biāo)檢測模型在檢測精度和模型尺寸上都具有較大優(yōu)勢。

        表6 YOLOv3-CS、YOLOv3、YOLOv3-SPP和YOLOv4算法比較Table 6 Comparison of YOLOv3-CS,YOLOv3,YOLOv3-SPP and YOLOv4 algorithms

        4 結(jié)束語

        本文對YOLOv3的backbone和anchor boxes分配原則進(jìn)行了改進(jìn),再引入RFB模塊增大感受野。在數(shù)據(jù)集RSOD上做了訓(xùn)練和測試,結(jié)果表明本文提出的YOLOv3-CS在mAP和F1兩種指標(biāo)上都優(yōu)于YOLOv3和YOLOv4,尤其是對小目標(biāo)的檢測,mAP提高較為明顯,并且模型尺寸比YOLOv3更小。本文模型的推理時間比YOLOv3增加了9.4%,在一些算力較低且實時性要求較高的場合,仍然無法滿足要求,如何在保持模型精度的情況下縮短模型推理時間是未來的主要研究目標(biāo)。

        猜你喜歡
        特征檢測模型
        一半模型
        “不等式”檢測題
        “一元一次不等式”檢測題
        “一元一次不等式組”檢測題
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
        如何表達(dá)“特征”
        不忠誠的四個特征
        抓住特征巧觀察
        3D打印中的模型分割與打包
        超碰性爱| 熟妇丰满多毛的大隂户| 色老汉免费网站免费视频| 真实国产网爆门事件在线观看| 中文无字幕一本码专区| 妺妺窝人体色777777| 亚洲国产精品日韩av专区| 毛片无遮挡高清免费久久| 中文字幕视频一区二区| 国产乱码人妻一区二区三区| 亚洲精品字幕| 97在线视频免费| 亚洲综合小综合中文字幕| 人人妻人人澡人人爽人人精品av | 国产精品福利久久香蕉中文| 美女丝袜诱惑在线播放蜜桃| 日本一道综合久久aⅴ免费| 内射精品无码中文字幕| 亚洲欧美国产精品久久久| 亚洲精品亚洲人成在线播放| 无码av在线a∨天堂毛片| 男女啪啪免费视频网址| 日本强伦姧人妻一区二区| 国产亚洲av综合人人澡精品| 亚洲乱码少妇中文字幕| 国产女人乱码一区二区三区| 欧美激情一区二区三区| 亚洲AV成人无码久久精品老人| 亚洲国产av一区二区三| 亚洲精品中文字幕乱码影院| 国产综合久久久久| 一本大道在线一久道一区二区| 国产在线视频网友自拍| 久久久久久九九99精品| 五月天婷婷综合网| 福利视频自拍偷拍视频| 精品国产三级a∨在线欧美| 久久婷婷国产剧情内射白浆| 久久精品熟女亚洲av艳妇| 国产不卡在线视频观看| a级毛片100部免费看|