亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        改進(jìn)YOLOv4的遙感圖像目標(biāo)檢測(cè)算法

        2024-02-22 07:44:42況永剛毛一新彭偉明郝琳琳
        關(guān)鍵詞:集上卷積特征

        閔 鋒,況永剛+,毛一新,彭偉明,郝琳琳

        (1.武漢工程大學(xué) 計(jì)算機(jī)科學(xué)與工程學(xué)院,湖北 武漢 430205;2.武漢工程大學(xué) 智能機(jī)器人湖北省重點(diǎn)實(shí)驗(yàn)室,湖北 武漢 430205)

        0 引 言

        傳統(tǒng)的遙感圖像檢測(cè)方法主要有方向梯度直方圖法[1]、尺度不變特征變換方法[2]等。傳統(tǒng)檢測(cè)方法依賴于人工手段,難以保證復(fù)雜遙感圖像檢測(cè)的高精度和高效率。

        隨著深度學(xué)習(xí)的不斷發(fā)展,目標(biāo)檢測(cè)領(lǐng)域誕生了很多經(jīng)典的檢測(cè)算法,越來(lái)越多的學(xué)者將其應(yīng)用到遙感圖像檢測(cè)中。其中較為主流的目標(biāo)檢測(cè)算法分為基于候選區(qū)域的雙階段目標(biāo)檢測(cè)算法和基于回歸的單階段目標(biāo)檢測(cè)算法。常用的雙階段目標(biāo)檢測(cè)算法有R-CNN系列[3,4]、VFNet[5]等,其通過(guò)區(qū)域建議方法生成可能包含目標(biāo)的候選框,然后對(duì)候選框進(jìn)行校正和分類,其精度較高,但實(shí)時(shí)性過(guò)低。單階段檢測(cè)算法以SSD[6]、YOLOv5、YOLOX[7]、RetinaNet[8]為代表,直接在網(wǎng)絡(luò)中進(jìn)行分類和回歸,其檢測(cè)速度更快,適用于實(shí)時(shí)性檢測(cè)。

        由于遙感圖像背景復(fù)雜、尺度不一且排列密集,采用通用目標(biāo)檢測(cè)器對(duì)其進(jìn)行檢測(cè)難以取得滿意的效果,因此研究一種新型的遙感圖像目標(biāo)檢測(cè)算法是一項(xiàng)有挑戰(zhàn)性的任務(wù)。Feng等[9]對(duì)YOLOv3[10]提出改進(jìn),通過(guò)優(yōu)化錨框大小和置信度損失函數(shù),遙感圖像小目標(biāo)檢測(cè)得到了有效提升。Xue等[11]引入雙向加權(quán)特征融合BiFPN并賦予特征圖可學(xué)習(xí)的權(quán)重系數(shù),有效提高了小目標(biāo)的檢測(cè)性能。Gu等[12]通過(guò)構(gòu)建密集上下文感知模塊以及引入Transfor-mer[13],實(shí)現(xiàn)了目標(biāo)與場(chǎng)景內(nèi)容的關(guān)系建模,但由于遙感圖像背景復(fù)雜,檢測(cè)仍易受相似物干擾。針對(duì)這一問(wèn)題,Li等[14]基于CenterNet算法[15]設(shè)計(jì)改進(jìn)權(quán)重分配策略,并添加語(yǔ)義分割模塊,抑制高響應(yīng)的背景噪聲,使網(wǎng)絡(luò)更好地適應(yīng)復(fù)雜背景下的密集目標(biāo)檢測(cè)。然而,在模型中加入語(yǔ)義分割模塊,會(huì)增加過(guò)多的參數(shù)量,降低推理速度。

        為更好地應(yīng)對(duì)復(fù)雜遙感圖像的實(shí)時(shí)檢測(cè),本文選擇在檢測(cè)精度和速度上達(dá)到較好平衡的YOLOv4作為基礎(chǔ)架構(gòu),針對(duì)遙感數(shù)據(jù)集的特點(diǎn)在YOLOv4的基礎(chǔ)上進(jìn)行了一些改進(jìn),實(shí)驗(yàn)結(jié)果表明,在保證實(shí)時(shí)性的同時(shí),檢測(cè)精度得到了較大提升。

        1 YOLOv4算法介紹

        YOLOv4算法基于原有YOLO目標(biāo)檢測(cè)框架,分別在數(shù)據(jù)預(yù)處理、主干網(wǎng)絡(luò)、激活函數(shù)、損失函數(shù)等多個(gè)方面進(jìn)行了優(yōu)化,最終在檢測(cè)精度和檢測(cè)速度上達(dá)到了更好的平衡。網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

        圖1 YOLOv4網(wǎng)絡(luò)結(jié)構(gòu)

        YOLOv4主要由輸入端、主干網(wǎng)絡(luò)、融合層以及預(yù)測(cè)層4部分組成。輸入端采取mosaic數(shù)據(jù)增強(qiáng)和自對(duì)抗訓(xùn)練的方法(self-adversarial training,SAT)對(duì)圖像進(jìn)行預(yù)處理。在DarkNet53網(wǎng)絡(luò)的基礎(chǔ)上,融合跨級(jí)密集連接的思想,設(shè)計(jì)出計(jì)算量少、檢測(cè)精度更高的CSPDarkNet53作為主干網(wǎng)絡(luò)。頸部網(wǎng)絡(luò)引入SPP模塊,選用不同大小的池化核進(jìn)行池化,實(shí)現(xiàn)不同感受野的特征融合;設(shè)計(jì)FPN+PAN的結(jié)構(gòu),以bottom-up的特征傳遞方式,反復(fù)提取特征,實(shí)現(xiàn)不同尺度的特征交互。Head部分采用了與YOLOv3類似的預(yù)測(cè)方式。

        2 改進(jìn)YOLOv4目標(biāo)檢測(cè)算法

        由于遙感圖像數(shù)據(jù)集具有背景復(fù)雜、目標(biāo)排列密集且尺度不一等眾多特點(diǎn),本文針對(duì)這些特點(diǎn),基于YOLOv4算法作出了改進(jìn),網(wǎng)絡(luò)整體結(jié)構(gòu)如圖2所示。首先對(duì)CSPDarkNet53網(wǎng)絡(luò)改進(jìn),在不失主干網(wǎng)絡(luò)的擴(kuò)展性下,加強(qiáng)特征層之間的信息傳遞和有效特征利用率。其次,借鑒CSPNet[16]的跨階段分層結(jié)構(gòu)思想,設(shè)計(jì)改進(jìn)的路徑聚合網(wǎng)絡(luò)R-PANet,有效增強(qiáng)特征的融合效果。最后在預(yù)測(cè)頭串聯(lián)卷積塊注意力模塊CBAM[17](convolutional block attention module),提高檢測(cè)精度。下面將對(duì)網(wǎng)絡(luò)結(jié)構(gòu)的設(shè)計(jì)進(jìn)行詳細(xì)闡述。

        圖2 改進(jìn)YOLOv4網(wǎng)絡(luò)結(jié)構(gòu)

        2.1 R-CSPDarknet53主干特征提取網(wǎng)絡(luò)

        YOLOv4算法的主干網(wǎng)絡(luò)CSPDarknet53包含較多的CSP模塊,其卷積層數(shù)較多,在檢測(cè)較小目標(biāo)時(shí),信息丟失較為嚴(yán)重。

        針對(duì)這個(gè)問(wèn)題,基于CSPDarknet53網(wǎng)絡(luò)進(jìn)行了改進(jìn),即R-CSPDarknet53。在主干網(wǎng)絡(luò)中的原CSP模塊(圖3(a))的基礎(chǔ)上提出了一種新的跨階段部分模塊R-CSP(圖3(b)),主要是將CSP模塊中的簡(jiǎn)單殘差結(jié)構(gòu)ResBlock(圖3(c))替換為高效的跨階段殘差結(jié)構(gòu)R-ResBlock。R-ResBlock結(jié)構(gòu)如圖3(d)所示,首先將輸入的特征圖分割成兩部分,使特征信息在不同的網(wǎng)絡(luò)路徑中傳播,然后通過(guò)跨階段層次結(jié)構(gòu)將特征整合,其次考慮到不同R-CSP模塊之間的特征交互對(duì)后續(xù)特征提取和融合有著較大影響,因此在進(jìn)行對(duì)應(yīng)次數(shù)的跨階段殘差卷積后,使用CBAM進(jìn)行有效特征強(qiáng)化,增強(qiáng)了不同R-CSP模塊間的特征傳遞,提取具有豐富語(yǔ)義信息的特征。

        圖3 原CSP模塊與改進(jìn)CSP模塊以及簡(jiǎn)單殘差結(jié)構(gòu)與跨階段殘差結(jié)構(gòu)

        最后為了平衡檢測(cè)精度和檢測(cè)速度,便于模型的部署,將特征提取網(wǎng)絡(luò)中的R-CSP模塊的每層殘差卷積次數(shù)由(1,2,8,8,4)改為(1,3,6,6,3),降低了網(wǎng)絡(luò)結(jié)構(gòu)的復(fù)雜度,減少了參數(shù)量,保證了網(wǎng)絡(luò)的實(shí)時(shí)性。

        2.2 改進(jìn)的PANet結(jié)構(gòu)R-PANet

        YOLOv4采用PANet結(jié)構(gòu)作為特征融合網(wǎng)絡(luò)。然而原PANet結(jié)構(gòu)存在多次連續(xù)卷積操作,容易造成淺層特征丟失,甚至網(wǎng)絡(luò)退化、梯度消失,因此對(duì)密集分布的較小目標(biāo)檢測(cè)效果不佳。

        針對(duì)上述問(wèn)題,本文對(duì)PANet結(jié)構(gòu)作出改進(jìn),即R-PANet,使用跨階段分層卷積替換連續(xù)卷積操作(圖4(a)),重構(gòu)特征融合階段對(duì)深淺層特征圖的處理方式。該模塊如圖4(b)所示,首先將主干網(wǎng)絡(luò)和SPP結(jié)構(gòu)輸出的有效特征層進(jìn)行一個(gè)1×1的普通卷積,得到通道數(shù)減半的特征圖,類似于特征信息整合,然后將經(jīng)3×3卷積的輸出與其進(jìn)行堆疊,最后將各級(jí)特征層進(jìn)行像素相加,構(gòu)建具有豐富語(yǔ)義信息的殘差塊。同時(shí)串聯(lián)CBAM,注重有效特征的提取。采用Mish激活函數(shù)替換原激活函數(shù)Leaky ReLU,增強(qiáng)非線性特征的提取能力。實(shí)驗(yàn)結(jié)果表明,R-PANet較原結(jié)構(gòu)而言,提高了算法的檢測(cè)性能。

        圖4 連續(xù)卷積和跨階段分層卷積

        2.3 引入CBAM注意力機(jī)制

        在主干網(wǎng)絡(luò)R-CSPDarknet53的特征提取過(guò)程中,不同R-CSP模塊之間的特征交互對(duì)后續(xù)特征提取和融合的影響占比較大。本文通過(guò)引入卷積塊注意模塊CBAM對(duì)各個(gè)R-CSP模塊的堆疊結(jié)果進(jìn)行特征強(qiáng)化,加強(qiáng)模塊之間的特征交互。以及在預(yù)測(cè)頭串聯(lián)注意力模塊,以加強(qiáng)特征融合效果。

        CBAM是一種簡(jiǎn)單而有效的前饋卷積神經(jīng)網(wǎng)絡(luò)注意模塊。如圖5所示,通過(guò)利用輸入的中間特征圖,CBAM模塊分別沿著通道和空間兩個(gè)獨(dú)立維度,順序地計(jì)算注意力圖,然后將得到的注意力圖與輸入特征圖相乘,使得特征圖能夠更聚焦于目標(biāo)的關(guān)鍵特征,從而進(jìn)行特征細(xì)化和更有效的特征表示。CBAM定義請(qǐng)參見(jiàn)文獻(xiàn)[17]。

        圖5 CBAM卷積塊注意力模塊

        通道注意力模塊(channel attention module)如圖6所示。

        圖6 通道注意力模塊

        它對(duì)輸入進(jìn)來(lái)的單個(gè)特征圖F,F(xiàn)∈RC×H×W, 分別進(jìn)行平均池化和最大池化。之后對(duì)其輸出結(jié)果利用共享全連接層(Shared MLP)進(jìn)行處理。接著對(duì)處理結(jié)果按元素逐個(gè)相加,并采用Sigmoid函數(shù)進(jìn)行激活,由此可得輸入特征圖每一個(gè)通道的權(quán)值Wp(F), 計(jì)算見(jiàn)式(1),σ表示Sigmoid函數(shù)。最后將此權(quán)值Wp(F) 乘上原輸入特征圖F,計(jì)算得到融合通道注意力后的特征圖F′,如式(2)所示

        (1)

        F′=Wp(F)?F

        (2)

        空間注意力模塊(spatial attention module)如圖7所示。

        圖7 空間注意力模塊

        首先,輸入經(jīng)通道注意力模塊處理的特征圖F′,同樣地進(jìn)行平均池化和最大池化操作,之后將池化后的兩個(gè)特征圖堆疊在一起,并經(jīng)過(guò)Sigmoid激活操作,由此可得輸入特征圖每一個(gè)特征點(diǎn)的權(quán)值Ws(F′), 計(jì)算見(jiàn)式(3),σ表示Sigmoid函數(shù),f7×7表示卷積核大小為7×7的卷積操作。最后將此權(quán)值Ws(F′) 乘上輸入特征圖F′,計(jì)算得到融合通道和空間注意力的特征圖F″,如式(4)所示

        Ws(F′)=σ(f7×7([AvgPool(F′);MaxPool(F′)]))

        (3)

        F″=Ws(F′)?F′

        (4)

        2.4 損失函數(shù)設(shè)計(jì)

        本文改進(jìn)算法的損失函數(shù)由定位損失函數(shù)、分類損失函數(shù)以及置信度損失函數(shù)3部分組成,如式(5)所示

        lossyolo=lossloc+losscla+lossconf

        (5)

        本文使用CIoU損失函數(shù)作為定位損失函數(shù)。CIoU loss在DIoU loss的基礎(chǔ)上做出更詳細(xì)的度量,具體包括重疊面積、中心點(diǎn)距離和長(zhǎng)寬比。如式(6)所示

        (6)

        其中,IoU(intersection over union),即交并比,是用來(lái)衡量預(yù)測(cè)邊界框和實(shí)際邊界框的相似程度,其計(jì)算如式(7)所示

        (7)

        ared表示邊界框的面積,d表示預(yù)測(cè)邊界框,g表示實(shí)際邊界框,ρ為預(yù)測(cè)邊界框和真實(shí)邊界框兩個(gè)中心點(diǎn)間的歐式距離,c為閉包的對(duì)角線距離。所以最終的定位損失函數(shù)計(jì)算式如式(8)所示

        (8)

        分類損失函數(shù)采用BCE Loss(binary cross entropy loss),對(duì)每一個(gè)類別計(jì)算交叉熵?fù)p失,最后進(jìn)行求和。計(jì)算如式(9)所示

        (9)

        lossconf=lossconf+obj+lossconf+noobj=

        (10)

        3 實(shí)驗(yàn)結(jié)果和分析

        3.1 數(shù)據(jù)集

        表1 不同類別目標(biāo)數(shù)量統(tǒng)計(jì)

        3.2 模型訓(xùn)練及分析

        本實(shí)驗(yàn)使用的操作系統(tǒng)是Ubuntu 18.04,GPU型號(hào)為RTX-2080S,CPU型號(hào)為i9-9900k,內(nèi)存32 GB,顯存8 GB,開(kāi)發(fā)環(huán)境為Pytorch1.2,CUDA10.0。實(shí)驗(yàn)參數(shù)見(jiàn)表2。

        表2 實(shí)驗(yàn)參數(shù)設(shè)置

        以DIOR數(shù)據(jù)集為例,圖8反映了改進(jìn)網(wǎng)絡(luò)在訓(xùn)練時(shí)的損失變化曲線,橫坐標(biāo)表示訓(xùn)練次數(shù)(Epoch),縱坐標(biāo)表示損失值(Loss)。根據(jù)圖中曲線的變化趨勢(shì),可以明顯看出,改進(jìn)YOLOv4算法的損失值在訓(xùn)練初期時(shí)迅速下降,隨著Epoch的增加,在30個(gè)Epoch后曲線下降速度逐漸緩慢,并在130個(gè)Epoch后趨于穩(wěn)定,Loss值穩(wěn)定變化在0.041到0.103之間,最終收斂于0.044左右,達(dá)到了網(wǎng)絡(luò)訓(xùn)練的預(yù)期學(xué)習(xí)效果。

        圖8 改進(jìn)YOLOv4網(wǎng)絡(luò)的損失變化曲線

        圖9為改進(jìn)YOLOv4網(wǎng)絡(luò)在訓(xùn)練時(shí)的精度收斂曲線,圖中橫坐標(biāo)為訓(xùn)練次數(shù)(Epoch),縱坐標(biāo)為平均精度均值(mAP)。從圖9中可以看出,網(wǎng)絡(luò)訓(xùn)練前100個(gè)Epoch時(shí),mAP增長(zhǎng)速度較快,之后逐漸緩慢,并在230個(gè)Epoch后趨于穩(wěn)定。

        圖9 改進(jìn)YOLOv4網(wǎng)絡(luò)的精度收斂曲線

        3.3 評(píng)價(jià)指標(biāo)

        為了評(píng)估改進(jìn)YOLOv4算法的性能并驗(yàn)證其有效性,實(shí)驗(yàn)選取了以下指標(biāo)。

        (1)精確率(Precision,P)、召回率(Recall,R)。精確率表示模型預(yù)測(cè)為正樣本中真正樣本的占比;而召回率表示模型正確預(yù)測(cè)到的正樣本占所有正樣本的比重。其計(jì)算公式分別如式(11)所示

        (11)

        其中,TP表示真正例;FP表示假正例;FN表示假反例。

        (2)平均準(zhǔn)確率(average precision,AP)和其均值(mean average precision,mAP)。AP表示為每個(gè)類別下的精確率-召回率曲線(precision-recall curve,P-R curve)下的面積。P-R曲線顯示在精確率和召回率之間的平衡,用來(lái)衡量檢測(cè)網(wǎng)絡(luò)對(duì)單個(gè)類別的性能。而mAP是所有檢測(cè)類別的AP的平均值。其計(jì)算公式分別如式(12)所示

        (12)

        其中,N表示檢測(cè)類別的總數(shù)目。

        (3)幀率(frames per second,F(xiàn)PS)。幀率是用來(lái)衡量目標(biāo)檢測(cè)網(wǎng)絡(luò)推理速度的指標(biāo),其表示每秒能夠檢測(cè)的圖片數(shù)量。

        (4)F1分?jǐn)?shù)(F1 score,F(xiàn)1)。F1分?jǐn)?shù)是模型泛化能力的性能度量,其為范圍在0~1之間的分?jǐn)?shù)。值越大表明模型泛化能力越強(qiáng)。計(jì)算公式見(jiàn)式(13)

        (13)

        3.4 實(shí)驗(yàn)結(jié)果和分析

        為了驗(yàn)證改進(jìn)YOLOv4算法對(duì)遙感圖像目標(biāo)檢測(cè)的有效性,實(shí)驗(yàn)分別在RSOD、DIOR測(cè)試集進(jìn)行性能驗(yàn)證。

        在RSOD數(shù)據(jù)集上測(cè)試,統(tǒng)計(jì)了F1分?jǐn)?shù)、平均準(zhǔn)確率均值mAP、幀率等指標(biāo)來(lái)進(jìn)行評(píng)估。實(shí)驗(yàn)對(duì)比了YOLOv3、EfficientDet、文獻(xiàn)[9,18]的所提算法以及YOLOv4的檢測(cè)精度,見(jiàn)表3。

        表3 不同方法在RSOD數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果

        可以明顯看出,改進(jìn)的YOLOv4算法的mAP比YOLOv4高出約4.5%,和文獻(xiàn)[9]、文獻(xiàn)[18]所提算法比提高約3%,F(xiàn)1分?jǐn)?shù)也提升不少。雖然改進(jìn)算法的幀率略低于原YOLOv4算法,但仍然滿足實(shí)時(shí)性檢測(cè)的要求。相較于表3中的其它算法,改進(jìn)YOLOv4算法在遙感圖像目標(biāo)檢測(cè)方面具有較大的優(yōu)勢(shì)。

        圖10為YOLOv4和本文算法在RSOD數(shù)據(jù)集上實(shí)驗(yàn)測(cè)試后,統(tǒng)計(jì)出的各個(gè)類別的AP值,上圖是YOLOv4算法的實(shí)驗(yàn)結(jié)果,下圖是本文算法的實(shí)驗(yàn)結(jié)果。橫軸為平均準(zhǔn)確率(Average Precision),縱軸從下往上分別是飛機(jī)、立交橋、油罐、操場(chǎng)??梢钥闯觯瑹o(wú)論是飛機(jī)、油罐等小目標(biāo),還是立交橋、操場(chǎng)等大目標(biāo),本文算法均可以取得比較好的檢測(cè)效果。

        圖10 YOLOv4和本文算法在RSOD數(shù)據(jù)集上各個(gè)類別的AP值

        在DIOR數(shù)據(jù)集上測(cè)試,統(tǒng)計(jì)了mAP、幀率兩個(gè)技術(shù)指標(biāo)進(jìn)行評(píng)估。為了深入評(píng)估本文算法的有效性,將改進(jìn)YOLOv4算法與目標(biāo)檢測(cè)領(lǐng)域中常用的主流算法進(jìn)行比較,實(shí)驗(yàn)結(jié)果見(jiàn)表4。

        表4 不同方法在DIOR數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果

        從上表中可以看出,本文算法在DIOR測(cè)試集上的mAP值為92.72%,較YOLOv4提高約7.34%,與表中其它檢測(cè)算法比較也明顯高出多個(gè)百分點(diǎn)不等。此外,本文算法的檢測(cè)速率約每秒48幀,滿足一定的實(shí)時(shí)性。YOLOv4-tiny模型的FPS很高,但是其mAP較本文算法低出約14個(gè)百分點(diǎn),檢測(cè)能力不強(qiáng)。實(shí)驗(yàn)結(jié)果表明,本文算法在具有良好的檢測(cè)速率的同時(shí),檢測(cè)精度做到了較大的提升。圖11為本文算法在DIOR數(shù)據(jù)集上實(shí)驗(yàn)測(cè)試后,統(tǒng)計(jì)出的20個(gè)類別的AP值。橫軸為平均準(zhǔn)確率(Average Precision),縱軸從下往上分別是車輛、港口、立交橋、籃球場(chǎng)、火車站、地面軌道場(chǎng)、體育場(chǎng)、船舶、存儲(chǔ)罐、橋梁、高爾夫球場(chǎng)、高速公路收費(fèi)站、煙囪、高速公路服務(wù)區(qū)、飛機(jī)、大壩、風(fēng)車、網(wǎng)球場(chǎng)、棒球場(chǎng)、飛機(jī)場(chǎng)。

        圖11 本文算法在DIOR數(shù)據(jù)集上各類別的AP值

        為了進(jìn)一步對(duì)比YOLOv4算法和改進(jìn)算法,從DIOR測(cè)試集中選取6個(gè)類別進(jìn)行對(duì)比,見(jiàn)表5。

        表5 在DIOR數(shù)據(jù)集上選取的類別目標(biāo)AP對(duì)比

        從整體上看,改進(jìn)算法對(duì)排列密集的船舶和汽車、復(fù)雜環(huán)境下的立交橋以及尺寸較小的存儲(chǔ)罐的檢測(cè)精度相對(duì)較高,檢測(cè)效果有了明顯提高。此外實(shí)驗(yàn)還選取了一些常見(jiàn)類別目標(biāo),進(jìn)行了具體檢測(cè)效果示例的展示,包括復(fù)雜背景下的風(fēng)車(windmill)、車輛(vehicle)檢測(cè)以及目標(biāo)較小且排列密集的船舶(ship)檢測(cè),如圖12所示。左列為YOLOv4算法的實(shí)驗(yàn)結(jié)果,右列是本文算法的實(shí)驗(yàn)結(jié)果。

        圖12 不同背景下的遙感目標(biāo)檢測(cè)結(jié)果可視化

        其中圖12(a)代表尺寸較小且易受背景干擾的風(fēng)車檢測(cè)對(duì)比結(jié)果,可以明顯看出改進(jìn)算法具有更高的檢測(cè)精度,并且相對(duì)較低的漏檢率;圖12(b)展示了對(duì)排列密集且目標(biāo)尺寸較小的船舶進(jìn)行檢測(cè)的可視化結(jié)果,從右邊的圖中可以看出,改進(jìn)算法的平均置信度得分約為0.9,而YOLOv4的平均置信度得分在0.8左右,且漏檢較多;圖12(c)代表弱光背景下目標(biāo)較小的車輛檢測(cè)結(jié)果,明顯看出改進(jìn)算法的檢測(cè)精度有了較大提升。

        為了深入分析本文對(duì)YOLOv4作出的改進(jìn)對(duì)模型性能的影響,在DIOR數(shù)據(jù)集上進(jìn)行了5組消融實(shí)驗(yàn)。在網(wǎng)絡(luò)訓(xùn)練階段逐個(gè)添加改進(jìn)方法來(lái)獲得性能更好的網(wǎng)絡(luò)模型。實(shí)驗(yàn)結(jié)果見(jiàn)表6,其中“√”表示使用了對(duì)應(yīng)的方法。從表中可以看出,改進(jìn)1實(shí)驗(yàn)采用改進(jìn)的特征提取網(wǎng)絡(luò),mAP從85.38%提高至89.02%,表明該改進(jìn)方法可以提高遙感圖像的目標(biāo)檢測(cè)效果。改進(jìn)2實(shí)驗(yàn)在改進(jìn)1的基礎(chǔ)上,引入跨階段分層結(jié)構(gòu)來(lái)替換PANet網(wǎng)絡(luò)中的連續(xù)卷積結(jié)構(gòu),mAP提升了約2%,表現(xiàn)出該結(jié)構(gòu)的有效性。改進(jìn)3在前兩個(gè)方法的基礎(chǔ)上替換激活函數(shù)進(jìn)一步改進(jìn)PANet網(wǎng)絡(luò),其檢測(cè)精度略有提升,表明激活函數(shù)的選擇對(duì)目標(biāo)檢測(cè)效果有著不小的影響。

        表6 在DIOR數(shù)據(jù)集進(jìn)行的消融實(shí)驗(yàn)

        4 結(jié)束語(yǔ)

        本文針對(duì)遙感圖像背景復(fù)雜、目標(biāo)尺度不一且排列密集等特點(diǎn),基于YOLOv4算法作出了改進(jìn)。首先設(shè)計(jì)跨階段殘差結(jié)構(gòu)實(shí)現(xiàn)主干網(wǎng)絡(luò)中的特征傳遞,減少了特征信息冗余;使用跨階段分層卷積結(jié)構(gòu)替換PANet中的連續(xù)卷積操作,重構(gòu)特征融合階段對(duì)深層特征圖的處理方式;最后分別在改進(jìn)CSP模塊和預(yù)測(cè)頭部分引入卷積塊注意力模塊,加強(qiáng)有效特征傳遞,提高特征融合效果。實(shí)驗(yàn)結(jié)果表明,改進(jìn)的YOLOv4算法在RSOD和DIOR兩個(gè)遙感數(shù)據(jù)集上均取得了較高的檢測(cè)精度。

        雖然所提算法在多個(gè)遙感數(shù)據(jù)集上均表現(xiàn)出較好的檢測(cè)效果,但在實(shí)時(shí)性上有待提高。由于遙感圖像場(chǎng)景復(fù)雜,在某些場(chǎng)景下檢測(cè)容易受到相似物體的干擾。后續(xù)工作將繼續(xù)針對(duì)遙感圖像的場(chǎng)景特性以及檢測(cè)實(shí)時(shí)性等方面考慮設(shè)計(jì)網(wǎng)絡(luò)結(jié)構(gòu),從而構(gòu)建魯棒性、泛化性更強(qiáng)的遙感圖像目標(biāo)檢測(cè)算法。

        猜你喜歡
        集上卷積特征
        基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
        Cookie-Cutter集上的Gibbs測(cè)度
        鏈完備偏序集上廣義向量均衡問(wèn)題解映射的保序性
        如何表達(dá)“特征”
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        不忠誠(chéng)的四個(gè)特征
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        復(fù)扇形指標(biāo)集上的分布混沌
        抓住特征巧觀察
        一種基于卷積神經(jīng)網(wǎng)絡(luò)的性別識(shí)別方法
        在线你懂| 免费中文熟妇在线影片| 国产乱子伦精品免费无码专区 | 国产一区二区三区韩国| 亚洲高清精品一区二区| 成人免费自拍视频在线观看| 国产无遮挡又黄又爽在线观看| 国产一区二区精品在线观看| 成人精品国产亚洲av久久| 亚洲视频免费一区二区| 狠狠色婷婷久久一区二区三区| 欧美人成人亚洲专区中文字幕| 自拍视频国产在线观看| 日本视频一中文有码中文| 久久99精品久久水蜜桃| 精品国产亚洲AⅤ麻豆| 日韩最新av一区二区| 国产亚洲精品久久情侣| 亚洲av无码精品蜜桃| 99热这里只有精品69| 丰满人妻一区二区三区精品高清| 色狠狠一区二区三区中文| 东京热加勒比无码少妇| 欧美精品一区二区精品久久| 国产女主播一区二区三区在线观看 | 久久婷婷免费综合色啪| 亚洲国产av一区二区四季 | 久久久久成人精品免费播放| 少妇被啪出水在线视频| 日本高清视频wwww色| 精品午夜福利1000在线观看| 亚洲av午夜福利精品一区二区| 水蜜桃精品视频在线观看| 久久无码av中文出轨人妻| 亚洲午夜福利精品久久| 麻豆国产精品久久天堂| 国产精品久久久久9999无码| 国产A√无码专区| 一道本中文字幕在线播放| 日韩大片高清播放器大全| 色偷偷一区二区无码视频|