亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        結(jié)合多通道注意力的遙感圖像飛機(jī)目標(biāo)檢測

        2022-01-22 07:46:48朱鑫潮王恩果
        計算機(jī)工程與應(yīng)用 2022年1期
        關(guān)鍵詞:特征檢測

        李 婕,周 順,朱鑫潮,李 毅,王恩果

        湖北工業(yè)大學(xué)電氣與電子工程學(xué)院,武漢 430068

        遙感圖像是由衛(wèi)星拍攝,包含空間分辨率、時間分辨率、光譜分辨率等。遙感圖像中的目標(biāo)檢測在民用和軍事上有著重要的意義和應(yīng)用價值,尤其是遙感圖像中的飛機(jī)目標(biāo)檢測,可以為民航更高效的管理以及軍事作戰(zhàn)提供更多有價值的信息。不同于傳統(tǒng)飛機(jī)圖像,遙感圖像飛機(jī)目標(biāo)檢測面臨著多尺度、背景復(fù)雜以及圖像占用內(nèi)存大等難點(diǎn)。

        對遙感飛機(jī)目標(biāo)的檢測最早采用基于模板匹配的方法,Liu等人[1]構(gòu)建了一種結(jié)合圖像外觀和目標(biāo)形狀先驗信息的全局最小化活動輪廓模型,用來提取遙感圖像中形狀規(guī)則的空間對象,相對于其他無形狀約束的方法具有更好的魯棒性,但基于模板匹配的方法對于復(fù)雜背景下的目標(biāo)檢測效果不佳。傳統(tǒng)的機(jī)器學(xué)習(xí)方法需要人工設(shè)定目標(biāo)特征,Wang 等人[2]提出一種改進(jìn)的主成分分析特征提取方法,并基于有向無環(huán)圖支持向量機(jī)(directed acyclic graph support vector machine,DAGSVM)識別遙感圖像飛機(jī)目標(biāo),該方法有效地去除了噪聲等干擾因素,取得了較高的準(zhǔn)確率,且魯棒性較模板匹配的方法更優(yōu),但支持向量機(jī)的核函數(shù)、帶寬等參數(shù)很難人為確定。

        隨著深度學(xué)習(xí)的快速發(fā)展,基于卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)的目標(biāo)檢測方法已成為處理和識別遙感圖像的趨勢。當(dāng)前,主流的深度學(xué)習(xí)目標(biāo)檢測算法主要分為兩類:基于錨的方法和不基于錨的方法。Alganci等人[3]對基于錨的3種目標(biāo)檢測算法在遙感圖像中飛機(jī)目標(biāo)的檢測性能進(jìn)行了評估,其中Faster R-CNN[4]取得了最高的檢測精度,但檢測速度太慢,無法滿足實時性。SSD[5]的檢測性能最差,但在目標(biāo)定位方面效果較好。YOLOv3[6]實現(xiàn)了檢測精度和速度上的平衡,且檢測精度略低于Faster R-CNN。但由于基于錨的方法在檢測性能上很大程度取決于正負(fù)樣本數(shù)以及錨點(diǎn)的超參數(shù),且檢測過程中引入非極大抑制算法(non-maximum suppression,NMS)[7]來消除重復(fù)目標(biāo)框,使得算法復(fù)雜度和計算量相應(yīng)增加,限制了其普及和檢測速度上的提升。

        為了提高檢測器靈活性,CornerNet[8]、ExtremeNet[9]、CenterNet[10]等無錨的方法應(yīng)運(yùn)而生,并受到廣泛關(guān)注。目前,無錨的方法在遙感圖像檢測方面已經(jīng)做過一部分研究,Liu等人[11]首次嘗試將CenterNet運(yùn)用到遙感圖像目標(biāo)的檢測任務(wù)上,并在NWPU VHR-10遙感數(shù)據(jù)集上評估CenterNet 的各主干網(wǎng)絡(luò)性能,證明了CenterNet 算法較基于錨的YOLOv3 算法在檢測精度和速度上優(yōu)越的性能,但同時也存在部分小目標(biāo)和密集目標(biāo)的漏檢情況。Zhang 等人[12]提出一種特征增強(qiáng)的中心點(diǎn)網(wǎng)絡(luò),在不同層之間引入水平連接,通過結(jié)合深層特征和淺層特征來提高遙感圖像小目標(biāo)檢測精度,但檢測速度有待提高。巍瑋等人[13]提出一種改進(jìn)的CenterNet遙感圖像檢測模型,該模型將Hourglass-104[14]特征提取網(wǎng)絡(luò)殘差塊中的標(biāo)準(zhǔn)卷積替換為可變卷積,且引入注意力機(jī)制進(jìn)行優(yōu)化,一定程度上降低了誤檢率和漏檢率,但對密集目標(biāo)的檢測精度有待提高。姚群力等人[15]基于SSD 多尺度檢測框架,采用反卷積設(shè)計了一種輕量級多尺度特征融合模塊,實現(xiàn)了高層語義和低層細(xì)節(jié)的特征融合,在UCAS-AOD遙感圖像飛機(jī)目標(biāo)檢測上取得較高的檢測精度,尤其是密集目標(biāo)的檢測效果提升顯著,但檢測速度仍有待提高。鄭哲等人[16]提出了一種多尺度特征金字塔和滑動頂點(diǎn)回歸的遙感圖像目標(biāo)檢測,通過引入通道注意力和空間注意力模塊抑制噪聲,檢測精度顯著提高。Lim等人[17]對傳統(tǒng)的SSD模型進(jìn)行改進(jìn),提出一種結(jié)合上下文特征和注意力機(jī)制的檢測方法,較原SSD提高了小目標(biāo)的檢測能力。

        受以上研究方法的啟發(fā),本文將高層語義和低層細(xì)節(jié)特征融合以及添加注意力機(jī)制抑制噪聲干擾的思想運(yùn)用到CenterNet 算法,提出了一種AFF-CenterNet(attention feature fusion-CenterNet)網(wǎng)絡(luò),在“編碼-解碼”結(jié)構(gòu)引入平行層特征共享模塊來提高小目標(biāo)和密集目標(biāo)的檢測精度,在特征融合模塊前引入SE-Net[18]通道注意力模塊來降低誤檢率,優(yōu)化檢測器的性能,以解決原網(wǎng)絡(luò)在遙感圖像飛機(jī)目標(biāo)檢測上存在的小目標(biāo)和密集目標(biāo)檢測精度低以及誤檢率高的問題。

        1 CenterNet網(wǎng)絡(luò)

        CenterNet算法無需進(jìn)行人為設(shè)定前景和背景分類的閾值以及不需要計算量大且耗時的非極大值抑制(NMS),減少了對數(shù)據(jù)集正負(fù)樣本的要求,提高了檢測速度。但是,實際遙感圖像由于拍攝高度、角度等問題,圖片中存在很多像素為個位數(shù)的小目標(biāo)對象和密集目標(biāo),這給CenterNet算法帶來了很大挑戰(zhàn),直接將其應(yīng)用于遙感圖像檢測很難有所突破,因此必須對CenterNet網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行改進(jìn),使其更好地適應(yīng)遙感圖像目標(biāo)的檢測,提高檢測精度。

        2 AFF-CenterNet網(wǎng)絡(luò)模型設(shè)計

        傳統(tǒng)的CenterNet網(wǎng)絡(luò)采用“編碼-解碼”結(jié)構(gòu),通過網(wǎng)絡(luò)的連續(xù)卷積操作學(xué)習(xí)高級語義信息。然而,遙感圖像中的目標(biāo)具有小而密的特點(diǎn),經(jīng)過一系列卷積將會使小目標(biāo)特征聚集,造成漏檢和誤檢等問題。因此,本文基于CenterNet算法提出了一種結(jié)合注意力機(jī)制和平行層特征共享結(jié)構(gòu)的檢測模型AFF-CenterNet。其網(wǎng)絡(luò)結(jié)構(gòu)如圖1 所示,較原CenterNet 網(wǎng)絡(luò)結(jié)構(gòu),引入了圖中橙色虛線矩形框處擴(kuò)展結(jié)構(gòu),主要在以下兩個方面改進(jìn):

        圖1 AFF-CenterNet網(wǎng)絡(luò)結(jié)構(gòu)Fig.1 AFF-CenterNet network structure

        (1)引入一種平行層特征共享模塊將不同層之間的特征進(jìn)行關(guān)聯(lián),以提高小目標(biāo)的特征表征能力。該方法融合了深層特征和淺層特征,有效地結(jié)合了深層特征語義信息強(qiáng)和淺層特征位置和紋理信息強(qiáng)的優(yōu)點(diǎn),對改善小目標(biāo)檢測有一定效果。

        (2)在平行層模塊前加入通道注意力模塊,以減少背景干擾。該方法對不同通道間的特征響應(yīng)進(jìn)行自適應(yīng)校準(zhǔn),有效地改善了網(wǎng)絡(luò)的特征提取能力。

        2.1 平行層結(jié)構(gòu)

        在CenterNet 算法的網(wǎng)絡(luò)結(jié)構(gòu)中,本文將Conv1 層和Conv7層、Conv2層和Conv6層、Conv3層和Conv5層分別進(jìn)行融合,如圖1 所示。由于這些特征層具有不同的空間大小,在進(jìn)行融合之前,先經(jīng)過一個“Feature Fusion”模塊處理。針對該模塊,設(shè)計了如圖2 所示兩種拓?fù)浣Y(jié)構(gòu)進(jìn)行實驗,分別命名為CenterNet-C 和CenterNet-T。其中CenterNet-C 經(jīng)過一個標(biāo)準(zhǔn)1×1 卷積使融合前后的特征層具有相同的空間大小,CenterNet-T將CenterNet-C 中的標(biāo)準(zhǔn)卷積換成空洞卷積進(jìn)行測試。由于不同圖層中的每個特征值具有不同的比例,在卷積之后需經(jīng)過批量歸一化和Relu激活處理。

        圖2 平行融合模塊結(jié)構(gòu)圖Fig.2 Parallel fusion module structure diagram

        2.2 引入通道注意力模塊

        注意力機(jī)制能夠聚焦圖像的局部信息,定位感興趣信息,抑制無用信息。為了使模型更關(guān)注具有有效信息的通道,本文在平行特征共享模塊前引入擠壓-激勵注意力模塊(squeeze-and-excitation network,SE-Net)[18]。如圖3 所示,該模塊首先對輸入通道數(shù)為C的H×W特征圖進(jìn)行擠壓(squeeze)操作,得到通道數(shù)為C的1×1特征圖,對應(yīng)圖3中的全局池化(global pooling)。然后將得到的特征圖進(jìn)行激勵(excitation)操作得到各通道之間的權(quán)重值,對應(yīng)圖3 中的兩次全連接層和Sigmoid層。最后通過Scale縮放將原特征圖乘以對應(yīng)通道的權(quán)重得到新的特征圖,以達(dá)到有效信息通道的更新和無用信息通道的抑制。

        圖3 初始SE模塊結(jié)構(gòu)圖Fig.3 SE-inception module structure diagram

        引入通道注意力機(jī)制后的平行層結(jié)構(gòu)如圖4 所示??梢暬瘜Ρ热鐖D5所示,從圖5(a)中箭頭標(biāo)記處可以看出,無注意力機(jī)制時,由于飛機(jī)??客C(jī)坪距離較近,且停機(jī)坪的固定結(jié)構(gòu)與飛機(jī)形狀相似,造成了網(wǎng)絡(luò)對停機(jī)坪的固定結(jié)構(gòu)存在一些誤檢情況。圖5(b)為添加注意力機(jī)制后的結(jié)果圖,可以看出該模塊有效地濾除了背景干擾,降低了誤檢率,提高了檢測精度。

        圖4 引入注意力機(jī)制后的平行層模塊圖Fig.4 Parallel layer module diagram after introducing attention mechanism

        圖5 引入注意力模塊前后對比圖Fig.5 Comparison chart with or without attention module

        2.3 損失函數(shù)

        AFF-CenterNet 依然采用CenterNet 損失函數(shù)的構(gòu)建方法,由中心點(diǎn)預(yù)測損失Lk、偏置損失Loff、寬高損失Lsize三部分組成。

        CenterNet采用像素級邏輯回歸focal-loss損失函數(shù)來解決正負(fù)樣本分布不均的問題。公式如式(1)所示:

        總的損失Ldet由上述各分支損失加權(quán)求和得到,如式(4)所示:

        其中,權(quán)重λoff、λsize分別取1、0.1。

        3 實驗結(jié)果及分析

        3.1 實驗準(zhǔn)備

        3.1.1 數(shù)據(jù)集與實驗環(huán)境

        為驗證AFF-CenterNet 算法的可行性,選取UCASAOD 遙感影像數(shù)據(jù)集[21]和RSOD 遙感數(shù)據(jù)集[22]中的飛機(jī)類別圖片分別進(jìn)行網(wǎng)絡(luò)的訓(xùn)練和測試。其中,UCASAOD 數(shù)據(jù)集由中科院大學(xué)制作,包含飛機(jī)遙感圖片1 000張,飛機(jī)樣本7 482架,數(shù)據(jù)較為集中,且目標(biāo)方向分布較為均勻。RSOD數(shù)據(jù)集由武漢大學(xué)制作,包含飛機(jī)遙感圖片446張,飛機(jī)樣本4 993架,圖像中亮度和對比度多樣,且存在遮擋、陰影、畸變等干擾。實驗過程中,對兩數(shù)據(jù)集分別隨機(jī)抽取10%的圖片作為測試樣本,剩余90%的圖片中抽取10%作為驗證集,其余作為訓(xùn)練集,實驗環(huán)境配置如表1所示。

        表1 實驗環(huán)境配置Table 1 Experimental environment configuration

        3.1.2 評價指標(biāo)

        實驗采用準(zhǔn)確率(Accuacy)、精確度(Precision)、召回率(Recall),以及模型每秒處理的圖片數(shù)(frame per second,F(xiàn)PS)和平均精度(mean average precision,mAP)作為模型的綜合評價指標(biāo)。其中FPS 反應(yīng)了模型的處理速度指標(biāo),mAP 可以更好地衡量多召回率下的模型檢測精度,相關(guān)計算公式如式(5)~(7):

        其中,TP代表正樣本中被當(dāng)做正樣本的數(shù)量,F(xiàn)N代表正樣本中被當(dāng)成負(fù)樣本的數(shù)量,F(xiàn)P代表負(fù)樣本中被當(dāng)成正樣本的數(shù)量,TP+FP為全部分為正樣本的數(shù)量,TP+FN為全部分為正樣本的數(shù)量。

        預(yù)測結(jié)果TP和FP由交并比IoU(intersection over union)決定,當(dāng)IoU 大于設(shè)定閾值,則記為TP,反之記為FP。設(shè)定不同置信度的閾值,將得到不同數(shù)量的檢測框,閾值高,則得到的檢測框數(shù)量少;反之,閾值低得到的檢測框數(shù)量多。IoU的值由式(8)求得:

        FPS為模型每秒能檢測的圖片數(shù)量,代表了檢測速度的快慢,可以由式(9)求得:

        其中,N為被測樣本數(shù),T為測試全部樣本所需的時間。

        3.1.3 訓(xùn)練細(xì)節(jié)

        實驗中,下采樣率R為4,并使用Adam優(yōu)化器進(jìn)行迭代訓(xùn)練,將輸入圖像統(tǒng)一縮放到分辨率為512×512。初始學(xué)習(xí)率設(shè)置為1E-3,batch_size 為4,在訓(xùn)練50 個epoch 后,將學(xué)習(xí)率降為1E-4,再訓(xùn)練50 個epoch。此外,為了加快收斂速度,訓(xùn)練時ResNet-50的backbone使用ImageNet分類任務(wù)中得到的預(yù)訓(xùn)練權(quán)重。

        3.2 實驗結(jié)果分析

        3.2.1 UCAS-AOD遙感影像數(shù)據(jù)集實驗結(jié)果

        在UCAS-AOD 遙感影像數(shù)據(jù)集上經(jīng)過100 輪訓(xùn)練,損失值基本達(dá)到穩(wěn)定狀態(tài)。訓(xùn)練過程中,模型損失和迭代次數(shù)之間的趨勢變化對比如圖6所示,該Loss值為中心點(diǎn)預(yù)測損失、偏置損失和寬高損失三部分加權(quán)求和得到。

        圖6 UCAS-AOD數(shù)據(jù)集上訓(xùn)練的總Loss變化曲線圖Fig.6 Total Loss of training on UCAS-AOD dataset

        其中CenterNet-C、CenterNet-T、CenterNet-SC、CenterNet-ST 為基于AFF-CenterNet 框架設(shè)計的4 種拓?fù)浣Y(jié)構(gòu),CenterNet-C、CenterNet-T代表僅在原CenterNet基礎(chǔ)上引入平行層結(jié)構(gòu),CenterNet-SC、CenterNet-ST為上述兩種結(jié)構(gòu)添加SE-Net通道注意力后的模型。從圖6 中可以看出,改進(jìn)后的4 種模型收斂速度較改進(jìn)前都有所提高,且最終收斂值比改進(jìn)前更低。此外,加入注意力機(jī)制后的CenterNet-SC 和CenterNet-ST 較CenterNet-C 和CenterNet-T 在收斂速度和收斂值都有所優(yōu)化,其中CenterNet-ST收斂速度最快,收斂值最優(yōu)。

        改進(jìn)前后的幾種網(wǎng)絡(luò)結(jié)構(gòu)在UCAS-AOD測試集上的對比結(jié)果如表2 所示,在保持一定計算效率的情況下,改進(jìn)后的網(wǎng)絡(luò)檢測精度大幅提升。其中,采用空洞卷積的CenterNet-T比采用標(biāo)準(zhǔn)1×1卷積的CenterNet-C在檢測精度上提高了0.59 個百分點(diǎn)。CenterNet-SC 和CenterNet-ST 比CenterNet-C 和CenterNet-T 在檢測精度上分別提高了1.34 個百分點(diǎn)、1.46 個百分點(diǎn)。整體效果最優(yōu)的CenterNet-ST 較CenterNet 和CenterNet-SC 在檢測精度上分別提高了16 個百分點(diǎn)、0.71 個百分點(diǎn),因此,后續(xù)以CenterNet-ST 拓?fù)浣Y(jié)構(gòu)作為AFFCenterNet算法模型。

        表2 不同改進(jìn)結(jié)構(gòu)對比Table 2 Comparison of different improved structures

        從數(shù)據(jù)集中選取3組具有代表性的圖片進(jìn)行測試,得到圖7 所示改進(jìn)前后對比圖。從圖7 的第一行可看出,改進(jìn)前后的算法對小目標(biāo)檢測具有一定的效果,但原CenterNet 漏檢4 架,改進(jìn)后的AFF-CenterNet 無漏檢。由于原網(wǎng)絡(luò)的特征提取層經(jīng)過“編碼-解碼”結(jié)構(gòu)后,小目標(biāo)語義信息丟失嚴(yán)重,使得與背景顏色相似的小目標(biāo)難以檢測,而AFF-CenterNet 的平行層特征共享網(wǎng)絡(luò),有效地融合了深層和淺層特征,減少了語義丟失,對目標(biāo)與背景對比度低的小目標(biāo)仍能有效識別。圖7第二行為背景與目標(biāo)對比度較高,但飛機(jī)與建筑物停靠緊密條件下的小目標(biāo)檢測,改進(jìn)前后均能有效檢測到所有目標(biāo),但CenterNet存在5個誤檢,而AFF-CenterNet無誤檢情況。這是由于AFF-CenterNet在平行層特征共享層前引入了SE-Net 通道注意力模塊,對不同特征層通道間的權(quán)重進(jìn)行自適應(yīng)校準(zhǔn),有效地抑制了干擾目標(biāo)。圖7第三行為??枯^為密集情況下的小目標(biāo)檢測,CenterNet 對重疊目標(biāo)檢測存在丟失,漏檢5 架飛機(jī),而AFF-CenterNet 能有效區(qū)分重疊目標(biāo),進(jìn)一步顯示了改進(jìn)后的網(wǎng)絡(luò)對小目標(biāo)檢測性能的改善。

        圖7 改進(jìn)前后對比圖Fig.7 Image comparison before and after improvement

        為進(jìn)一步評估AFF-CenterNet 算法的性能,基于UCAS-AOD 數(shù)據(jù)集,在相同訓(xùn)練、測試樣本的條件下,本文對比了兩階段檢測算法Faster RCNN、單階段檢測算法SSD、YOLOv3 以及YOLOv5,得到對比結(jié)果如表3所示。

        表3 不同算法檢測結(jié)果對比Table 3 Comparison of detection results of different algorithms

        從實驗結(jié)果可以看出,AFF-CenterNet 算法在遙感圖像飛機(jī)目標(biāo)檢測中,檢測性能最好,檢測精度達(dá)到了96.78%,雖然檢測速度相對于未改進(jìn)前降低了7 frame/s,但都達(dá)到了實時檢測的效果。此外,AFF-CenterNet算法相對于Faster R-CNN、SSD、YOLOv3、YOLOv5s在平均精度mAP上分別提高了6.22、7.23、3.98、1.48個百分點(diǎn),檢測速度分別提高了73 frame/s、36 frame/s、20 frame/s、5 frame/s。且YOLOv5s 使用了Mosaic、自適應(yīng)錨框計算、自適應(yīng)圖片縮放等數(shù)據(jù)增強(qiáng),而本文算法未進(jìn)行數(shù)據(jù)增強(qiáng),因此,實際輸入訓(xùn)練的樣本數(shù)和計算量比YOLOv5s低。

        如圖8 為不同算法在UCAS-AOD 數(shù)據(jù)集上的可視化結(jié)果對比。其中,圖8第一行為過渡曝光情況下的小目標(biāo)檢測,該情況下Faster R-CNN檢測效果最好,只存在一個漏檢。SSD算法僅能檢測到兩個有效目標(biāo),漏檢嚴(yán)重。YOLOv5s與YOLOv3相比,漏檢率大幅降低,但存在兩個誤檢,而AFF-CenterNet無誤檢情況,且有效識別目標(biāo)數(shù)僅比YOLOv5s 少一個。圖8 第二行為復(fù)雜背景下的分散小目標(biāo)檢測,圖8第三行為停靠密集的小目標(biāo)檢測,可以看出,SSD 算法檢測小目標(biāo)的能力嚴(yán)重不足,F(xiàn)aster RCNN 能有效檢測分散小目標(biāo),但對密集小目標(biāo)的檢測性能需改善,YOLOv3 存在一定的漏檢情況。而YOLOv5s 和AFF-CenterNet 都能有效地識別各種復(fù)雜條件下的小目標(biāo),但是YOLOv5s 存在大量誤檢情況,AFF-CenterNet 相比誤檢率更低,這得益于AFFCenterNet算法中引入的平行層特征共享結(jié)構(gòu)和注意力機(jī)制對檢測器的優(yōu)化效果。

        圖8 UCAS-AOD數(shù)據(jù)集上可視化結(jié)果Fig.8 Visualization results on UCAS-AOD dataset

        3.2.2 RSOD數(shù)據(jù)集實驗結(jié)果

        為驗證AFF-CenterNet 算法的魯棒性,另外選取含有大量遮擋、陰影、畸變等干擾因素的RSOD 遙感數(shù)據(jù)集進(jìn)行訓(xùn)練和測試。經(jīng)過100 個epoch 后,改進(jìn)前后的總損失都能達(dá)到穩(wěn)定狀態(tài),改進(jìn)前后總loss 變化如圖9所示。

        圖9 RSOD數(shù)據(jù)集上訓(xùn)練的總Loss變化曲線圖Fig.9 Total Loss of training on RSOD dataset

        與UCAS-AOD 數(shù)據(jù)集Loss 曲線結(jié)果類似,收斂速度和收斂值最優(yōu)的為CenterNet-ST,且改進(jìn)后的4 種網(wǎng)絡(luò)結(jié)構(gòu)收斂速度都優(yōu)于未改進(jìn)前。此外,引入注意機(jī)制后的CenterNet-SC 和CenterNet-ST 收斂速度和收斂值同樣優(yōu)于未加入注意力機(jī)制前。

        如表4 為基于RSOD 遙感數(shù)據(jù)集下的不同算法檢測性能對比。從實驗結(jié)果可以看出,改進(jìn)后的Center-Net-ST 在保持一定計算效率的情況下檢測精度達(dá)到93.69%,優(yōu)于其余幾種結(jié)構(gòu)。與Faster RCNN、SSD、YOLOv3、YOLOv5s 以及原算法相比檢測,精度分別提高了11.99、18.49、4.09、2.89、18.25 個百分點(diǎn)。其中,YOLOv5s 的檢測速度比YOLOv3、SSD、Faster RCNN分別高13 frame/s、31 frame/s、61 frame/s,而CenterNet-ST的檢測速度比YOLOv5s提高了9 frame/s。這與UCASAOD 數(shù)據(jù)集上得到的結(jié)論基本相似,證明了改進(jìn)后的網(wǎng)絡(luò)結(jié)構(gòu)具有良好的魯棒性和抗干擾能力。

        表4 RSOD數(shù)據(jù)集下的檢測結(jié)果對比Table 4 Comparison of test results under RSOD dataset

        如圖10 為RSOD 數(shù)據(jù)集上不同算法可視化對比圖。其中,圖10 第一行為飛機(jī)目標(biāo)尺度較大且接近有干擾建筑物情況下的檢測結(jié)果,此時Faster RCNN、SSD、YOLOv3和YOLOv5s檢測效果較好,而CenterNet存在大量誤檢,AFF-CenterNet 改善了這一問題,誤檢率大幅降低,這與AFF-CenterNet 引入了注意力機(jī)制相關(guān)。圖10 第二行和圖10 第三行分別為分散小目標(biāo)和密集小目標(biāo)檢測,其中SSD 算法檢測效果最差,僅能檢測到兩架尺度中等大小飛機(jī)。Faster RCNN 在檢測分散小目標(biāo)和密集小目標(biāo)都存在大量漏檢,尤其是進(jìn)行密集小目標(biāo)檢測時,漏檢率過高。CenterNet 檢測背景較復(fù)雜的分散小目標(biāo)時存在誤檢情況,檢測密集小目標(biāo)時存在大量漏檢情況。而YOLOv5s 和改進(jìn)后的AFF-CenterNet 都能有效檢測到分散小目標(biāo),但AFFCenterNet 比YOLOv5s 在密集目標(biāo)檢測情況下漏檢率更低。此外,對比改進(jìn)前后,AFF-CenterNet在存在背景干擾和密集小目標(biāo)檢測時的檢測效果顯著提高,漏檢率和誤檢率得到改善,證明了本文算法的可行性和良好的魯棒性。

        圖10 RSOD數(shù)據(jù)集上可視化結(jié)果Fig.10 Visualization results on RSOD dataset

        3.2.3 消融實驗

        為進(jìn)一步驗證AFF-CenterNet 算法中每個改進(jìn)模塊的有效性,在RSOD 遙感影像飛機(jī)數(shù)據(jù)集上對AFFCenterNet進(jìn)行消融實驗。實驗結(jié)果如表5所示。

        表5 RSOD數(shù)據(jù)集下的消融實驗Table 5 Ablation experiment under RSOD dataset

        從實驗結(jié)果可以看出,單獨(dú)加入平行特征共享模塊,準(zhǔn)確率和召回率較原算法分別提高了10、10.53個百分點(diǎn),精度提高了16.63 個百分點(diǎn)。在平行特征共享模塊中引入注意力機(jī)制優(yōu)化各通道權(quán)重后,準(zhǔn)確率進(jìn)一步提升,平均精度較未加入注意力機(jī)制前以及原Center-Net 網(wǎng)絡(luò)結(jié)構(gòu)分別提高了1.62 個百分點(diǎn)和18.25 個百分點(diǎn),證明了本文算法各模塊的有效性。

        4 結(jié)束語

        本文嘗試將CenterNet算法應(yīng)用到遙感圖像飛機(jī)目標(biāo)檢測上,為了解決原CenterNet 算法檢測遙感圖像時的誤檢率高和小目標(biāo)檢測困難等問題,提出了結(jié)合平行層特征共享結(jié)構(gòu)和注意力機(jī)制的遙感飛機(jī)目標(biāo)自動檢測模型AFF-CenterNet。首先,采用“編碼-解碼”的主干網(wǎng)絡(luò)結(jié)構(gòu),以ResNet50 為基礎(chǔ)特征提??;然后,引入空洞殘差與注意力約束的平行層特征共享結(jié)構(gòu)進(jìn)行特征融合,構(gòu)建的特征提取網(wǎng)絡(luò),提高了算法的特征提取能力和抗干擾能力;最后在UCAS-AOD 和RSOD 公共遙感數(shù)據(jù)集上與其他主流算法進(jìn)行對比實驗,在RSOD數(shù)據(jù)集上AP達(dá)到93.69%,檢測精度較原CenterNet、Faster R-CNN、SSD300、YOLOv3 以及YOLOv5s 分別提高了18.25、11.99、18.49、4.09、2.89 個百分點(diǎn),且保持了一定的檢測速度。實驗結(jié)果表明,該方法在遙感圖像飛機(jī)目標(biāo)檢測中不僅有較高的檢測精度,同時保持了單階段檢測模型的速度優(yōu)勢,具有一定的實用價值。但本文提出的方法仍存在一些誤檢和漏檢情況,且研究類別單一,未考慮不同類別重疊后的熱圖變化,后續(xù)研究將進(jìn)一步優(yōu)化模型的特征表征,考慮引入多類別遙感圖像進(jìn)一步研究該算法在遙感圖像上的應(yīng)用。

        猜你喜歡
        特征檢測
        抓住特征巧觀察
        “不等式”檢測題
        “一元一次不等式”檢測題
        “一元一次不等式組”檢測題
        “幾何圖形”檢測題
        “角”檢測題
        新型冠狀病毒及其流行病學(xué)特征認(rèn)識
        如何表達(dá)“特征”
        不忠誠的四個特征
        抓住特征巧觀察
        三个男吃我奶头一边一个视频| 亚洲国产av无码专区亚洲av| 免费无码一区二区三区蜜桃大| 欧美成人一级视频| 亚洲人成网站www| 成熟的女人毛茸茸色视频| 少妇夜夜春夜夜爽试看视频| 日日碰狠狠躁久久躁| 1精品啪国产在线观看免费牛牛| 日本人妻系列一区二区| 国产精品一区二区三区在线蜜桃 | 无遮挡粉嫩小泬| 白色橄榄树在线阅读免费| 一区二区三区日本视频| 亚洲国产精品无码久久一线| 国产成人无码区免费内射一片色欲| 久久久久久久妓女精品免费影院 | 亚洲国产综合精品 在线 一区| 久久精品国产屋| 亚洲av调教捆绑一区二区三区| 久久黄色国产精品一区视频| 疯狂做受xxxx国产| 欧美最猛黑人xxxxx猛交| 中文字幕一区二区三区日韩网| 一区二区三区精品免费| 国产人妻人伦精品1国产| 无码中文字幕色专区| 亚洲一级av大片在线观看| 久久国产黄色片太色帅| 蜜臀av无码人妻精品| yeyecao亚洲性夜夜综合久久| 青青草视频在线你懂的 | 少妇特殊按摩高潮对白| 久久久亚洲欧洲日产国码二区| 精品久久人人爽天天玩人人妻| 国产精品成人无码久久久久久| 国产成人av三级在线观看韩国 | 国产欧美日韩精品a在线观看| 亚洲欧美日韩中文综合在线不卡| 一区二区三区中文字幕在线播放| 无码va在线观看|