亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于注意力融合的海上目標(biāo)檢測算法

        2023-09-16 09:14:02楊露菁闞欽高
        艦船科學(xué)技術(shù) 2023年16期
        關(guān)鍵詞:注意力卷積特征

        張 鵬,黃 亮,楊露菁,闞欽高

        (1.海軍工程大學(xué) 電子工程學(xué)院,湖北 武漢 430033;2.中國人民解放軍91431 部隊,海南 海口 570100)

        0 引 言

        我國是海洋大國,提高我國的海上軍事國防實力, 維護(hù)海上疆域和領(lǐng)土完整關(guān)乎到我國的長治久安。在海上國防軍事技術(shù)中,海洋目標(biāo)探測技術(shù)對于加強(qiáng)海上領(lǐng)土的監(jiān)管有非常重要的意義[1]。

        不同于雷達(dá)等主動探測設(shè)備,光電探測設(shè)備被動接受外界信息,不對外發(fā)射電磁信號,具有隱蔽性好、抗干擾能力強(qiáng)等優(yōu)點。

        近年來,基于深度學(xué)習(xí)的圖像特征提取技術(shù)在目標(biāo)檢測領(lǐng)域得到廣泛的應(yīng)用。深度卷積神經(jīng)網(wǎng)絡(luò)能夠通過學(xué)習(xí)獲得表示圖像高級特征的能力,從而實現(xiàn)對圖像中目標(biāo)的檢測。現(xiàn)行的深度學(xué)習(xí)目標(biāo)檢測算法主要可分為基于回歸思想的單階段目標(biāo)算法和基于候選區(qū)域思想的兩階段目標(biāo)檢測算法。其中單階段檢測算法相對速度更快,更能夠滿足海上目標(biāo)檢測時效性的要求。YOLO 系列檢測算法是單階段目標(biāo)檢測算法中應(yīng)用最為廣泛的[2]。趙文思[3]基于YOLOv3 模型,引入GIOU loss 并加入SPP 結(jié)構(gòu),提出了YOLOv3SPP 卷積神經(jīng)網(wǎng)絡(luò)模型,實現(xiàn)對船舶的檢測;王文亮等[4]在YOLOv5 算法中加入SimAM 注意力模塊和Transformer 結(jié)構(gòu)增強(qiáng)高階特征語義信息,提高海面小目標(biāo)檢測能力;張曉鵬等[5]在YOLOv5 算法的基礎(chǔ)上,融合SE 注意力模塊和改進(jìn)的非極大值抑制模型,實現(xiàn)提高海上船舶識別整體效果;姬嗣愚等[6]在YOLOv5 算法中引入了坐標(biāo)注意力機(jī)制,將位置信息嵌入通道注意力中,增強(qiáng)模型的特征提取能力,在滿足實時性要求下更好地完成水柱信號的檢測要求。

        本文采用最新的目標(biāo)檢測模型YOLOv7[7]作為基礎(chǔ)模型,結(jié)合海面上目標(biāo)成像特點,采用自注意力模塊加強(qiáng)特征提取,利用通道與空間注意力模塊,引導(dǎo)高層特征與低層特征融合,對特征融合網(wǎng)絡(luò)進(jìn)行輕量化改造,實現(xiàn)對海上目標(biāo)的實時準(zhǔn)確檢測。

        1 YOLOv7 算法原理

        YOLO 系列發(fā)展至今已有諸多版本,在目標(biāo)檢測領(lǐng)域發(fā)揮重要作用。YOLOv7 是YOLOv4 官方團(tuán)隊在前代網(wǎng)絡(luò)的基礎(chǔ)上進(jìn)一步改進(jìn)而來,相同體量下,擁有比現(xiàn)在最流行的YOLOv5 更高的檢測精度。與YOLOv5 一樣,為了滿足不同檢測場景的需求,YOLOv7共發(fā)布的7 個基礎(chǔ)模型。本文主要針對海上目標(biāo)進(jìn)行檢測,為滿足模型輕量化和檢測實時性要求,以YOLOv7-tiny-SiLU 作為基準(zhǔn)模型,并針對海上目標(biāo)檢測任務(wù)進(jìn)行優(yōu)化。

        YOLOv7-tiny-SiLU 的總體結(jié)構(gòu)如圖1 所示。

        圖1 YOLOv7-tiny-SiLU 模型結(jié)構(gòu)Fig.1 YOLOv7-tiny-SiLU model structure

        輸入端(Input)繼續(xù)采用Mosaic 數(shù)據(jù)增強(qiáng)、自適應(yīng)錨框計算和自適應(yīng)圖片縮放方式對輸入圖像進(jìn)行預(yù)處理,以提高輸入模型的數(shù)據(jù)質(zhì)量。

        主干網(wǎng)絡(luò)(Backbone)相對前代YOLO 模型進(jìn)行較大改進(jìn)。Focus 下采樣結(jié)構(gòu)恢復(fù)為步長為2 的卷積層,在下采樣的同時保留部分語義信息;參考ELAN 結(jié)構(gòu)設(shè)計擴(kuò)展高效聚合網(wǎng)絡(luò)E-ELAN,在不破壞原始梯度路徑的情況下,提高網(wǎng)絡(luò)的學(xué)習(xí)能力;在P3 至P4 與P4 至P5 兩次下采樣過程中,由E-ELAN 負(fù)責(zé)特征提取,降采樣操作由最大池化完成,保證特征提取的同時,進(jìn)一步減少計算參數(shù)與計算量。

        頸部(Neck)繼續(xù)沿用FPN+PAN 結(jié)構(gòu)的路徑聚合網(wǎng)絡(luò)結(jié)構(gòu),但將其中的CSP 模塊替換E-ELAN 層。

        輸出端(Prediction)針對檢測目標(biāo)的大小不同,設(shè)定輸入圖像的1/8、1/16、1/32 三種大小網(wǎng)格。每個網(wǎng)格包含3 個預(yù)測框,每個預(yù)測框包含目標(biāo)分類、位置、置信度信息,最后通過非極大值抑制 NMS(Non-Maximum Suppression)對重復(fù)冗余的預(yù)測框進(jìn)行剔除,保留置信度最高的預(yù)測框信息[8],從而完成目標(biāo)檢測過程。

        除此之外,YOLOv7-tiny-SiLU 在模型的訓(xùn)練上也進(jìn)行優(yōu)化。一是參照RepConv 進(jìn)行模型重參化設(shè)計[9],用沒有identity 連接的RepConv 來設(shè)計重參數(shù)化卷積的體系結(jié)構(gòu),實現(xiàn)用復(fù)雜的模型訓(xùn)練、用簡單的模型推理,在保證模型精度的前提下進(jìn)一步壓縮模型的大小。二是利用深度監(jiān)督的思想,在網(wǎng)絡(luò)的中間層增加額外的輔助頭,利用輔助檢測頭學(xué)習(xí)住檢測頭已學(xué)習(xí)的信息,使得主檢測頭能夠進(jìn)一步學(xué)習(xí)更多信息[10],并通過一種新的軟標(biāo)簽生成方法來訓(xùn)練模型,以增強(qiáng)網(wǎng)絡(luò)的檢測能力。

        現(xiàn)有的YOLOv7-tiny-SiLU 算法是針對全場景下目標(biāo)檢測任務(wù)設(shè)計的,為使網(wǎng)絡(luò)更加符合海上目標(biāo)檢測需求,對網(wǎng)絡(luò)進(jìn)行海上目標(biāo)檢測的針對性改進(jìn)。

        2 模型改進(jìn)

        與其他場景相比,海上場景背景相對簡單。海面目標(biāo)沿海天線向畫面邊緣由遠(yuǎn)及近分布且與背景有密切關(guān)系,如同樣的白色像素區(qū)域在天空背景下通常為云朵,在海面背景下通常為海浪,故在進(jìn)行海上目標(biāo)檢測時,需充分考慮圖像中的上下文信息。本文利用注意力機(jī)制增強(qiáng)骨干網(wǎng)絡(luò)的特征提取能力,對頸部的特征融合網(wǎng)絡(luò)進(jìn)行設(shè)計,增加特征融合的針對性。

        2.1 自注意力機(jī)制

        卷積神經(jīng)網(wǎng)絡(luò)(CNN)利用天然的歸納偏置優(yōu)勢來學(xué)習(xí)視覺表征,在空間信息域上建立局部依賴關(guān)系,但也由此缺乏學(xué)習(xí)全局表征的能力?;谧宰⒁饬C(jī)制的視覺Transformer(ViT)具備捕捉輸入特征圖全局感受野的能力,能在空間維度上建立全局依賴關(guān)系從而學(xué)習(xí)到全局視覺表征信息。但由于缺乏空間歸納偏差,ViT 架構(gòu)通常計算量較大且難以訓(xùn)練。在此基礎(chǔ)上,Mehta S 等[11]結(jié)合CNN 與Transformer 的優(yōu)點,構(gòu)建出輕量級網(wǎng)絡(luò)架構(gòu)MobileViT,如圖2 所示。

        圖2 Mobile ViT 架構(gòu)Fig.2 Mobile ViT architecture

        在MobileViT 架構(gòu)中,MobileViT Block 是融入Transformer 的核心部分。具體流程為:

        X∈RH×W×C

        步驟1 利用一次普通卷積學(xué)習(xí)輸入的張量局部空間信息;

        步驟2 通過點卷積將步驟1 的輸出特征投影到高維空間,將得到的張量XL∈RH×W×d展開后通過Transformer 建模得到張量XG∈RH×W×d;

        步驟3 重新折疊張量XG∈RH×W×d,并通過點卷積進(jìn)行降維得到張量XF ∈RH×W×C;

        步驟4 將步驟1 的結(jié)果與張量XF∈RH×W×C拼接后,利用卷積融合其中的局部特征與全局特征。

        MobileViT Block 能夠同時感知特征圖的全局信息與局部信息,在骨干網(wǎng)絡(luò)中插入該模塊能夠提高網(wǎng)絡(luò)的特征提取能力。

        2.2 通道注意力機(jī)制與空間注意力機(jī)制

        骨干網(wǎng)絡(luò)提取的特征層包含豐富的語義信息,但不同層級的特征圖所包含的語義信息有所差別,對不同目標(biāo)檢測的貢獻(xiàn)度也不同。YOLOv7-tiny-SiLU 的頸部結(jié)構(gòu)對各層級進(jìn)行融合,能夠提高目標(biāo)檢測能力,但并非所有層的信息對目標(biāo)檢測的貢獻(xiàn)度都相同,冗余的信息甚至?xí)`導(dǎo)網(wǎng)絡(luò)對有效信息的利用。

        注意力機(jī)制能夠動態(tài)調(diào)整所融合信息的權(quán)重,提升神經(jīng)網(wǎng)絡(luò)對有用信息的注意,并抑制對無效信息的關(guān)注。為了讓檢測器能夠在檢測不同目標(biāo)時能合理分配注意力,進(jìn)而提高對有用信息的感知。

        CBAM[12]注意力機(jī)制能夠同時感知通道注意力(Channel Attention,CA)與空間注意力(Spatial Attention,SA)。其中,CA 模塊與SENet 類似,在SENet的基礎(chǔ)上增加了maxpool 的特征提取方式,利用特征間的通道關(guān)系來生成通道注意力圖;SA 模塊利用的是特征間空間關(guān)系,沿著通道軸并行平均池化和最大池化操作,連接后經(jīng)過一個卷積層得到注意力圖,如圖3所示。通道注意力圖與空間注意力圖的計算過程為:

        圖3 CBAM 結(jié)構(gòu)Fig.3 CBAM structure

        將CBAM 注意力機(jī)制應(yīng)用于多尺度特征融合結(jié)合使用,對融合的特征圖進(jìn)行自適應(yīng)的加權(quán)調(diào)整。

        2.3 改進(jìn)的特征融合網(wǎng)絡(luò)

        將CA 模塊與SA 模塊根據(jù)需分別嵌入頸部的特征融合網(wǎng)絡(luò)中,并對頸部進(jìn)行輕量化改造,使其更加專注于特征融合。在大量減少計算開銷的情況下,保留頸部特征融合能力,將獲得的特征提取網(wǎng)絡(luò)命名為CS-FPN,如圖4 所示。CS-FPN 網(wǎng)絡(luò)中特征融合的過程為:

        圖4 CS-FPN 結(jié)構(gòu)圖Fig.4 CS-FPN structure

        步驟1 由骨干網(wǎng)絡(luò)提取到的P5 特征層經(jīng)過一次卷積下采樣,獲得擁有更高一級的語義信息特征層P6。

        步驟2 由具有更高語義信息特征層借助注意力機(jī)制引導(dǎo)下一級特征層的信息融合。具體做法為:將P6、P5、P4 特征層經(jīng)過1 次SA 模塊獲得空間注意力權(quán)重,經(jīng)上采樣后分別與P5、P4、P3 層進(jìn)行拼接,將拼接后的特征層經(jīng)過1 次CA 模塊感知通道注意力權(quán)重,再利用卷積對特征通道進(jìn)行融合,得到初步融合的特征圖P'5、P'4、P'3。

        步驟3 將底層特征圖向高層融合。具體為:底層特征圖P'3 、P'4 經(jīng)過一次下采樣分別與更高層的P'4、P'5 進(jìn)行拼接,而后經(jīng)過1 次CA 模塊獲得通道注意力權(quán)重,再通過卷積對特征通道進(jìn)行融合,得到進(jìn)一步融合的特征層P"5、P"4、P"3。

        步驟4 根據(jù)檢測任務(wù)需要,重復(fù)步驟2 和步驟3得到最終融合的特征層C5、C4、C3。

        2.4 CS-YOLOv7s 網(wǎng)絡(luò)模型

        針對海上目標(biāo)檢測,在YOLOv7-tiny-SiLU 算法的基礎(chǔ)上,將MobileViT Block 加入骨干網(wǎng)絡(luò)中,再結(jié)合2.3 所提的特征融合網(wǎng)絡(luò),得到改進(jìn)后的CS-YOLOv7s網(wǎng)絡(luò)。其整體結(jié)構(gòu)如圖5 所示。

        圖5 CS-YOLOv7s 整體結(jié)構(gòu)Fig.5 CS-YOLOv7s overall structure

        3 實驗結(jié)果與對比分析

        3.1 實驗環(huán)境與實驗數(shù)據(jù)

        本文實驗環(huán)境為Ubuntu20.04 操作系統(tǒng),CPU 為Intel i9-10920X,內(nèi)存32 G,顯卡為 NVIDIA GeForce RTX3070,Python3.8 編程語言,Pytorch1.8.0 深度學(xué)習(xí)框架。

        數(shù)據(jù)集為互聯(lián)網(wǎng)上公開的新加坡海事數(shù)據(jù)集,包括在2015 年7 月~2016 年5 月之間的各種環(huán)境條件下采集的視頻數(shù)據(jù),經(jīng)分幀標(biāo)注而得3605 張分辨率為1920×1080 的圖片及相應(yīng)標(biāo)注文件。按照9∶1 的比例將所有數(shù)據(jù)劃分訓(xùn)練數(shù)據(jù)與驗證數(shù)據(jù),再將驗證數(shù)據(jù)按照9∶1 比例劃分為訓(xùn)練集與測試集,即訓(xùn)練集2920張圖片,測試集324 張圖片,驗證集361 張圖片。

        3.2 評估指標(biāo)

        目標(biāo)檢測中通常用平均精準(zhǔn)度(Average precision,AP)和平均精準(zhǔn)度的均值mAP 來評價模型的檢測效果和性能,AP 為召回率(Recall)和精確率(Precision)曲線下的面積。計算公式為:

        3.3 實驗對比

        訓(xùn)練階段的超參數(shù)設(shè)置:初始學(xué)習(xí)率為0.0032;衰減系數(shù)為0.12;動量為0.843;批大小(batch size)為16;訓(xùn)練次數(shù)(Epoch)為 500 次。

        YOLOv7-tiny-SiLU 與CS-YOLOv7s 的損失函數(shù)曲線如圖6 所示??煽闯? 種模型在訓(xùn)練初期損失函數(shù)下降速度更快,整體波動較小,且訓(xùn)練到第100 輪左右時均損失值達(dá)到了0.04,收斂情況均良好,模型輕量化改進(jìn)后最終損失比原始模型稍高。

        圖6 訓(xùn)練損失情況Fig.6 Training loss

        從訓(xùn)練結(jié)果上看,CS-YOLOv7s 的準(zhǔn)確率最高為0.9668;召回率最高為0.8554;在置信度為0.5 時mAP 最高為0.8733。當(dāng)置信度為0.5 時,模型改進(jìn)前后其平均精準(zhǔn)度的均值mAP 曲線如圖7 所示。從圖中可看出,CS-YOLOv7s 的平均精準(zhǔn)度與YOLOv7-tiny-SiLU 基本持平,稍有下降。

        圖7 mAP@0.5 曲線對比Fig.7 mAP@0.5 curve comparison

        使用Y O L O v 5 s、Y O L O v 7-t i n y-S i L U、C SYOLOv7s 對驗證數(shù)據(jù)進(jìn)行檢測,完成消融實驗,檢測結(jié)果如圖8 所示。從檢測結(jié)果來看,CS-YOLOv7s對海上目標(biāo)檢測的準(zhǔn)確性明顯優(yōu)于YOLOv5s,略差于YOLOv7-tiny-SiLU。

        圖8 檢測結(jié)果示例。Fig.8 Example of test results

        網(wǎng)絡(luò)參數(shù)對比如表1 所示。

        表1 算法模型性能對比Tab.1 Algorithmic model performance comparison

        可以看出,相比于YOLOv5s 與YOLOv7-tiny-SiLU,CS-YOLOv7s 算法網(wǎng)絡(luò)模型層數(shù)雖然有所增加但模型權(quán)重大大下降,參數(shù)量相對較少,檢測速度有所提高,且經(jīng)過模型重參化后權(quán)重僅為9.3 M。對于算法移植于其他平臺更加友好,即使在高清圖像中也能基本滿足實時檢測的需要。改進(jìn)后的CS-YOLOv7s 算法能夠滿足海上目標(biāo)檢測場景中的實時檢測任務(wù)。

        4 結(jié) 語

        針對海上目標(biāo)檢測任務(wù),本文提出一種改進(jìn)的YOLOv7 算法,運(yùn)用 MobileViT 模塊提高骨干網(wǎng)絡(luò)的特征提取能力,參照CBAM 特征注意力機(jī)制,利用通道注意力模塊與空間注意力模塊設(shè)計更為輕量化的特征融合網(wǎng)絡(luò)。結(jié)合注意力機(jī)制改進(jìn)后的模型在準(zhǔn)確率少量下降的情況下,速度達(dá)到22.64 幀/秒,權(quán)重為9.3 M。結(jié)果表明,CS-YOLOv7s 模型能夠滿足檢測準(zhǔn)確性與實時性要求,可以更好地完成海上目標(biāo)檢測任務(wù)。

        猜你喜歡
        注意力卷積特征
        讓注意力“飛”回來
        基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
        如何表達(dá)“特征”
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        不忠誠的四個特征
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        抓住特征巧觀察
        “揚(yáng)眼”APP:讓注意力“變現(xiàn)”
        傳媒評論(2017年3期)2017-06-13 09:18:10
        A Beautiful Way Of Looking At Things
        一種基于卷積神經(jīng)網(wǎng)絡(luò)的性別識別方法
        男女肉粗暴进来动态图| 人妻无码人妻有码不卡| 亚洲情精品中文字幕有码在线 | 曰本女人与公拘交酡免费视频| 亚洲AV永久无码精品导航 | 中国人妻沙发上喷白将av| 人日本中文字幕免费精品| 国产精品久久久爽爽爽麻豆色哟哟| 国产成人无码区免费内射一片色欲| 精品四虎免费观看国产高清| 精品蜜桃av一区二区三区| 日本免费精品免费视频| 亚洲人成人无码www| 夜夜爽妓女8888888视频| a级毛片免费完整视频| 亚洲黄视频| 日本久久精品在线播放| 99久久免费看精品国产一| 无人区一码二码三码四码区| 亚洲色图+国产精品| 亚洲AV无码成人精品区网页| 日本黄色高清视频久久| 亚洲 另类 小说 国产精品| 全免费a级毛片免费看网站| 免费无码肉片在线观看| 国产精品美女久久久浪潮av| 日韩av一区二区不卡| 99久久精品费精品国产一区二| 亚洲自拍另类制服在线| av有码在线一区二区| 亚洲精品乱码久久久久久| 亚洲av综合av国产av| 亚洲av乱码专区国产乱码| 在线观看一区二区蜜桃| 国产成人综合亚洲看片| 在线播放a欧美专区一区| 人妻少妇精品视中文字幕国语| 亚洲在线精品一区二区三区| 欧美男生射精高潮视频网站| 性久久久久久久| 狠狠亚洲婷婷综合久久久|