張冬冬, 王春平, 付 強(qiáng)
(陸軍工程大學(xué)石家莊校區(qū) 電子與光學(xué)工程系, 河北 石家莊 050003)
艦船檢測(cè)是計(jì)算機(jī)視覺領(lǐng)域的研究熱點(diǎn),一直備受國(guó)內(nèi)外研究人員關(guān)注,并被廣泛應(yīng)用于各種領(lǐng)域。 例如,利用光學(xué)遙感技術(shù)實(shí)現(xiàn)艦船檢測(cè),可以對(duì)海上交通管理、打擊非法走私和海上營(yíng)救等進(jìn)行輔助;通過遙感圖像對(duì)敵港口、海域艦船部署進(jìn)行監(jiān)視,為戰(zhàn)前預(yù)警、威脅評(píng)估和引導(dǎo)打擊等奠定基礎(chǔ)。
艦船作為海上重要目標(biāo),是海域安全的主要威脅,也是海戰(zhàn)中重點(diǎn)打擊的對(duì)象。 利用制導(dǎo)導(dǎo)彈對(duì)艦船目標(biāo)進(jìn)行打擊是現(xiàn)階段的主要手段,若導(dǎo)彈命中敵艦船的指揮控制室、動(dòng)力艙和導(dǎo)彈發(fā)射井等關(guān)重部位,可瞬間損毀敵艦船,有效遏制其作戰(zhàn)能力;若命中非關(guān)重部位,則無法使敵艦船瞬間喪失作戰(zhàn)能力。 為提高導(dǎo)彈的打擊效率,需要在制導(dǎo)的過程中根據(jù)艦船關(guān)重部位的位置實(shí)時(shí)調(diào)整命中點(diǎn)。 因此,為滿足特定任務(wù)需求,針對(duì)艦船關(guān)重部位構(gòu)建精確、可嵌入小型設(shè)備的實(shí)時(shí)檢測(cè)算法具有重要意義。
傳統(tǒng)的目標(biāo)檢測(cè)[1-3]方法需要人為對(duì)提取特征進(jìn)行設(shè)定,依賴于業(yè)界的專業(yè)知識(shí),算法的應(yīng)用局限性大、泛化能力差,且計(jì)算復(fù)雜耗時(shí)、檢測(cè)效果不佳。近年來,隨著深度學(xué)習(xí)的迅速發(fā)展,卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)[4]因其強(qiáng)大的特征提取能力被廣泛應(yīng)用于計(jì)算機(jī)視覺領(lǐng)域,基于CNN 的檢測(cè)算法成為當(dāng)前目標(biāo)檢測(cè)領(lǐng)域的主流方法。 基于CNN 的目標(biāo)檢測(cè)算法主要分為2 類:一類是以R-CNN[5],Faster R-CNN[6]和Mask R-CNN[7]等為代表的雙階段網(wǎng)絡(luò),該類方法在生成候選區(qū)域的基礎(chǔ)上對(duì)目標(biāo)的類別和位置進(jìn)行預(yù)測(cè),以犧牲速度來保證檢測(cè)的精度;另一類是以SSD[8],YOLO[9]和CenterNet[10]等為代表的單階段檢測(cè)網(wǎng)絡(luò),該類算法直接在特征圖上對(duì)目標(biāo)的類別和位置進(jìn)行回歸,具有較快的檢測(cè)速度,但精度相對(duì)于雙階段網(wǎng)絡(luò)略有不足。 學(xué)者們?yōu)閷⒛繕?biāo)檢測(cè)算法更好地應(yīng)用于遙感艦船檢測(cè)領(lǐng)域做了大量的研究工作。 文獻(xiàn)[11]利用Mask R-CNN 實(shí)現(xiàn)了艦船和背景的分離,在篩選的過程中使用soft-NMS 進(jìn)一步提高艦船檢測(cè)的魯棒性。 文獻(xiàn)[12]借助Inception 結(jié)構(gòu)[13]對(duì)YOLOv3網(wǎng)絡(luò)進(jìn)行改進(jìn),增強(qiáng)了主干網(wǎng)絡(luò)的特征提取能力,避免了小尺度艦船在網(wǎng)絡(luò)傳遞過程中出現(xiàn)特征丟失的問題,提高了網(wǎng)絡(luò)對(duì)小目標(biāo)的檢測(cè)能力。 文獻(xiàn)[14]利用密集連接進(jìn)行多尺度特征的融合提高網(wǎng)絡(luò)的表征能力,設(shè)計(jì)聚焦分類損失函數(shù)解決正負(fù)樣本不平衡的問題,該算法在復(fù)雜場(chǎng)景下具有較強(qiáng)的艦船檢測(cè)能力。 文獻(xiàn)[15]在YOLOv3-tiny 的基礎(chǔ)上,通過優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu)和引入空間注意力(Spatial Attention,SA)模塊構(gòu)建了一種輕量化遙感目標(biāo)實(shí)時(shí)檢測(cè)方法,該方法可用于嵌入式設(shè)備,并且對(duì)于遙感目標(biāo)具有較好的檢測(cè)效果。
盡管基于CNN 的艦船檢測(cè)算法在多種場(chǎng)景中可以較好地完成艦船檢測(cè)任務(wù),但已有的研究大多將艦船作為整體進(jìn)行檢測(cè),并未對(duì)艦船做更為精細(xì)化的檢測(cè),并且除了像文獻(xiàn)[15]這種輕量型算法外,大多數(shù)算法因結(jié)構(gòu)復(fù)雜、計(jì)算量大而無法嵌套至小型設(shè)備中,使算法不能很好地應(yīng)用在實(shí)際任務(wù)中。李晨瑄等[16-18]在艦船要害檢測(cè)方面做了大量的研究,所提算法可嵌入導(dǎo)彈導(dǎo)引頭,用于引導(dǎo)打擊,但該類算法針對(duì)的是末端制導(dǎo)問題,在遙感影像檢測(cè)中表現(xiàn)欠佳。
針對(duì)上述問題,本文以YOLOv4-tiny[19]為基礎(chǔ),通過優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu)、引入SA 模型以及構(gòu)建特征提取模塊,提出了一種輕量化艦船關(guān)重部位實(shí)時(shí)檢測(cè)算法——YOLOv4-I。 試驗(yàn)結(jié)果表明,所提方法對(duì)艦船關(guān)重部位具有較高的檢測(cè)精度,并且模型計(jì)算速度快,可以達(dá)到實(shí)時(shí)性的要求。
目前,包含艦船目標(biāo)的光學(xué)遙感圖像數(shù)據(jù)集主要有HRSC2016[20],DIOR[21]和DOTA[22]等,各數(shù)據(jù)集樣例如圖1 所示,其中HRSC2016 是唯一一個(gè)僅包含艦船目標(biāo)的數(shù)據(jù)集。 從圖1 可以看出,現(xiàn)有的光學(xué)遙感數(shù)據(jù)集主要以艦船整體作為對(duì)象,艦船的部位信息未被凸顯,難以支撐對(duì)艦船進(jìn)行更為精細(xì)化的研究。 針對(duì)數(shù)據(jù)集欠缺的問題,從谷歌地圖上下載了大量美、英、法等國(guó)軍港區(qū)域內(nèi)的遙感圖像,并利用爬蟲收集了部分公開艦船圖像,構(gòu)建了關(guān)重部位數(shù)據(jù)集(簡(jiǎn)稱為RS-Ship),該數(shù)據(jù)集中的部分圖像如圖2 所示。 RS-Ship 數(shù)據(jù)集包含多種類型的艦船,并且艦船的尺度、排列方式以及所處場(chǎng)景多種多樣,較完備地囊括了各類型艦船在遙感圖像中所呈現(xiàn)的方式。 對(duì)比圖1 和圖2 可以發(fā)現(xiàn),與其他數(shù)據(jù)集相比,RS-Ship 中圖像的分辨率及清晰度較高,背景較為復(fù)雜,艦船各部位的特征更加明顯,可應(yīng)用于艦船部位的檢測(cè)。 綜合分析光學(xué)遙感圖像特點(diǎn)以及艦船各部位的重要性,本文將艦船的指揮控制室(駕駛艙)作為關(guān)重部位,并對(duì)其進(jìn)行深入研究。
圖1 不同數(shù)據(jù)集的圖像示例Fig.1 Example images of different dataset
圖2 RS-Ship 數(shù)據(jù)集的圖像示例Fig.2 Example images of RS-Ship dataset
RS-Ship 中圖像尺度為800 pixel×600 pixel,使用LabelImg 工具對(duì)圖像中的艦船及關(guān)重部位進(jìn)行標(biāo)注,按照4 ∶1的比例劃分為訓(xùn)練集和測(cè)試集。 數(shù)據(jù)集的詳細(xì)信息如表1 所示。
表1 RS-Ship 數(shù)據(jù)集詳?shù)募?xì)信息Tab.1 Details of RS-Ship dataset
YOLOv4-tiny 在YOPLOv4[23]的基礎(chǔ)上設(shè)計(jì)而來,模型的參數(shù)大量削減,檢測(cè)速度大幅提高,便于小型設(shè)備搭載。 以大小為608 pixel×608 pixel 的輸入圖像為例,YOLOv4-tiny 的結(jié)構(gòu)框架如圖3 所示。YOLOv4-tiny 首先利用CSPdarknet53-tiny 對(duì)特征進(jìn)行提取,然后利用特征金字塔結(jié)構(gòu)(Feature Pyramid Network,FPN) 融合P1 層和P2 層特征,最終在38 pixel×38 pixel 和19 pixel×19 pixel 兩個(gè)尺度上進(jìn)行預(yù)測(cè)。 與YOLOv4 相比,YOLOv4-tiny 的主干網(wǎng)絡(luò)減少了殘差模塊的使用量,且僅用FPN 對(duì)2 層特征進(jìn)行融合使模型結(jié)構(gòu)進(jìn)一步簡(jiǎn)化,其參數(shù)量?jī)H為YOLOv4 的10%左右。 YOLOv4-tiny 結(jié)構(gòu)簡(jiǎn)單使其具有優(yōu)越的實(shí)時(shí)性,但也帶來了特征融合不充分、利用率低以及顯著性不突出等缺點(diǎn),使其難以適用于復(fù)雜場(chǎng)景下小尺度目標(biāo)的檢測(cè)任務(wù)。
圖3 YOLOv4-tiny 結(jié)構(gòu)框架Fig.3 YOLOv4-tiny structural framework
YOLOv4-tiny 結(jié)構(gòu)精簡(jiǎn)、檢測(cè)速度快,可嵌入小型設(shè)備中使用,但其特征利用不充分、檢測(cè)精度不高,無法對(duì)復(fù)雜場(chǎng)景中的小尺度目標(biāo)進(jìn)行精確檢測(cè)。針對(duì)以上問題,本文對(duì)其進(jìn)行以下改進(jìn):① 根據(jù)目標(biāo)尺度對(duì)網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行優(yōu)化;② 充分利用艦船與關(guān)重部位的關(guān)系,增強(qiáng)艦船區(qū)域的特征顯著性,降低背景對(duì)檢測(cè)的影響,提高網(wǎng)絡(luò)對(duì)關(guān)重部位的敏感度;③ 構(gòu)建特征提取模塊,對(duì)特征進(jìn)行進(jìn)一步提取,豐富特征圖所包含的信息,使目標(biāo)特征得到充分表征,進(jìn)而提升檢測(cè)精度。 本文所提框架如圖4 所示。
圖4 本文所提框架Fig.4 Proposed framework
RS-Ship 數(shù)據(jù)集中艦船及關(guān)重部位目標(biāo)所占像素的統(tǒng)計(jì)結(jié)果如圖5 所示。 可以看出,小于16 pixel×16 pixel 的艦船和關(guān)重部位分別占總目標(biāo)的0.91%和24. 20%,小于8 pixel×8 pixel 的關(guān)重部位占1.26%。 網(wǎng) 絡(luò) 輸 入 為 608 pixel × 608 pixel 時(shí),YOLOv4-tiny 中C5,C4 層的下采樣步長(zhǎng)分別為32,16,理論上該網(wǎng)絡(luò)所能檢測(cè)到的最小目標(biāo)為16 pixel×16 pixel 左右。 由數(shù)據(jù)集中艦船的尺度分布情況可知,可將F5,F4 層用于感知艦船區(qū)域。 若將F5,F4 用于關(guān)重部位的檢測(cè)會(huì)造成大量的漏檢,而C3 層上能檢測(cè)到的最小目標(biāo)分辨率在8 pixel×8 pixel 左右,可以很好地規(guī)避這一問題,因此在C3層的基礎(chǔ)上構(gòu)建關(guān)重部位檢測(cè)分支。 由于目標(biāo)尺度差異大,上述結(jié)構(gòu)在一定程度上仍存在漏檢風(fēng)險(xiǎn),但在所考慮尺度范圍外的目標(biāo)僅占目標(biāo)總數(shù)的1%左右,在保證檢測(cè)速度的條件下,這種因結(jié)構(gòu)所導(dǎo)致的低漏檢風(fēng)險(xiǎn)可以忽略。
圖5 艦船及關(guān)重部位目標(biāo)像素分布統(tǒng)計(jì)Fig.5 Target pixel distribution statistics of ships and critical parts
SA[24]是一種常用的注意力機(jī)制,通過利用特征圖中各像素間的空間關(guān)系,有差別地突出或抑制像素強(qiáng)度,使目標(biāo)特征的顯著性得到增強(qiáng),有助于生成有效的特征表達(dá),降低背景的干擾。 如圖2 所示,遙感圖像背景復(fù)雜、關(guān)重部位尺度小,給檢測(cè)網(wǎng)絡(luò)帶來了不小的挑戰(zhàn)。 為提高關(guān)重部位的檢測(cè)效率,降低誤檢概率,著重利用了艦船與關(guān)重部位固有的內(nèi)在關(guān)系,具體實(shí)現(xiàn)過程如下:首先,利用F5 和F4 對(duì)艦船區(qū)域進(jìn)行感知;其次,基于F4 形成艦船區(qū)域注意力圖;最后,將注意力圖映射到C3 上,對(duì)關(guān)重部位可能出現(xiàn)的區(qū)域形成初步限制,以降低海岸線上人造物(特征與關(guān)重部位相似)的影響,進(jìn)而提高檢測(cè)精度。 為降低引入SA 模塊所帶來的計(jì)算量,參照文獻(xiàn)[23]中的做法對(duì)注意力模塊進(jìn)行構(gòu)建,處理過程如圖6 所示。 首先,對(duì)F4 進(jìn)行上采樣操作,使其尺度與C3 層保持一致;然后,采用1×1 的卷積操作降低通道數(shù),利用Sigmoid 函數(shù)生成SA 矩陣;最后,將C3 層特征圖與注意力矩陣進(jìn)行加權(quán),以增強(qiáng)艦船區(qū)域的特征顯著性。
圖6 SA 模塊的處理過程Fig.6 Process of the SA module
在FPN 中,低層特征圖分辨率高且包含豐富的細(xì)節(jié)信息,有利于小目標(biāo)的定位。 相反,高層特征圖分辨率低,但包含豐富的語義信息,有利于檢測(cè)器對(duì)目標(biāo)和干擾信號(hào)進(jìn)行區(qū)分。 C3 層特征圖經(jīng)過SA 修飾后形成F3 層特征圖。 F3 層特征圖屬于低層特征圖,包含豐富的細(xì)節(jié)信息,但缺乏語義信息,并且由于卷積層數(shù)少,特征圖難以充分表達(dá)目標(biāo)特征。 針對(duì)以上問題,借助編解碼器思想對(duì)關(guān)重部位的特征提取模塊進(jìn)行設(shè)計(jì)。 首先,利用殘差塊對(duì)F3 特征圖進(jìn)行2 次下采樣操作;然后,利用反卷積操作對(duì)特征圖的分辨率進(jìn)行恢復(fù),為防止空間信息的丟失,將經(jīng)過殘差塊的特征圖與對(duì)應(yīng)經(jīng)過反卷積操作后的特征圖進(jìn)行跳躍連接。 特征提取模塊中各層詳細(xì)的通道數(shù)、步長(zhǎng)和卷積核大小等參數(shù)設(shè)置如圖7 所示。
圖7 特征提取模塊的結(jié)構(gòu)Fig.7 Feature extraction module network structure
在初始訓(xùn)練階段,由于艦船定位不準(zhǔn)確,所構(gòu)成的SA 會(huì)對(duì)關(guān)重部位檢測(cè)造成負(fù)面影響,甚至?xí)霈F(xiàn)損失不收斂的情況。 針對(duì)上述問題,借助遷移學(xué)習(xí)[25]的思想對(duì)網(wǎng)絡(luò)進(jìn)行訓(xùn)練。 首先,利用RS-Ship數(shù)據(jù)集中的艦船目標(biāo)對(duì)YOLOv4-tiny 進(jìn)行訓(xùn)練,將得到的網(wǎng)絡(luò)參數(shù)作為YOLOv4-I 網(wǎng)絡(luò)的初始參數(shù);其次,凍結(jié)這部分參數(shù),訓(xùn)練其他網(wǎng)絡(luò)參數(shù),訓(xùn)練輪數(shù)為50;最后,開放所有卷積層,訓(xùn)練輪數(shù)為100,整個(gè)訓(xùn)練過程使用Adam 優(yōu)化器進(jìn)行優(yōu)化。
在Ubuntu18.04 系統(tǒng)中采用PyTorch 深度學(xué)習(xí)框架搭建網(wǎng)絡(luò),并使用NVIDIA GeForce GTX 1080Ti進(jìn)行加速。 為了驗(yàn)證本文所提算法的有效性,在RS-Ship 數(shù)據(jù)集上進(jìn)行了多組試驗(yàn),使用每秒處理幀數(shù)(Frame Per Second,FPS)評(píng)價(jià)算法的檢測(cè)速度,利用平均精度(Average Precision,AP)評(píng)價(jià)網(wǎng)絡(luò)的檢測(cè)性能。 FPS 和AP 計(jì)算式為:
式中,NFigure為檢測(cè)的圖像數(shù)量;Time為對(duì)應(yīng)總時(shí)間;P為準(zhǔn)確率;R為召回率。
為了評(píng)估SA 模塊和特征提取模塊對(duì)提升網(wǎng)絡(luò)檢測(cè)能力的貢獻(xiàn)度,在RS-Ship 數(shù)據(jù)集上進(jìn)行了4 組實(shí)驗(yàn)。 第1 組實(shí)驗(yàn)為原始YOLOv4-tiny 模型,第2 組實(shí)驗(yàn)為注意力增強(qiáng)型YOLOv4-tiny(YOLOv4-tiny+SA 模塊),第3 組實(shí)驗(yàn)為特征增強(qiáng)型YOLOv4-tiny(YOLOv4-tiny+特征提取模塊),第4 組實(shí)驗(yàn)為所提方法。 消融試驗(yàn)結(jié)果如表2 所示,其中“√”表示包含對(duì)應(yīng)模塊,“×”表示不包含對(duì)應(yīng)模塊。
表2 消融試驗(yàn)結(jié)果Tab.2 Results of ablation test
YOLOv4-tiny+SA 模塊在YOLOv4-tiny 基礎(chǔ)上提高了目標(biāo)特征的顯著性,降低了背景對(duì)檢測(cè)的影響,使目標(biāo)的漏檢數(shù)量大幅降低,在RS-Ship 數(shù)據(jù)集上的AP 值達(dá)到了63.68%,比YOLOv4-tiny 高8.92%。YOLOv4-tiny+特征提取模塊從提高特征表征能力的角度出發(fā),在豐富特征的同時(shí)降低了不相關(guān)信息的影響,使網(wǎng)絡(luò)的檢測(cè)能力得到提升,在RS-Ship 數(shù)據(jù)集上的AP 值達(dá)到了65. 26%,較YOLOv4-tiny 提升了10.5%。 所提方法是嵌入SA 模塊和特征提取模塊的綜合檢測(cè)模型,在RS-Ship 數(shù)據(jù)集上的AP 值達(dá)到了最優(yōu),比YOLOv4-tiny 高17.12%。
通過與SSD(VGG-16),RetinaNet[26](ResNet-50),YOLOv3,YOLOv3-tiny,YOLOv4 和YOLOv4-tiny進(jìn)行比較來驗(yàn)證本文算法的有效性,各網(wǎng)絡(luò)模型在RS-Ship 數(shù)據(jù)集上檢測(cè)的定量結(jié)果如表3所示。
表3 不同網(wǎng)絡(luò)模型檢測(cè)的定量結(jié)果Tab.3 Quantitative results of different network model detection
不同網(wǎng)絡(luò)模型的PR 曲線如圖8 所示。
圖8 不同網(wǎng)絡(luò)模型的PR 曲線Fig.8 PR curves of differentnetwork models
由表3 和圖8 可以看出,YOLOv4-I 的檢測(cè)AP值達(dá)到了71. 88%,與YOLOv4-tiny 相比,雖然增加了少量的參數(shù),但AP 值提高了17.12%,且PR 曲線更加平穩(wěn);SSD 將VGG-16 作為主干網(wǎng)絡(luò),特征提取能力弱,導(dǎo)致小尺度目標(biāo)漏檢嚴(yán)重,關(guān)重部位檢測(cè)的AP 值僅有11. 20%;RetinaNet 利用ResNet-50 網(wǎng)絡(luò)進(jìn)行特征提取,并引入FPN 進(jìn)一步豐富特征,使網(wǎng)絡(luò)的檢測(cè)能力優(yōu)于SSD,但FPN 的引入并不能完全規(guī)避小尺度目標(biāo)對(duì)網(wǎng)絡(luò)性能的影響,關(guān)重部位檢測(cè)的AP 值為60. 78%;YOLOv3 在Darknet-53 的基礎(chǔ)上引入了FPN 結(jié)構(gòu),特征提取能力得到增強(qiáng),但網(wǎng)絡(luò)的泛化能力不足,無法克服復(fù)雜背景的影響,對(duì)關(guān)重部位的檢測(cè)表現(xiàn)較為中庸,存在較多的錯(cuò)檢目標(biāo),檢測(cè)的AP 值為65. 75%;YOLOv3-tiny 和YOLOv4-tiny 的網(wǎng)絡(luò)結(jié)構(gòu)較為精簡(jiǎn),在檢測(cè)速度上表現(xiàn)十分優(yōu)秀,但由于特征提取能力不足,且僅利用下采樣步長(zhǎng)為16 和32 的特征圖進(jìn)行預(yù)測(cè),導(dǎo)致二者對(duì)小目標(biāo)的檢測(cè)效果不佳,無法滿足準(zhǔn)確度要求;YOLOv4在YOLOv3 的基礎(chǔ)上進(jìn)行改進(jìn),并綜合了多種檢測(cè)算法的優(yōu)點(diǎn),對(duì)關(guān)重部位的檢測(cè)表現(xiàn)最優(yōu),但其網(wǎng)絡(luò)結(jié)構(gòu)復(fù)雜,無法部署在小型設(shè)備上。 綜上所述,本文算法以47.78 幀/秒的實(shí)時(shí)檢測(cè)速度取得了71.88%的平均檢測(cè)精度,很好地兼顧了檢測(cè)速度和精度,且由于結(jié)構(gòu)較為簡(jiǎn)單,參數(shù)量?jī)H為8.3×1012,可以實(shí)現(xiàn)在小型設(shè)備上的部署。
各算法在RS-Ship 測(cè)試集上的部分檢測(cè)結(jié)果如圖9 所示。 可以看出,SSD 由于結(jié)構(gòu)簡(jiǎn)單,無法對(duì)目標(biāo)特征進(jìn)行充分提取,存在較多的漏檢目標(biāo);YOLOv3-tiny 和YOLOv4-tiny 對(duì)小尺度目標(biāo)并不友好,存在較大的漏檢風(fēng)險(xiǎn);RetinaNet 和YOLOv3 引入FPN 在一定程度上降低了小尺度目標(biāo)的漏檢概率,但未能克服復(fù)雜背景的影響,存在較多的錯(cuò)檢目標(biāo);YOLOv4 的檢測(cè)效果較好,錯(cuò)檢及漏檢目標(biāo)均較少;本文算法通過引入注意力模塊及特征提取模塊,有效地降低了背景的影響,使目標(biāo)特征得到充分表征,檢測(cè)表現(xiàn)與YOLOv4 較為接近。
圖9 不同算法的檢測(cè)結(jié)果Fig.9 Detection results of different algorithms
為了實(shí)現(xiàn)在小型設(shè)備上部署艦船關(guān)重部位實(shí)時(shí)檢測(cè)算法,對(duì)復(fù)雜場(chǎng)景下的艦船目標(biāo)實(shí)施更加精細(xì)化的檢測(cè),本文基于YOLOv4-tiny 提出了一種輕量化的艦船關(guān)重部位實(shí)時(shí)檢測(cè)算法。 該方法通過優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu)及引入注意力機(jī)制,增強(qiáng)了網(wǎng)絡(luò)對(duì)目標(biāo)的感知能力;對(duì)關(guān)重部位的特征提取模塊進(jìn)行特殊設(shè)計(jì),進(jìn)一步提高了網(wǎng)絡(luò)的表征能力,進(jìn)而提高檢測(cè)精度。 試驗(yàn)結(jié)果表明,YOLOv4-I 在保證模型體積較小的情況下,針對(duì)復(fù)雜場(chǎng)景中的艦船關(guān)重部位,可以有效地兼顧檢測(cè)的精度和速度。