朱興動(dòng),汪 丁,范加利,王 正,黃 葵
1.海軍航空大學(xué),山東 煙臺(tái) 264001
2.海軍航空大學(xué) 青島校區(qū),山東 青島 266041
隨著計(jì)算機(jī)視覺技術(shù)的迅速發(fā)展,相對(duì)成熟的理論促進(jìn)了工程應(yīng)用的快速落地,圖像檢測(cè)技術(shù)在交通以及工業(yè)制造領(lǐng)域都已經(jīng)得到了廣泛應(yīng)用,也是裝備自動(dòng)化的核心技術(shù)之一[1]。航母作為軍事大國的象征,其戰(zhàn)爭(zhēng)實(shí)力和威懾力都得到了世界各國的認(rèn)可,作為海上艦載飛機(jī)起降平臺(tái),其特點(diǎn)主要表現(xiàn)為艦面空間有限,人員及設(shè)備繁多,電磁環(huán)境復(fù)雜多變,因而傳統(tǒng)方法很難滿足各種環(huán)境下目標(biāo)檢測(cè)與識(shí)別的要求。艦面多類目標(biāo)的檢測(cè)與識(shí)別是艦面保障工作的數(shù)據(jù)入口之一,將為艦面目標(biāo)定位以及路徑規(guī)劃提供目標(biāo)信息支撐,對(duì)保障艦面裝備人員安全和提升艦載飛機(jī)的調(diào)運(yùn)效率有重要的意義[2]。
傳統(tǒng)的目標(biāo)檢測(cè)算法都采用人工設(shè)計(jì)的特征進(jìn)行檢測(cè),存在較多短板,不僅在候選框的選取上采取低效的枚舉方法,而且需要大量的時(shí)間和算力。面對(duì)場(chǎng)景復(fù)雜多變的艦面,人工設(shè)計(jì)的特征在此類場(chǎng)景下的魯棒性較差,難以滿足要求。近年來,深度學(xué)習(xí)算法在圖像目標(biāo)檢測(cè)領(lǐng)域得到了廣泛的應(yīng)用。當(dāng)前,滿足在復(fù)雜背景條件下檢測(cè)與識(shí)別要求的深度學(xué)習(xí)算法主要有R-CNN系列(region convolutional neural network),SSD 系列(single shot multibox detector)以及YOLO(you only look once)系列[3]。R-CNN系列是基于Two-Stage模式,首先產(chǎn)生目標(biāo)候選框,然后再對(duì)候選框進(jìn)行分類和回歸處理,這種模式精度較高,但同時(shí)每個(gè)候選區(qū)域進(jìn)行特征提取會(huì)產(chǎn)生大量重復(fù)的運(yùn)算,速度較慢,無法滿足后期動(dòng)態(tài)目標(biāo)檢測(cè)實(shí)時(shí)性的要求。YOLO 系列和SSD 系列都屬于One-Stage 模式,這類算法直接進(jìn)行分類和回歸分析,檢測(cè)速度更快,如圖1所示,但SSD系列會(huì)隨著圖片規(guī)格的增加運(yùn)行效率顯著下降。在實(shí)際應(yīng)用中,往往要求在精度不太低的情況下同時(shí)滿足實(shí)時(shí)檢測(cè)的需要,因此YOLO系列使用得更加廣泛。
圖1 YOLOv3算法檢測(cè)流程Fig.1 Detection process of YOLOv3 algorithm
YOLO 系列算法是Redmon 等人[4]提出的目標(biāo)檢測(cè)算法,目前以發(fā)展到V4 版本。YOLOv3 的網(wǎng)絡(luò)結(jié)構(gòu)主要是有骨干網(wǎng)絡(luò)(Darknet-53)和特征金字塔網(wǎng)絡(luò)(FPN)網(wǎng)絡(luò)以及輸出層[5]。其中,Darknet-53網(wǎng)絡(luò)是V2版本中Darknet-19 的替代品,采用使用CNN+BN+LeakyReLU(convolutional neural networks,batch normalization,LeakyReLU)的卷積塊代替池化操作實(shí)現(xiàn)降采樣,構(gòu)成了一個(gè)53 層的卷積神經(jīng)網(wǎng)絡(luò),提取出13×13、26×26 及52×52尺度的特征層,可以在實(shí)現(xiàn)降低計(jì)算量的同時(shí)減少了池化產(chǎn)生的低級(jí)特征的丟失。
在網(wǎng)絡(luò)結(jié)果輸出時(shí)利用非極大抑制算法對(duì)輸出的預(yù)測(cè)結(jié)果進(jìn)行篩選,對(duì)每一個(gè)預(yù)測(cè)中心僅保留置信最高的唯一候選框作為最終的目標(biāo)檢測(cè)框,并在圖像上繪制出目標(biāo)的預(yù)測(cè)框,網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。
圖2 YOLOv3算法結(jié)構(gòu)Fig.2 Structure of YOLOv3 algorithm
YOLOv3算法已經(jīng)是一款較為成熟的算法,其在檢測(cè)速率和準(zhǔn)確度上都有較好的成績(jī)。但YOLOv3 原作者檢測(cè)的目標(biāo)主要是汽車、人以及街道等目標(biāo)和背景,而對(duì)于特定的目標(biāo)識(shí)別效果并不能達(dá)到原文效果,因此仍需要根據(jù)目標(biāo)和背景等場(chǎng)景信息進(jìn)行針對(duì)性的增強(qiáng)。艦面場(chǎng)景復(fù)雜且存在飛機(jī)、車輛以及人員等多個(gè)種類,各類型號(hào)也存在差異,而且作為移動(dòng)平臺(tái)對(duì)光照等環(huán)境因素的魯棒性要求較高。根據(jù)艦面目標(biāo)的分布情況,將場(chǎng)景分為單一目標(biāo),多目標(biāo)以及密集目標(biāo),如圖3所示。通過實(shí)驗(yàn)分析,YOLOv3算法在單一目標(biāo)識(shí)別上基本正確,在多目標(biāo)識(shí)別上會(huì)出現(xiàn)遠(yuǎn)處目標(biāo)丟失的情況,而在密集目標(biāo)上出現(xiàn)了大量漏檢和誤檢的情況。因此,本文針對(duì)檢測(cè)艦面復(fù)雜場(chǎng)景下的多類目標(biāo)做了具體增強(qiáng)。
圖3 三類場(chǎng)景Fig.3 Three kinds of scenarios
深層神經(jīng)網(wǎng)絡(luò)訓(xùn)練需要大量訓(xùn)練數(shù)據(jù)才能取得相對(duì)較為理想的效果,但在艦面數(shù)據(jù)樣本有限的情況下,可以通過數(shù)據(jù)增強(qiáng)豐富樣本的信息,避免訓(xùn)練時(shí)出現(xiàn)過擬合,提高模型的魯棒性和泛化能力[8]。
數(shù)據(jù)增強(qiáng)主要是通過對(duì)圖片的大小、比例、亮度、對(duì)比度、飽和度以及色調(diào)等參數(shù)進(jìn)行調(diào)整,利用不同形狀和色彩的圖像降低模型對(duì)實(shí)驗(yàn)條件的依賴性,提高模型在不同環(huán)境下的檢測(cè)能力[9]。常用的數(shù)據(jù)增強(qiáng)方法有CutMix 和Mosaic 等。CutMix 的處理方式比較簡(jiǎn)單,在基本的圖片變換基礎(chǔ)上,隨機(jī)生成一個(gè)裁剪框Box,將黑色遮擋框填入該區(qū)域形成新的樣本,計(jì)算損失時(shí)同樣采用加權(quán)求和的方式進(jìn)行求解,如圖4(c)所示。Mosaic方法是一次讀取4 張圖片,分別對(duì)每張圖片進(jìn)行翻轉(zhuǎn)、縮放和色彩變換等操作后,將4張圖片和圖中的標(biāo)注框進(jìn)行組合,在同一圖片中實(shí)現(xiàn)多背景下多目標(biāo)的組合,如圖4(b)、(d)所示。在Mosaic 數(shù)據(jù)增強(qiáng)方法中,在原數(shù)據(jù)集的范圍內(nèi)隨機(jī)選取一張圖片,并將其后的3張圖片一起進(jìn)行圖像處理后拼接,該方法存在隨機(jī)組合不充分及重復(fù)選取等問題。
圖4 數(shù)據(jù)增強(qiáng)效果Fig.4 Effect of data argumentation
本文針對(duì)艦面監(jiān)控區(qū)域背景類別多、環(huán)境變化大、目標(biāo)互相遮擋較為嚴(yán)重的情況,提出了一種數(shù)據(jù)增強(qiáng)的組合方法,同時(shí)注重背景復(fù)雜和目標(biāo)遮擋兩個(gè)方面。
其中,Ai表示第i張?jiān)鰪?qiáng)的圖,Sq表示q第類數(shù)據(jù)集,q1和qn表示第q類數(shù)據(jù)集的始末序號(hào),Bk表示圖像變換組合,k表示變換組合方式。
在網(wǎng)絡(luò)模型讀取圖片時(shí),通過改進(jìn)圖片選取方法,根據(jù)設(shè)定圖片的組合方式,從數(shù)據(jù)集中獨(dú)立選取四張圖片,翻轉(zhuǎn)、縮放、色域及遮擋變換后組合成一張新的圖片送入網(wǎng)絡(luò)中訓(xùn)練,如公式(2)所示。將目標(biāo)根據(jù)類型分為q類數(shù)據(jù)集,在訓(xùn)練時(shí)可以根據(jù)需要設(shè)定增強(qiáng)的目標(biāo)類型,也可以對(duì)所有類目標(biāo)進(jìn)行增強(qiáng),如公式(3)所示。
通過改進(jìn)數(shù)據(jù)增強(qiáng)策略,使圖片的選取方式、變換方式以及組合方式都得到了豐富,以增強(qiáng)網(wǎng)絡(luò)模型的魯棒性,也是解決小樣本訓(xùn)練的一個(gè)有效途徑[6]。
由于各類艦面目標(biāo)尺寸及比例差異都較大,而YOLOv3 算法中原始設(shè)定的先驗(yàn)框尺寸只要是面向行人和汽車等通用目標(biāo),而無法滿足艦面目標(biāo)檢測(cè)的要求[10]。因此需要使用K-means 聚類算法[11]對(duì)艦面目標(biāo)數(shù)據(jù)集進(jìn)行聚類分析,得到與之適配的先驗(yàn)錨框尺寸(anchor box)。
先驗(yàn)錨框是從訓(xùn)練集的所有g(shù)round truth box中統(tǒng)計(jì)出來的在訓(xùn)練集中最經(jīng)常出現(xiàn)的box 形狀和尺寸。YOLOv3算法沿用了YOLO算法中的anchor box方法,但是將數(shù)量增加到9個(gè),輸出3個(gè)不同大小的特征圖,從小到大分別對(duì)應(yīng)深層、中層和淺層的特征。特征圖的尺寸越小,感受野越大,利于檢測(cè)大尺度物體,而淺層特征圖相反,感受野較小,利于檢測(cè)小物體。通過聚類分析調(diào)整anchor box 的尺寸大小從而可以使網(wǎng)絡(luò)在訓(xùn)練時(shí)具有更快的收斂速度,用于初始化預(yù)測(cè)邊界框的寬度和高度,同時(shí)也可以提高目標(biāo)檢測(cè)的精度[12]。
在VOC 數(shù)據(jù)集中,標(biāo)注完成的圖片目標(biāo)主要有括xmin、ymin、xmax、ymax這4 個(gè)位置參數(shù),由此可以獲得目標(biāo)的寬w與高h(yuǎn),如公式(4)和(5)所示:
對(duì)數(shù)據(jù)集中所有的目標(biāo)信息進(jìn)行遍歷,獲取全部寬高信息后,隨機(jī)選取K個(gè)點(diǎn)作為聚類分析的初始聚類中心,本文中K值根據(jù)需要設(shè)定為9。然后將計(jì)算每一個(gè)目標(biāo)到每一個(gè)聚類中心的距離。在算法中利用目標(biāo)和聚類中心的IoU 值衡量距離關(guān)系[13],當(dāng)IoU 的值越大時(shí),表示距離d越小,如公式(6)所示:
依次比較每一個(gè)對(duì)象到每一個(gè)聚類中心的距離,并將對(duì)象分配到距離最近的聚類中心所在類簇中,至此形成了9 個(gè)類簇。然后將每一個(gè)類簇中所有對(duì)象的各個(gè)維度的均值設(shè)為新的類簇中心,即為下一輪聚類的中心,如公式(7)所示:
其中,yt表示第t個(gè)聚類的中心,| |Ct表示第t個(gè)類簇中對(duì)象的數(shù)量,xi是Ct類簇中的第i個(gè)對(duì)象,t表示寬與高兩個(gè)屬性。
根據(jù)以上順序繼續(xù)迭代,進(jìn)行目標(biāo)點(diǎn)的分配和類簇中心點(diǎn)的更新,直至類簇中心點(diǎn)的變化趨于收斂,或者達(dá)到指定的迭代次數(shù)。
本文對(duì)艦面數(shù)據(jù)集聚類分析得到了9個(gè)聚類中心,歸一化后的聚類分布如圖5 所示。聚類分析中因?yàn)槌跏季垲愔行牡牟淮_定性等因素,每次聚類分析的結(jié)果并不一致。為消除隨機(jī)初始聚類中心帶來的波動(dòng),因此在實(shí)驗(yàn)中對(duì)數(shù)據(jù)集進(jìn)行了10 次聚類分析,剔除波動(dòng)較大的數(shù)據(jù)后取均值,數(shù)據(jù)平均的總體方差控制在0.1以下,得到了較為穩(wěn)定的結(jié)果,如圖6 所示,與目標(biāo)的匹配精度由原始anchor box的73.61%提高到78.94%。
圖5 聚類分布Fig.5 Clustering distribution
圖6 平均IOU變化Fig.6 Average IOU changes
經(jīng)過聚類分析后得到了9組寬高數(shù)據(jù),按照聚類框的大小分為3個(gè)組,特征圖為13×13時(shí)感受野最大,因此采用最大的anchor box尺寸,特征圖為52×52時(shí)感受野最小,因此采用最小的anchor box尺寸,對(duì)應(yīng)結(jié)果如表1所示。然后將anchor box 尺寸根據(jù)對(duì)應(yīng)特征圖的大小進(jìn)行調(diào)整后便可以更新到模型參數(shù)中進(jìn)行訓(xùn)練。
表1 調(diào)整后的先驗(yàn)框Table 1 Adjusted prior box
相對(duì)于艦面單目標(biāo)和多目標(biāo)的檢測(cè),密集場(chǎng)景的出現(xiàn)給算法帶來了新的問題。當(dāng)固定區(qū)域的目標(biāo)增加到一定數(shù)量時(shí),尺寸和形狀不同的目標(biāo)勢(shì)必會(huì)出現(xiàn)互相遮擋的問題[14]。傳統(tǒng)的YOLOv3 算法在檢測(cè)框選擇上采用的是非極大抑制(non-maximum suppression,NMS)方法[15],當(dāng)存在被遮擋物體時(shí),算法會(huì)識(shí)別其為重疊框并將其置信度歸零,導(dǎo)致其無法檢測(cè)出,如公式(8)所示:
其中Si表示當(dāng)前檢測(cè)框的得分,Nt為IOU的閾值,M為得分最高的檢測(cè)框,bi表示當(dāng)前檢測(cè)框,σ為人工設(shè)定的參數(shù)。
在使用軟高斯函數(shù)的時(shí)候,σ參數(shù)的設(shè)定將會(huì)決定算法對(duì)重復(fù)框的懲罰強(qiáng)度。在目標(biāo)單一時(shí),較小的σ參數(shù)會(huì)有較好的效果,但在復(fù)雜的遮擋情況下,過小σ同樣會(huì)將遮擋目標(biāo)的得分懲罰至閾值以下導(dǎo)致丟失[17]。為了解決單一目標(biāo)和復(fù)雜目標(biāo)狀態(tài)下不同的σ參數(shù)抑制效果不同的情況,文中設(shè)定一個(gè)線性函數(shù),根據(jù)圖像中的目標(biāo)密集情況進(jìn)行對(duì)參數(shù)調(diào)整,使其在簡(jiǎn)單情況時(shí)具有較好的抑制能力,在復(fù)雜目標(biāo)情況時(shí)減少因過度抑制導(dǎo)致的目標(biāo)丟失,如公式(11)所示:
其中σ0為初始參數(shù),N為該類目標(biāo)的檢測(cè)框數(shù)量,ω為比例系數(shù)。
在圖7(a)中,圖片中間plane1型灰色目標(biāo)及右上角plane1型灰黃色目標(biāo)沒有被識(shí)別出來,在經(jīng)過改進(jìn)的非極大抑制處理后,重疊框被懲罰而被遮擋目標(biāo)被識(shí)別出來,如圖7(b)所示。通過非極大抑制算法的改進(jìn),有效減小了因閾值設(shè)定導(dǎo)致檢測(cè)目標(biāo)漏檢或者目標(biāo)重復(fù)識(shí)別等問題,有效提升了網(wǎng)絡(luò)的檢測(cè)性能。
圖7 改進(jìn)的非極大抑制效果對(duì)比Fig.7 Comparison of improved non-maximal inhibitory effects
本實(shí)驗(yàn)環(huán)境根據(jù)等比目標(biāo)模型進(jìn)行搭建,對(duì)相關(guān)模型進(jìn)行自行組裝上色,盡可能還原真實(shí)場(chǎng)景。實(shí)驗(yàn)中使用了多個(gè)艦載飛機(jī)模型以及配套的牽引車和地勤工作人員模型,具有相對(duì)復(fù)雜的場(chǎng)景信息。通過工業(yè)相機(jī)(型號(hào)為GigE GE500C-T)在多個(gè)角度進(jìn)行拍攝,獲取分辨率為1 280×720的.jpg格式圖像。再通過YOLO系列算法常用的數(shù)據(jù)集標(biāo)注工具LabelImg 手工標(biāo)注圖像中目標(biāo)的矩形框坐標(biāo)以及標(biāo)簽值,并生成相對(duì)應(yīng)的.xml配置文件??偣膊杉? 000張左右不同角度和狀態(tài)下艦面目標(biāo)的圖像,各類目標(biāo)的數(shù)量如表2 所示,并將其轉(zhuǎn)化為目標(biāo)檢測(cè)常用的PASCAL VOC數(shù)據(jù)集格式送入網(wǎng)絡(luò)訓(xùn)練。
表2 實(shí)驗(yàn)數(shù)據(jù)集Table 2 Experimental dataset
本實(shí)驗(yàn)中網(wǎng)絡(luò)的訓(xùn)練環(huán)境:系統(tǒng)是Ubuntu16.04,CPU 是Intel Xeon Silver 4110,GPU 是NVIDIA P4000(8 GB 顯存),深度學(xué)習(xí)框架是TensorFlow 1.10,Python版本為3.6,迭代輪數(shù)為50,初始學(xué)習(xí)率為0.000 1,結(jié)束學(xué)習(xí)率為0.000 001,設(shè)置5 種類型的檢測(cè)目標(biāo),訓(xùn)練的Loss曲線如圖8所示。
圖8 Loss曲線Fig.8 Loss curve
為了評(píng)價(jià)艦面目標(biāo)檢測(cè)網(wǎng)絡(luò)的有效性,選取以下指標(biāo)進(jìn)行評(píng)價(jià)。
(1)查準(zhǔn)率(precision,P)和召回率(recall,R),其中查準(zhǔn)率表示網(wǎng)絡(luò)檢測(cè)到正樣本數(shù)量占檢測(cè)到所有樣本的比率,召回率指網(wǎng)絡(luò)檢測(cè)到的正樣本數(shù)量占標(biāo)記真實(shí)樣本數(shù)量的比率。計(jì)算公式如下:
其中,真正樣本(ture positive,TP)表示檢測(cè)到的目標(biāo)類別與真實(shí)目標(biāo)類別一致的樣本數(shù)量;假正樣本(false positive,F(xiàn)P)表示檢測(cè)到的目標(biāo)類別與真實(shí)目標(biāo)類別不一致的樣本數(shù)量;假負(fù)樣本(false negative,F(xiàn)N)表示真實(shí)存在但未被網(wǎng)絡(luò)檢測(cè)出的樣本數(shù)量。
(2)平均準(zhǔn)確率均值(mean average precision,mAP)是一種多標(biāo)簽圖像分類任務(wù)的評(píng)價(jià)方法。理想的檢測(cè)網(wǎng)絡(luò)的準(zhǔn)確率和召回率應(yīng)當(dāng)都保持在較高的水平,但實(shí)際上隨著閾值變化兩個(gè)值并不都是正相關(guān)變化的,召回率與查準(zhǔn)率呈現(xiàn)負(fù)相關(guān)變化,所以通常采取的方法是將準(zhǔn)確率和召回率所形成的PR(precision-recall)所圍成的最大面積作為最優(yōu)解,圍成的面積便用AP 來衡量,而所有類的AP的均值就是mAP。AP和mAP的計(jì)算公式為:
其中P(R)為準(zhǔn)確率-召回率曲線,0~1表示閾值變化范圍。
(3)幀率(frames per second,F(xiàn)PS)是每秒鐘預(yù)測(cè)圖片的數(shù)量,用來表示算法的實(shí)時(shí)性。
為了進(jìn)一步測(cè)評(píng)該模型的性能,對(duì)比了Faster R-CNN算法、原YOLOv3算法和增強(qiáng)的YOLOv3算法。運(yùn)用相同的策略和數(shù)據(jù)集訓(xùn)練模型,對(duì)每種模型進(jìn)行多次測(cè)試并取均值,以查準(zhǔn)率、召回率、準(zhǔn)確率和幀率作為檢測(cè)效果的評(píng)價(jià)指標(biāo),結(jié)果如表3 所示。實(shí)驗(yàn)結(jié)果表明,增強(qiáng)的YOLOv3算法在艦面復(fù)雜場(chǎng)景下,相比于原YOLOv3算法,在滿足實(shí)時(shí)性要求的前提下,整體準(zhǔn)確率得到了較大提升。
表3 算法效果對(duì)比Table 3 Comparison of algorithm effects
在檢測(cè)效果上,對(duì)比圖9和圖10,圖9中漏檢了右上角遠(yuǎn)處的plane1、圖片中間被遮擋的兩個(gè)plane3 和小目標(biāo)person 等4 個(gè)目標(biāo),且在左下角的plane1 處存在重復(fù)檢測(cè),在圖10 中兩個(gè)問題得以解決并且檢測(cè)框的位置和大小也更加合理。其中,單個(gè)目標(biāo)輸入圖像及3個(gè)通道的卷積層仿真對(duì)比如圖11所示。
圖9 原YOLOv3效果Fig.9 Original YOLOv3 effect
圖10 增強(qiáng)YOLOv3效果Fig.10 Enhanced YOLOv3 effect
圖11 卷積層仿真圖Fig.11 Convolutional layer simulation diagram
如表4 所示,增強(qiáng)的YOLOv3 算法在各類目標(biāo)上準(zhǔn)確率都有較大的提升,尤其是在小目標(biāo)的檢測(cè)效果提升較為明顯。通過圖12 可以看出,各類目標(biāo)雖然都有較大的提升,但目標(biāo)由大到小都呈現(xiàn)出準(zhǔn)確率降低的趨勢(shì)。
圖12 算法準(zhǔn)確率對(duì)比Fig.12 Comparison of algorithm accuracy
表4 算法效果對(duì)比Table 4 Comparison of algorithm effects %
本文共采取了3 個(gè)方面的策略對(duì)YOLOv3 算法進(jìn)行了增強(qiáng),網(wǎng)絡(luò)模型性能得到較大提升。下面通過開展消融實(shí)驗(yàn)分析各個(gè)策略對(duì)網(wǎng)絡(luò)模型的影響,結(jié)果如表5所示。
表5 消融實(shí)驗(yàn)對(duì)比Table 5 Comparison of ablation experiments%
在表5 中,YOLOv3 表示原YOLOv3 算法,數(shù)據(jù)表示采用數(shù)據(jù)增強(qiáng)策略,聚類表示采用聚類分析策略,非極大表示采用改進(jìn)的非極大抑制方法,增強(qiáng)YOLOv3表示采用本文增強(qiáng)方法后YOLOv3算法。
在P-R曲線中,曲線上的點(diǎn)為某一閾值下的查準(zhǔn)率和召回率,其顯示的是分類器上查準(zhǔn)率與召回率之間的權(quán)衡,只有在一個(gè)相對(duì)平衡點(diǎn)確保曲線所圍成的面積最大時(shí)才能保證模型的性能最佳,或者查準(zhǔn)率和召回率同時(shí)的提高也表現(xiàn)為準(zhǔn)確率(AP)的提升[18]。
在相同閾值的情況下經(jīng)過實(shí)驗(yàn)可以得出,數(shù)據(jù)增強(qiáng)方法和非極大抑制方法對(duì)召回率有較大提升,表明其在增強(qiáng)檢測(cè)能力及減少漏檢上有重要作用,而聚類方法對(duì)查準(zhǔn)率有較大提升,表明與目標(biāo)相匹配的先驗(yàn)框在提升查準(zhǔn)率上的重要作用。綜上所述,增強(qiáng)的算法通過數(shù)據(jù)增強(qiáng)使網(wǎng)絡(luò)模型抗背景干擾的能力得到了改善,聚類分析讓檢測(cè)框的匹配準(zhǔn)確率得到提升,而改進(jìn)的非極大抑制方法有效減少了檢測(cè)中因遮擋產(chǎn)生的漏檢等問題。
本文針對(duì)艦面復(fù)雜場(chǎng)景下的多類目標(biāo)檢測(cè)問題,通過融合裁剪、色域變換、遮擋、形狀變換多種方式以及分類的樣本組合方式,數(shù)據(jù)增強(qiáng)策略使訓(xùn)練樣本得到倍數(shù)級(jí)豐富,尤其是對(duì)小樣本訓(xùn)練有較大幫助。通過大量實(shí)驗(yàn)數(shù)據(jù)獲取到了總體方差在0.1以下的9類穩(wěn)定先驗(yàn)錨框,提高了模型在訓(xùn)練中的收斂速度和對(duì)艦面目標(biāo)物體的框選精度。改進(jìn)的非極大抑制方法通過線性函數(shù)對(duì)抑制參數(shù)進(jìn)行調(diào)節(jié),有效解決了目標(biāo)遮擋和目標(biāo)漏檢等問題,檢測(cè)率提高到了95.24%,幀率達(dá)到21.5 frame/s。實(shí)驗(yàn)結(jié)果表明,本文提出的方法在艦面復(fù)雜場(chǎng)景下提高了密集目標(biāo)的檢測(cè)能力,也可以滿足實(shí)時(shí)性的要求,且具有較好的魯棒性。