湯 淼, 閆文君,2, 方 偉,2, 譚凱文
(1.海軍航空大學(xué), 山東 煙臺(tái) 264001;2.海戰(zhàn)場(chǎng)信息感知與融合技術(shù)國(guó)家級(jí)實(shí)驗(yàn)教學(xué)中心, 山東 煙臺(tái) 264001)
戰(zhàn)斗機(jī)作為當(dāng)今世界奪取制空權(quán)的重要裝備,其自身降落的安全性是世界軍事強(qiáng)國(guó)十分關(guān)注的問(wèn)題之一,容易受到天氣、裝備自身完好性、飛行員操縱時(shí)機(jī)等多個(gè)方面因素的影響。其中,起落架收放狀態(tài)是飛行員和陸基指揮人員在戰(zhàn)斗機(jī)降落過(guò)程中高度關(guān)注的問(wèn)題,偶發(fā)的錯(cuò)誤將對(duì)人員、裝備帶來(lái)不可挽回的損失。因此,對(duì)起落架的狀態(tài)進(jìn)行實(shí)時(shí)檢測(cè)能有效提高戰(zhàn)斗機(jī)降落的安全性,減少不必要的非戰(zhàn)斗損毀。
近年來(lái),基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法因能夠自動(dòng)地從圖像中提取目標(biāo)的特征,具有學(xué)習(xí)能力強(qiáng)且識(shí)別速度快、精度高等優(yōu)點(diǎn),已得到大量廣泛應(yīng)用。目前,主要流行的目標(biāo)檢測(cè)算法可以分為基于候選區(qū)域的兩階段檢測(cè)算法和基于邊界框回歸的單階段檢測(cè)算法。兩階段的代表算法主要有R-CNN[1-2]、Fast R-CNN[3]和Faster R-CNN[4],單階段的代表算法主要有SSD[5]和YOLO[6]系列算法。其中,F(xiàn)aster R-CNN精確度最高,但檢測(cè)速度很慢,不能滿足實(shí)時(shí)性的要求;SSD算法的檢測(cè)性能最低;YOLOv1在速度上表現(xiàn)不錯(cuò),但對(duì)小物體泛化能力較弱。YOLOv2檢測(cè)精度和速度都超過(guò)了上一代,但檢測(cè)精度的提升并不明顯。YOLOv3[7]在檢測(cè)精度和速度之間取得了平衡。與YOLOv3相比,YOLOv4[8]擁有更高的精確度而且檢測(cè)速度也沒(méi)有下降。YOLOv5的訓(xùn)練速度更快,更易于部署。在YOLOv5的改進(jìn)方面,文獻(xiàn)[9]改進(jìn)了損失函數(shù)并在殘差塊中嵌入坐標(biāo)注意力機(jī)制來(lái)提高對(duì)艦船目標(biāo)的檢測(cè)效果。文獻(xiàn)[10]在SPP結(jié)構(gòu)中引入隨機(jī)池化,利用BiFPN結(jié)構(gòu)進(jìn)行多尺度特征融合同時(shí)應(yīng)用ELU激活函數(shù)提高模型魯棒性。
盡管這些算法在很多特定的數(shù)據(jù)集中取得了不錯(cuò)的效果,但在戰(zhàn)斗機(jī)起落架檢測(cè)上仍會(huì)面臨許多的挑戰(zhàn)。一是視頻數(shù)據(jù)本身就不太清晰,導(dǎo)致截幀后的圖像質(zhì)量較差;二是戰(zhàn)斗機(jī)的運(yùn)動(dòng)會(huì)導(dǎo)致截取的圖片中起落架發(fā)生一定程度的變形;三是戰(zhàn)斗機(jī)降落時(shí)間短,對(duì)起落架的檢測(cè)需要較高的實(shí)時(shí)性和精度。
本文在YOLOv5檢測(cè)模型的基礎(chǔ)上進(jìn)行改進(jìn),首先,對(duì)視頻進(jìn)行截幀處理得到戰(zhàn)斗機(jī)降落的圖像數(shù)據(jù),通過(guò)引入自動(dòng)色彩均衡算法(ACE)[11-12]提高圖像的清晰度;然后,在YOLOv5的主干特征提取網(wǎng)絡(luò)提取出的三個(gè)有效特征層上施加超強(qiáng)通道注意力模塊(ECA-Net)[13]來(lái)提高檢測(cè)性能,在自制的戰(zhàn)斗機(jī)起落架數(shù)據(jù)集上進(jìn)行訓(xùn)練;最后,用訓(xùn)練得到的模型對(duì)戰(zhàn)斗機(jī)起落架圖片進(jìn)行檢測(cè)。
采集得到的戰(zhàn)斗機(jī)降落的視頻數(shù)據(jù)經(jīng)過(guò)截幀處理后圖像質(zhì)量不能得到很好的保證,惡劣的圖像數(shù)據(jù)會(huì)影響起落架的檢測(cè)效果,因此需要對(duì)視頻圖像進(jìn)行增強(qiáng)。
目前幾類典型的通過(guò)調(diào)整圖像的像素值來(lái)改變圖像質(zhì)量的算法主要有直方圖均衡化(HE)[14-15]、帶色彩恢復(fù)的多尺度視網(wǎng)膜增強(qiáng)(MSRCR)[16]以及自動(dòng)色彩均衡等方法。直方圖均衡化主要是通過(guò)改變圖像的直方圖來(lái)改變圖像中各像素的灰度來(lái)達(dá)到增強(qiáng)圖像對(duì)比度的目的,可以將過(guò)亮和過(guò)暗的圖像變得更加清晰。MSRCR算法通過(guò)色彩恢復(fù)因子,調(diào)整原圖像中3個(gè)顏色通道之間的比例關(guān)系,將相對(duì)較暗區(qū)域的信息凸顯出來(lái),達(dá)到提高圖像局部對(duì)比度的目的,使圖像在人眼視覺(jué)感知中變得更加逼真。ACE考慮圖像中顏色與亮度的空間位置關(guān)系,利用像素點(diǎn)之間的亮度差值來(lái)校正像素值。首先,通過(guò)對(duì)圖像的色彩域和空域調(diào)整,完成圖像的色差校正,得到空域重構(gòu)圖像。計(jì)算公式為
(1)
式中:Rc(p)是中間結(jié)果;Ic(p)-Ic(j)為2個(gè)點(diǎn)的亮度差;d(p,j)表示距離度量函數(shù);r(*)為亮度表現(xiàn)函數(shù),需要是奇函數(shù),這一步可以適應(yīng)局部圖像對(duì)比度,r(*)可以放大較小的差異,并豐富大的差異,根據(jù)局部?jī)?nèi)容擴(kuò)展或者壓縮動(dòng)態(tài)范圍。一般的,r(*)為
(2)
接著,對(duì)校正后的圖像進(jìn)行動(dòng)態(tài)擴(kuò)展,對(duì)于RGB三個(gè)通道的彩色圖像需要對(duì)每一個(gè)色道都進(jìn)行處理,再合并成一幅完整的圖像。最后,將其映射到[0,255]空間。ACE能夠較好地處理圖像細(xì)節(jié),實(shí)現(xiàn)色彩校正以及提升圖像亮度和對(duì)比度,具有很好的圖像增強(qiáng)效果。
YOLOv5是YOLO系列的最新一代目標(biāo)檢測(cè)網(wǎng)絡(luò),由Ultralytics于2020年5月提出。YOLOv5網(wǎng)絡(luò)目前有四種結(jié)構(gòu),分別是YOLOv5s、YOLOv5m、YOLOv5l、YOLOv5x。本文選擇YOLOv5s模型作為檢測(cè)模型進(jìn)行實(shí)驗(yàn),結(jié)構(gòu)上可以分為輸入端、Backbone、Neck、Prediction四個(gè)部分,具體的網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。
圖1 YOLOv5網(wǎng)絡(luò)結(jié)構(gòu)示意圖
YOLOv5s輸入端為640×640×3的圖像,利用Mosaic算法將四張圖片進(jìn)行拼接實(shí)現(xiàn)數(shù)據(jù)增強(qiáng),豐富了檢測(cè)對(duì)象的背景,加強(qiáng)模型的特征提取能力,有利于提升模型的檢測(cè)性能。Backbone采用CSPDarknet作為主干特征提取網(wǎng)絡(luò),它通過(guò)Focus模塊進(jìn)行切片操作在一張圖片中每隔一個(gè)像素得到一個(gè)值,從而獲得四個(gè)獨(dú)立的特征層,然后再將四個(gè)獨(dú)立的特征層進(jìn)行堆疊,實(shí)現(xiàn)了寬高的壓縮和通道數(shù)的擴(kuò)張,得到320×320×12的特征圖。使用CBS(Conv+BN+SiLU)和帶有殘差塊的CSP_1X結(jié)構(gòu),CBS模塊中的SiLU激活函數(shù)具有無(wú)上界有下界、平滑和非單調(diào)的特性,對(duì)深層模型的效果要好于ReLU激活函數(shù);CSP_1X內(nèi)部的殘差塊使用了跳躍連接,緩解了因網(wǎng)絡(luò)深度的增加帶來(lái)的梯度消失問(wèn)題。同時(shí),還加入了空間特征金字塔SPP[17]結(jié)構(gòu),提高網(wǎng)絡(luò)的感受野。經(jīng)過(guò)主干特征網(wǎng)絡(luò)的提取,最終得到的三個(gè)有效特征圖的尺寸分別為80×80×256、40×40×512和20×20×1 024。
YOLOv5中依然采用PANet[18]結(jié)構(gòu),主干部分獲得的三個(gè)有效特征層在加強(qiáng)特征提取網(wǎng)絡(luò)中進(jìn)行特征融合,結(jié)合不同尺度的特征信息,不僅會(huì)對(duì)特征進(jìn)行上采樣實(shí)現(xiàn)特征融合,還會(huì)對(duì)特征再次進(jìn)行下采樣實(shí)現(xiàn)特征融合,避免了大量信息的丟失。在目標(biāo)檢測(cè)預(yù)測(cè)結(jié)果處理階段,主要完成對(duì)圖像特征的預(yù)測(cè)以此來(lái)生成邊界框和預(yù)測(cè)目標(biāo)種類。
YOLOv5使用K-means聚類算法聚類訓(xùn)練集中所有目標(biāo)框的寬、高,默認(rèn)的先驗(yàn)框尺寸是在VOC數(shù)據(jù)集上聚類得到的,然而在戰(zhàn)斗機(jī)降落的視頻圖像數(shù)據(jù)集上需要檢測(cè)的目標(biāo)種類只有起落架一類,為提高對(duì)起落架的檢測(cè)精度,重新對(duì)本文數(shù)據(jù)集中目標(biāo)的寬和高進(jìn)行聚類分析,得到合適的先驗(yàn)框尺寸。首先對(duì)已標(biāo)注的數(shù)據(jù)集進(jìn)行聚類,不斷增加聚類中心的個(gè)數(shù),經(jīng)過(guò)迭代,計(jì)算每個(gè)數(shù)據(jù)到每個(gè)聚類中心的距離,距離計(jì)算公式為
d=1-IoU
(3)
式中:IoU為預(yù)測(cè)框與真實(shí)框的交并比。
以該距離函數(shù)作為優(yōu)化準(zhǔn)則函數(shù)進(jìn)行聚類,直到準(zhǔn)則函數(shù)達(dá)到最小時(shí),聚類結(jié)束。這樣會(huì)在一定程度上降低因不同樣本寬、高差距大引起的聚類結(jié)果誤差大的問(wèn)題。
在自制的戰(zhàn)斗機(jī)起落架數(shù)據(jù)集上,使用K-means算法聚類得到的先驗(yàn)框的尺寸分別為(7,11),(8,13),(8,12),(7,14),(8,15),(8,20),(12,17),(11,25),(18,38)。前三個(gè)先驗(yàn)框是80×80×256這個(gè)特征層對(duì)應(yīng)的先驗(yàn)框,后三個(gè)先驗(yàn)框?yàn)?0×20×1 024特征層對(duì)應(yīng)的先驗(yàn)框,聚類效果如圖2所示。
圖2 K-mean聚類效果
通道注意力機(jī)制能夠根據(jù)通道間的依賴性,自適應(yīng)地分配給各通道權(quán)重,強(qiáng)化重要特征圖對(duì)結(jié)果的影響,弱化非重要特征的負(fù)面作用,結(jié)構(gòu)簡(jiǎn)單,可以有效提高現(xiàn)有網(wǎng)絡(luò)模型的性能。注意力機(jī)制由于其具有即插即用的特性,已被廣泛于多種神經(jīng)網(wǎng)絡(luò)中。
本文在主干特征提取網(wǎng)絡(luò)提取出的三個(gè)有效特征層上施加ECA超強(qiáng)通道注意力機(jī)制,在避免降維給通道帶來(lái)副作用的同時(shí)能夠使模型將注意力放在戰(zhàn)斗機(jī)降落圖像的起落架上,忽略背景所帶來(lái)的影響和干擾,由此來(lái)提高模型的檢測(cè)準(zhǔn)確率。
ECANet在SENet的基礎(chǔ)上做出了部分改進(jìn),提出了一種不降維的局部跨信道交互策略(ECA模塊)和自適應(yīng)選擇一維卷積核大小的方法,該模塊通過(guò)執(zhí)行大小為K的快速一維卷積來(lái)設(shè)置通道權(quán)重,以避免降維并有效地實(shí)現(xiàn)跨通道交流。整個(gè)過(guò)程只增加了少量的參數(shù),卻能夠獲得較為明顯的效果,模塊結(jié)構(gòu)圖如圖3所示。
圖3 ECA模塊結(jié)構(gòu)圖
對(duì)于輸入特征圖X,通道空間大小為H×W,通道數(shù)為C,在經(jīng)過(guò)全局平均池化操作后特征圖的維度變?yōu)榱?×1×C,計(jì)算得到自適應(yīng)的一維卷積核大小K,將SE模塊中的兩次全連接層與激活函數(shù)ReLU去除,在全局平均池化后的特征上通過(guò)一個(gè)卷積核大小為K的快速1D卷積進(jìn)行學(xué)習(xí),得到對(duì)于特征圖的每個(gè)通道的權(quán)重,將歸一化權(quán)重和原輸入特征圖逐通道相乘,生成加權(quán)后的特征圖。
K為卷積核的大小,代表了局部跨通道交流的覆蓋范圍,它的大小選擇會(huì)非常重要,能夠影響注意力機(jī)制中每個(gè)權(quán)重計(jì)算要考慮的通道數(shù)量。關(guān)于K值的確定,在不同的網(wǎng)絡(luò)結(jié)構(gòu)以及不同卷積塊中,可以通過(guò)手動(dòng)調(diào)節(jié),也可以通過(guò)一個(gè)自適應(yīng)函數(shù)來(lái)調(diào)節(jié),卷積核大小K的計(jì)算公式為
(4)
式中:|t|odd表示距離t最近的奇數(shù);γ取2;b取1。
YOLOv5的損失函數(shù)由三種損失函數(shù)組成,分別是分類損失、定位損失和置信度損失,以上三項(xiàng)加權(quán)求和即為YOLOv5模型的總損失函數(shù),損失函數(shù)可以在很大程度上決定模型的性能。置信度損失部分是根據(jù)正負(fù)樣本和特征點(diǎn)的是否含有物體的預(yù)測(cè)結(jié)果來(lái)計(jì)算交叉損失;分類預(yù)測(cè)上采用二元交叉熵?fù)p失函數(shù)來(lái)預(yù)測(cè)錨框與對(duì)應(yīng)的分類是否正確,損失函數(shù)表示如下:
(5)
式中:N為樣本總數(shù);yi為第i個(gè)樣本所屬的類別;pi為第i個(gè)樣本的預(yù)測(cè)概率值。
本文使用全局交并比(Complete-IoU,CIoU)[19]作為定位損失函數(shù)來(lái)衡量預(yù)測(cè)框與真實(shí)框之間的差異,CIoU可以在矩形框回歸問(wèn)題上獲得更好的收斂速度和精度。CIoU將目標(biāo)與中心點(diǎn)之間的距離、重疊面積、長(zhǎng)寬比以及懲罰項(xiàng)都考慮進(jìn)去,使得目標(biāo)框回歸變得更加穩(wěn)定。CIoU的懲罰項(xiàng)RCIoU為
(6)
其中,
(7)
(8)
CIoU損失函數(shù)LCIoU公式為
(9)
式中:ρ2(b,bgt)為預(yù)測(cè)框與真實(shí)框的中心點(diǎn)的歐式距離;c為同時(shí)包含預(yù)測(cè)框和真實(shí)框的最小矩形區(qū)域的對(duì)角線距離;α為trade-off的參數(shù);v為長(zhǎng)寬比的一致性;IoU為預(yù)測(cè)框與真實(shí)框的交并比;wgt為真實(shí)框?qū)挾?;hgt為真實(shí)框高度;w為預(yù)測(cè)框?qū)挾?;h為預(yù)測(cè)框高度。
本文采用的數(shù)據(jù)集是基于某型戰(zhàn)斗機(jī)降落過(guò)程的視頻數(shù)據(jù),通過(guò)CV處理視頻數(shù)據(jù)得到單幀圖片組成數(shù)據(jù)集,共844張圖片,按照9∶1的比例分為訓(xùn)練集與測(cè)試集。在具體的標(biāo)注過(guò)程中,使用LabelImg標(biāo)注工具對(duì)圖片中的起落架進(jìn)行手工標(biāo)注矩形框,自動(dòng)生成xml標(biāo)簽文件,從而得到真實(shí)框ground truth用于訓(xùn)練,數(shù)據(jù)集格式采用VOC數(shù)據(jù)集格式,其中有573張圖片前起落架因戰(zhàn)斗機(jī)轉(zhuǎn)向、背景遮擋等問(wèn)題人眼視覺(jué)不能正確辨認(rèn)而未進(jìn)行標(biāo)記。
YOLOv5網(wǎng)絡(luò)模型大部分都是在Pytorch框架上構(gòu)建的,本文在此基礎(chǔ)上實(shí)現(xiàn)了把YOLOv5模型部署在了Tensorflow框架上,實(shí)驗(yàn)環(huán)境采用CPU為Inter core i9處理器,32 GB的內(nèi)部存儲(chǔ)器,GPU處理器為NVIDIA RTX 3080Ti;實(shí)驗(yàn)平臺(tái)為Windows10;軟件環(huán)境是Python 3.7,Anaconda 3,CUDA11.0。輸入圖像尺寸統(tǒng)一為640×640像素,采用SGD優(yōu)化器進(jìn)行訓(xùn)練,優(yōu)化器內(nèi)部使用momentum參數(shù),權(quán)值衰減數(shù)設(shè)為0.000 5,每次迭代訓(xùn)練樣本數(shù)為16,最小學(xué)習(xí)率為0.001,最大學(xué)習(xí)率為0.01,訓(xùn)練次數(shù)設(shè)為100次,置信度設(shè)為0.5。
本文根據(jù)精確率Precision、召回率Recall、平均精確度mAP和每秒的幀率FPS作為評(píng)價(jià)指標(biāo)來(lái)評(píng)價(jià)模型的性能。精確率、召回率與平均精確度的計(jì)算公式為:
(10)
(11)
(12)
式中:TP為被正確預(yù)測(cè)為起落架的正樣本的數(shù)量;FP為被預(yù)測(cè)為起落架,但實(shí)際上為假樣本的樣本數(shù)量;FN為被預(yù)測(cè)為假樣本,但實(shí)際為正樣本起落架的樣本數(shù)量;P(R)為精確度與召回率曲線。精確率表示模型檢測(cè)出來(lái)的起落架并且真正為起落架的數(shù)量占模型檢測(cè)為起落架的比例,體現(xiàn)了模型檢測(cè)的準(zhǔn)確性。召回率表示模型檢測(cè)出真實(shí)為起落架的數(shù)量占所有真實(shí)為起落架的比例,體現(xiàn)了模型識(shí)別真實(shí)起落架的能力;但是,精確率與召回率相互制約,很難同時(shí)提高,因此,引入了更具說(shuō)服力的平均精確率mAP來(lái)評(píng)價(jià)算法的檢測(cè)性能,mAP越高,性能越好。FPS用來(lái)評(píng)估模型的檢測(cè)速度,表示每秒處理的圖片的數(shù)量,值越大,檢測(cè)速度越快,性能越好。
(1)圖像增強(qiáng)對(duì)比實(shí)驗(yàn)
本文分別使用了HE、MSRCR和ACE算法對(duì)戰(zhàn)斗機(jī)降落視頻圖片進(jìn)行圖像增強(qiáng),圖像效果如圖4所示。
圖4 不同算法的效果對(duì)比
從圖4可以看出,經(jīng)HE算法處理得到的圖像效果很差,目標(biāo)與背景顏色對(duì)比度不明顯,送入檢測(cè)網(wǎng)絡(luò)中很難檢測(cè)出起落架;使用帶色彩恢復(fù)的MSRCR算法得到的圖像顏色發(fā)生變化而且圖像偏暗;經(jīng)過(guò)ACE算法得到的圖像亮度和顏色都有所改善,增強(qiáng)效果要好于HE和MSRCR,因此本文選用了ACE算法進(jìn)行圖像增強(qiáng)。
(2)不同網(wǎng)絡(luò)模型對(duì)比實(shí)驗(yàn)
為了驗(yàn)證本文提出算法的性能,分別選用了SSD、YOLOv3、YOLOv4、CenterNet、YOLOv5五種流行的目標(biāo)檢測(cè)算法在同一實(shí)驗(yàn)平臺(tái)和相同數(shù)據(jù)集下進(jìn)行對(duì)比實(shí)驗(yàn),完成對(duì)戰(zhàn)斗機(jī)起落架的檢測(cè),檢測(cè)結(jié)果如表1所示。
表1 不同檢測(cè)模型的檢測(cè)結(jié)果
從表中可以看出,本文算法相比于SSD算法,速度上略有不足,但mAP提高了很多,性能明顯更好;對(duì)比于CenterNet算法,在速度和mAP上都有顯著提升;和YOLOv3、YOLOv4算法相比,速度上略有提升,mAP提升明顯;和原YOLOv5算法相比,mAP提升了1.43%,速度上幾乎持平,能夠滿足實(shí)時(shí)檢測(cè)的需求。在對(duì)戰(zhàn)斗機(jī)降落視頻的檢測(cè)中,能夠較好地檢測(cè)出后起落架且跟蹤穩(wěn)定。
(3)消融實(shí)驗(yàn)
算法對(duì)視頻圖像數(shù)據(jù)進(jìn)行了圖像增強(qiáng),在YOLOv5的主干特征提取網(wǎng)絡(luò)提取的三個(gè)有效特征層后嵌入了ECA高效通道注意力模塊,為評(píng)估兩個(gè)改進(jìn)模塊對(duì)于算法性能的提升效果,特設(shè)計(jì)消融實(shí)驗(yàn)在相同的實(shí)驗(yàn)條件下進(jìn)行驗(yàn)證,實(shí)驗(yàn)結(jié)果如表2所示。實(shí)驗(yàn)結(jié)果表明,兩種改進(jìn)方法單獨(dú)作用都會(huì)起到提高檢測(cè)精度的效果,單獨(dú)進(jìn)行圖像增強(qiáng)mAP增加了0.37%,單獨(dú)嵌入ECA高效通道注意力模塊mAP增加了0.52%,注意力機(jī)制模塊的性能要好于圖像增強(qiáng),兩者共同作用mAP增加了1.43%,檢測(cè)精度有了較大的提高。
表2 消融實(shí)驗(yàn)數(shù)據(jù) %
為驗(yàn)證改進(jìn)后YOLOv5算法的檢測(cè)效果,通過(guò)消融實(shí)驗(yàn)對(duì)比不同模塊加入后檢測(cè)效果的變化,檢測(cè)效果對(duì)比如圖5所示,圖中的檢測(cè)概率表示預(yù)測(cè)框與真實(shí)框的重疊程度,由于置信度設(shè)為0.5,只有檢測(cè)概率大于0.5的預(yù)測(cè)框才會(huì)被保留下來(lái)。置信度分?jǐn)?shù)與真值框的IoU與IoU閾值相比較來(lái)判斷為TP還是FP,進(jìn)而影響到mAP的計(jì)算。從圖5可以看出,各模塊的加入都漏檢了戰(zhàn)斗機(jī)的前起落架,這主要是由于降落過(guò)程時(shí)間短,戰(zhàn)斗機(jī)轉(zhuǎn)向等原因?qū)е聰?shù)據(jù)集中標(biāo)注前起落架的標(biāo)簽數(shù)據(jù)較少,未能較好地提取前起落架的特征信息,對(duì)檢測(cè)效果造成了很大影響;對(duì)后起落架都能很好地檢測(cè)出來(lái),各模塊加入后檢測(cè)效果都有了一定提升,與圖5(a)檢測(cè)效果相比,圖5(b)為加入了ACE模塊后對(duì)起落架的檢測(cè)效果,對(duì)左側(cè)起落架的檢測(cè)概率提高了2%,右側(cè)提高了3%;圖5(c)為加入ECA模塊后對(duì)起落架的檢測(cè)效果,對(duì)左側(cè)起落架的檢測(cè)概率提高了6%,右側(cè)提高了1%;圖5(d)為本文算法的檢測(cè)效果,對(duì)左側(cè)起落架的檢測(cè)概率提高了7%,右側(cè)提高了1%。本文算法的mAP值較高,整體的檢測(cè)效果也較好,能夠更好地識(shí)別出起落架目標(biāo)。
圖5 消融實(shí)驗(yàn)檢測(cè)效果對(duì)比
本文針對(duì)視頻圖像中戰(zhàn)斗機(jī)起落架目標(biāo)小、檢測(cè)難度大等問(wèn)題,提出了一種改進(jìn)的YOLOv5算法完成對(duì)戰(zhàn)斗機(jī)起落架的檢測(cè)。通過(guò)ACE算法對(duì)視頻圖像進(jìn)行增強(qiáng),在主干提取網(wǎng)絡(luò)提取的三個(gè)有效特征層后嵌入ECA注意力機(jī)制,得到新的起落架檢測(cè)模型。實(shí)驗(yàn)結(jié)果表明,經(jīng)過(guò)改進(jìn)后YOLOv5模型與原YOLOv5模型相比,mAP提高了1.43%。但該算法也有局限性,視頻圖像數(shù)據(jù)中含有前起落架的標(biāo)簽數(shù)據(jù)較少,對(duì)前起落架檢測(cè)效果很差。下一步將繼續(xù)進(jìn)行算法優(yōu)化,提高小樣本條件下對(duì)起落架的檢測(cè)精度。
中國(guó)電子科學(xué)研究院學(xué)報(bào)2022年8期