亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于視頻圖像的戰(zhàn)斗機(jī)起落架檢測(cè)

        2022-10-12 05:22:06閆文君譚凱文
        關(guān)鍵詞:起落架戰(zhàn)斗機(jī)聚類

        湯 淼, 閆文君,2, 方 偉,2, 譚凱文

        (1.海軍航空大學(xué), 山東 煙臺(tái) 264001;2.海戰(zhàn)場(chǎng)信息感知與融合技術(shù)國(guó)家級(jí)實(shí)驗(yàn)教學(xué)中心, 山東 煙臺(tái) 264001)

        0 引 言

        戰(zhàn)斗機(jī)作為當(dāng)今世界奪取制空權(quán)的重要裝備,其自身降落的安全性是世界軍事強(qiáng)國(guó)十分關(guān)注的問(wèn)題之一,容易受到天氣、裝備自身完好性、飛行員操縱時(shí)機(jī)等多個(gè)方面因素的影響。其中,起落架收放狀態(tài)是飛行員和陸基指揮人員在戰(zhàn)斗機(jī)降落過(guò)程中高度關(guān)注的問(wèn)題,偶發(fā)的錯(cuò)誤將對(duì)人員、裝備帶來(lái)不可挽回的損失。因此,對(duì)起落架的狀態(tài)進(jìn)行實(shí)時(shí)檢測(cè)能有效提高戰(zhàn)斗機(jī)降落的安全性,減少不必要的非戰(zhàn)斗損毀。

        近年來(lái),基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法因能夠自動(dòng)地從圖像中提取目標(biāo)的特征,具有學(xué)習(xí)能力強(qiáng)且識(shí)別速度快、精度高等優(yōu)點(diǎn),已得到大量廣泛應(yīng)用。目前,主要流行的目標(biāo)檢測(cè)算法可以分為基于候選區(qū)域的兩階段檢測(cè)算法和基于邊界框回歸的單階段檢測(cè)算法。兩階段的代表算法主要有R-CNN[1-2]、Fast R-CNN[3]和Faster R-CNN[4],單階段的代表算法主要有SSD[5]和YOLO[6]系列算法。其中,F(xiàn)aster R-CNN精確度最高,但檢測(cè)速度很慢,不能滿足實(shí)時(shí)性的要求;SSD算法的檢測(cè)性能最低;YOLOv1在速度上表現(xiàn)不錯(cuò),但對(duì)小物體泛化能力較弱。YOLOv2檢測(cè)精度和速度都超過(guò)了上一代,但檢測(cè)精度的提升并不明顯。YOLOv3[7]在檢測(cè)精度和速度之間取得了平衡。與YOLOv3相比,YOLOv4[8]擁有更高的精確度而且檢測(cè)速度也沒(méi)有下降。YOLOv5的訓(xùn)練速度更快,更易于部署。在YOLOv5的改進(jìn)方面,文獻(xiàn)[9]改進(jìn)了損失函數(shù)并在殘差塊中嵌入坐標(biāo)注意力機(jī)制來(lái)提高對(duì)艦船目標(biāo)的檢測(cè)效果。文獻(xiàn)[10]在SPP結(jié)構(gòu)中引入隨機(jī)池化,利用BiFPN結(jié)構(gòu)進(jìn)行多尺度特征融合同時(shí)應(yīng)用ELU激活函數(shù)提高模型魯棒性。

        盡管這些算法在很多特定的數(shù)據(jù)集中取得了不錯(cuò)的效果,但在戰(zhàn)斗機(jī)起落架檢測(cè)上仍會(huì)面臨許多的挑戰(zhàn)。一是視頻數(shù)據(jù)本身就不太清晰,導(dǎo)致截幀后的圖像質(zhì)量較差;二是戰(zhàn)斗機(jī)的運(yùn)動(dòng)會(huì)導(dǎo)致截取的圖片中起落架發(fā)生一定程度的變形;三是戰(zhàn)斗機(jī)降落時(shí)間短,對(duì)起落架的檢測(cè)需要較高的實(shí)時(shí)性和精度。

        本文在YOLOv5檢測(cè)模型的基礎(chǔ)上進(jìn)行改進(jìn),首先,對(duì)視頻進(jìn)行截幀處理得到戰(zhàn)斗機(jī)降落的圖像數(shù)據(jù),通過(guò)引入自動(dòng)色彩均衡算法(ACE)[11-12]提高圖像的清晰度;然后,在YOLOv5的主干特征提取網(wǎng)絡(luò)提取出的三個(gè)有效特征層上施加超強(qiáng)通道注意力模塊(ECA-Net)[13]來(lái)提高檢測(cè)性能,在自制的戰(zhàn)斗機(jī)起落架數(shù)據(jù)集上進(jìn)行訓(xùn)練;最后,用訓(xùn)練得到的模型對(duì)戰(zhàn)斗機(jī)起落架圖片進(jìn)行檢測(cè)。

        1 圖像增強(qiáng)算法

        采集得到的戰(zhàn)斗機(jī)降落的視頻數(shù)據(jù)經(jīng)過(guò)截幀處理后圖像質(zhì)量不能得到很好的保證,惡劣的圖像數(shù)據(jù)會(huì)影響起落架的檢測(cè)效果,因此需要對(duì)視頻圖像進(jìn)行增強(qiáng)。

        目前幾類典型的通過(guò)調(diào)整圖像的像素值來(lái)改變圖像質(zhì)量的算法主要有直方圖均衡化(HE)[14-15]、帶色彩恢復(fù)的多尺度視網(wǎng)膜增強(qiáng)(MSRCR)[16]以及自動(dòng)色彩均衡等方法。直方圖均衡化主要是通過(guò)改變圖像的直方圖來(lái)改變圖像中各像素的灰度來(lái)達(dá)到增強(qiáng)圖像對(duì)比度的目的,可以將過(guò)亮和過(guò)暗的圖像變得更加清晰。MSRCR算法通過(guò)色彩恢復(fù)因子,調(diào)整原圖像中3個(gè)顏色通道之間的比例關(guān)系,將相對(duì)較暗區(qū)域的信息凸顯出來(lái),達(dá)到提高圖像局部對(duì)比度的目的,使圖像在人眼視覺(jué)感知中變得更加逼真。ACE考慮圖像中顏色與亮度的空間位置關(guān)系,利用像素點(diǎn)之間的亮度差值來(lái)校正像素值。首先,通過(guò)對(duì)圖像的色彩域和空域調(diào)整,完成圖像的色差校正,得到空域重構(gòu)圖像。計(jì)算公式為

        (1)

        式中:Rc(p)是中間結(jié)果;Ic(p)-Ic(j)為2個(gè)點(diǎn)的亮度差;d(p,j)表示距離度量函數(shù);r(*)為亮度表現(xiàn)函數(shù),需要是奇函數(shù),這一步可以適應(yīng)局部圖像對(duì)比度,r(*)可以放大較小的差異,并豐富大的差異,根據(jù)局部?jī)?nèi)容擴(kuò)展或者壓縮動(dòng)態(tài)范圍。一般的,r(*)為

        (2)

        接著,對(duì)校正后的圖像進(jìn)行動(dòng)態(tài)擴(kuò)展,對(duì)于RGB三個(gè)通道的彩色圖像需要對(duì)每一個(gè)色道都進(jìn)行處理,再合并成一幅完整的圖像。最后,將其映射到[0,255]空間。ACE能夠較好地處理圖像細(xì)節(jié),實(shí)現(xiàn)色彩校正以及提升圖像亮度和對(duì)比度,具有很好的圖像增強(qiáng)效果。

        2 YOLOv5網(wǎng)絡(luò)

        2.1 網(wǎng)絡(luò)結(jié)構(gòu)

        YOLOv5是YOLO系列的最新一代目標(biāo)檢測(cè)網(wǎng)絡(luò),由Ultralytics于2020年5月提出。YOLOv5網(wǎng)絡(luò)目前有四種結(jié)構(gòu),分別是YOLOv5s、YOLOv5m、YOLOv5l、YOLOv5x。本文選擇YOLOv5s模型作為檢測(cè)模型進(jìn)行實(shí)驗(yàn),結(jié)構(gòu)上可以分為輸入端、Backbone、Neck、Prediction四個(gè)部分,具體的網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

        圖1 YOLOv5網(wǎng)絡(luò)結(jié)構(gòu)示意圖

        YOLOv5s輸入端為640×640×3的圖像,利用Mosaic算法將四張圖片進(jìn)行拼接實(shí)現(xiàn)數(shù)據(jù)增強(qiáng),豐富了檢測(cè)對(duì)象的背景,加強(qiáng)模型的特征提取能力,有利于提升模型的檢測(cè)性能。Backbone采用CSPDarknet作為主干特征提取網(wǎng)絡(luò),它通過(guò)Focus模塊進(jìn)行切片操作在一張圖片中每隔一個(gè)像素得到一個(gè)值,從而獲得四個(gè)獨(dú)立的特征層,然后再將四個(gè)獨(dú)立的特征層進(jìn)行堆疊,實(shí)現(xiàn)了寬高的壓縮和通道數(shù)的擴(kuò)張,得到320×320×12的特征圖。使用CBS(Conv+BN+SiLU)和帶有殘差塊的CSP_1X結(jié)構(gòu),CBS模塊中的SiLU激活函數(shù)具有無(wú)上界有下界、平滑和非單調(diào)的特性,對(duì)深層模型的效果要好于ReLU激活函數(shù);CSP_1X內(nèi)部的殘差塊使用了跳躍連接,緩解了因網(wǎng)絡(luò)深度的增加帶來(lái)的梯度消失問(wèn)題。同時(shí),還加入了空間特征金字塔SPP[17]結(jié)構(gòu),提高網(wǎng)絡(luò)的感受野。經(jīng)過(guò)主干特征網(wǎng)絡(luò)的提取,最終得到的三個(gè)有效特征圖的尺寸分別為80×80×256、40×40×512和20×20×1 024。

        YOLOv5中依然采用PANet[18]結(jié)構(gòu),主干部分獲得的三個(gè)有效特征層在加強(qiáng)特征提取網(wǎng)絡(luò)中進(jìn)行特征融合,結(jié)合不同尺度的特征信息,不僅會(huì)對(duì)特征進(jìn)行上采樣實(shí)現(xiàn)特征融合,還會(huì)對(duì)特征再次進(jìn)行下采樣實(shí)現(xiàn)特征融合,避免了大量信息的丟失。在目標(biāo)檢測(cè)預(yù)測(cè)結(jié)果處理階段,主要完成對(duì)圖像特征的預(yù)測(cè)以此來(lái)生成邊界框和預(yù)測(cè)目標(biāo)種類。

        2.2 K-means聚類調(diào)整先驗(yàn)框尺寸

        YOLOv5使用K-means聚類算法聚類訓(xùn)練集中所有目標(biāo)框的寬、高,默認(rèn)的先驗(yàn)框尺寸是在VOC數(shù)據(jù)集上聚類得到的,然而在戰(zhàn)斗機(jī)降落的視頻圖像數(shù)據(jù)集上需要檢測(cè)的目標(biāo)種類只有起落架一類,為提高對(duì)起落架的檢測(cè)精度,重新對(duì)本文數(shù)據(jù)集中目標(biāo)的寬和高進(jìn)行聚類分析,得到合適的先驗(yàn)框尺寸。首先對(duì)已標(biāo)注的數(shù)據(jù)集進(jìn)行聚類,不斷增加聚類中心的個(gè)數(shù),經(jīng)過(guò)迭代,計(jì)算每個(gè)數(shù)據(jù)到每個(gè)聚類中心的距離,距離計(jì)算公式為

        d=1-IoU

        (3)

        式中:IoU為預(yù)測(cè)框與真實(shí)框的交并比。

        以該距離函數(shù)作為優(yōu)化準(zhǔn)則函數(shù)進(jìn)行聚類,直到準(zhǔn)則函數(shù)達(dá)到最小時(shí),聚類結(jié)束。這樣會(huì)在一定程度上降低因不同樣本寬、高差距大引起的聚類結(jié)果誤差大的問(wèn)題。

        在自制的戰(zhàn)斗機(jī)起落架數(shù)據(jù)集上,使用K-means算法聚類得到的先驗(yàn)框的尺寸分別為(7,11),(8,13),(8,12),(7,14),(8,15),(8,20),(12,17),(11,25),(18,38)。前三個(gè)先驗(yàn)框是80×80×256這個(gè)特征層對(duì)應(yīng)的先驗(yàn)框,后三個(gè)先驗(yàn)框?yàn)?0×20×1 024特征層對(duì)應(yīng)的先驗(yàn)框,聚類效果如圖2所示。

        圖2 K-mean聚類效果

        2.3 嵌入通道注意力機(jī)制

        通道注意力機(jī)制能夠根據(jù)通道間的依賴性,自適應(yīng)地分配給各通道權(quán)重,強(qiáng)化重要特征圖對(duì)結(jié)果的影響,弱化非重要特征的負(fù)面作用,結(jié)構(gòu)簡(jiǎn)單,可以有效提高現(xiàn)有網(wǎng)絡(luò)模型的性能。注意力機(jī)制由于其具有即插即用的特性,已被廣泛于多種神經(jīng)網(wǎng)絡(luò)中。

        本文在主干特征提取網(wǎng)絡(luò)提取出的三個(gè)有效特征層上施加ECA超強(qiáng)通道注意力機(jī)制,在避免降維給通道帶來(lái)副作用的同時(shí)能夠使模型將注意力放在戰(zhàn)斗機(jī)降落圖像的起落架上,忽略背景所帶來(lái)的影響和干擾,由此來(lái)提高模型的檢測(cè)準(zhǔn)確率。

        ECANet在SENet的基礎(chǔ)上做出了部分改進(jìn),提出了一種不降維的局部跨信道交互策略(ECA模塊)和自適應(yīng)選擇一維卷積核大小的方法,該模塊通過(guò)執(zhí)行大小為K的快速一維卷積來(lái)設(shè)置通道權(quán)重,以避免降維并有效地實(shí)現(xiàn)跨通道交流。整個(gè)過(guò)程只增加了少量的參數(shù),卻能夠獲得較為明顯的效果,模塊結(jié)構(gòu)圖如圖3所示。

        圖3 ECA模塊結(jié)構(gòu)圖

        對(duì)于輸入特征圖X,通道空間大小為H×W,通道數(shù)為C,在經(jīng)過(guò)全局平均池化操作后特征圖的維度變?yōu)榱?×1×C,計(jì)算得到自適應(yīng)的一維卷積核大小K,將SE模塊中的兩次全連接層與激活函數(shù)ReLU去除,在全局平均池化后的特征上通過(guò)一個(gè)卷積核大小為K的快速1D卷積進(jìn)行學(xué)習(xí),得到對(duì)于特征圖的每個(gè)通道的權(quán)重,將歸一化權(quán)重和原輸入特征圖逐通道相乘,生成加權(quán)后的特征圖。

        K為卷積核的大小,代表了局部跨通道交流的覆蓋范圍,它的大小選擇會(huì)非常重要,能夠影響注意力機(jī)制中每個(gè)權(quán)重計(jì)算要考慮的通道數(shù)量。關(guān)于K值的確定,在不同的網(wǎng)絡(luò)結(jié)構(gòu)以及不同卷積塊中,可以通過(guò)手動(dòng)調(diào)節(jié),也可以通過(guò)一個(gè)自適應(yīng)函數(shù)來(lái)調(diào)節(jié),卷積核大小K的計(jì)算公式為

        (4)

        式中:|t|odd表示距離t最近的奇數(shù);γ取2;b取1。

        2.4 損失函數(shù)

        YOLOv5的損失函數(shù)由三種損失函數(shù)組成,分別是分類損失、定位損失和置信度損失,以上三項(xiàng)加權(quán)求和即為YOLOv5模型的總損失函數(shù),損失函數(shù)可以在很大程度上決定模型的性能。置信度損失部分是根據(jù)正負(fù)樣本和特征點(diǎn)的是否含有物體的預(yù)測(cè)結(jié)果來(lái)計(jì)算交叉損失;分類預(yù)測(cè)上采用二元交叉熵?fù)p失函數(shù)來(lái)預(yù)測(cè)錨框與對(duì)應(yīng)的分類是否正確,損失函數(shù)表示如下:

        (5)

        式中:N為樣本總數(shù);yi為第i個(gè)樣本所屬的類別;pi為第i個(gè)樣本的預(yù)測(cè)概率值。

        本文使用全局交并比(Complete-IoU,CIoU)[19]作為定位損失函數(shù)來(lái)衡量預(yù)測(cè)框與真實(shí)框之間的差異,CIoU可以在矩形框回歸問(wèn)題上獲得更好的收斂速度和精度。CIoU將目標(biāo)與中心點(diǎn)之間的距離、重疊面積、長(zhǎng)寬比以及懲罰項(xiàng)都考慮進(jìn)去,使得目標(biāo)框回歸變得更加穩(wěn)定。CIoU的懲罰項(xiàng)RCIoU為

        (6)

        其中,

        (7)

        (8)

        CIoU損失函數(shù)LCIoU公式為

        (9)

        式中:ρ2(b,bgt)為預(yù)測(cè)框與真實(shí)框的中心點(diǎn)的歐式距離;c為同時(shí)包含預(yù)測(cè)框和真實(shí)框的最小矩形區(qū)域的對(duì)角線距離;α為trade-off的參數(shù);v為長(zhǎng)寬比的一致性;IoU為預(yù)測(cè)框與真實(shí)框的交并比;wgt為真實(shí)框?qū)挾?;hgt為真實(shí)框高度;w為預(yù)測(cè)框?qū)挾?;h為預(yù)測(cè)框高度。

        3 實(shí)驗(yàn)過(guò)程與結(jié)果分析

        本文采用的數(shù)據(jù)集是基于某型戰(zhàn)斗機(jī)降落過(guò)程的視頻數(shù)據(jù),通過(guò)CV處理視頻數(shù)據(jù)得到單幀圖片組成數(shù)據(jù)集,共844張圖片,按照9∶1的比例分為訓(xùn)練集與測(cè)試集。在具體的標(biāo)注過(guò)程中,使用LabelImg標(biāo)注工具對(duì)圖片中的起落架進(jìn)行手工標(biāo)注矩形框,自動(dòng)生成xml標(biāo)簽文件,從而得到真實(shí)框ground truth用于訓(xùn)練,數(shù)據(jù)集格式采用VOC數(shù)據(jù)集格式,其中有573張圖片前起落架因戰(zhàn)斗機(jī)轉(zhuǎn)向、背景遮擋等問(wèn)題人眼視覺(jué)不能正確辨認(rèn)而未進(jìn)行標(biāo)記。

        3.1 實(shí)驗(yàn)環(huán)境及訓(xùn)練參數(shù)設(shè)置

        YOLOv5網(wǎng)絡(luò)模型大部分都是在Pytorch框架上構(gòu)建的,本文在此基礎(chǔ)上實(shí)現(xiàn)了把YOLOv5模型部署在了Tensorflow框架上,實(shí)驗(yàn)環(huán)境采用CPU為Inter core i9處理器,32 GB的內(nèi)部存儲(chǔ)器,GPU處理器為NVIDIA RTX 3080Ti;實(shí)驗(yàn)平臺(tái)為Windows10;軟件環(huán)境是Python 3.7,Anaconda 3,CUDA11.0。輸入圖像尺寸統(tǒng)一為640×640像素,采用SGD優(yōu)化器進(jìn)行訓(xùn)練,優(yōu)化器內(nèi)部使用momentum參數(shù),權(quán)值衰減數(shù)設(shè)為0.000 5,每次迭代訓(xùn)練樣本數(shù)為16,最小學(xué)習(xí)率為0.001,最大學(xué)習(xí)率為0.01,訓(xùn)練次數(shù)設(shè)為100次,置信度設(shè)為0.5。

        3.2 評(píng)價(jià)標(biāo)準(zhǔn)

        本文根據(jù)精確率Precision、召回率Recall、平均精確度mAP和每秒的幀率FPS作為評(píng)價(jià)指標(biāo)來(lái)評(píng)價(jià)模型的性能。精確率、召回率與平均精確度的計(jì)算公式為:

        (10)

        (11)

        (12)

        式中:TP為被正確預(yù)測(cè)為起落架的正樣本的數(shù)量;FP為被預(yù)測(cè)為起落架,但實(shí)際上為假樣本的樣本數(shù)量;FN為被預(yù)測(cè)為假樣本,但實(shí)際為正樣本起落架的樣本數(shù)量;P(R)為精確度與召回率曲線。精確率表示模型檢測(cè)出來(lái)的起落架并且真正為起落架的數(shù)量占模型檢測(cè)為起落架的比例,體現(xiàn)了模型檢測(cè)的準(zhǔn)確性。召回率表示模型檢測(cè)出真實(shí)為起落架的數(shù)量占所有真實(shí)為起落架的比例,體現(xiàn)了模型識(shí)別真實(shí)起落架的能力;但是,精確率與召回率相互制約,很難同時(shí)提高,因此,引入了更具說(shuō)服力的平均精確率mAP來(lái)評(píng)價(jià)算法的檢測(cè)性能,mAP越高,性能越好。FPS用來(lái)評(píng)估模型的檢測(cè)速度,表示每秒處理的圖片的數(shù)量,值越大,檢測(cè)速度越快,性能越好。

        3.3 實(shí)驗(yàn)結(jié)果分析

        (1)圖像增強(qiáng)對(duì)比實(shí)驗(yàn)

        本文分別使用了HE、MSRCR和ACE算法對(duì)戰(zhàn)斗機(jī)降落視頻圖片進(jìn)行圖像增強(qiáng),圖像效果如圖4所示。

        圖4 不同算法的效果對(duì)比

        從圖4可以看出,經(jīng)HE算法處理得到的圖像效果很差,目標(biāo)與背景顏色對(duì)比度不明顯,送入檢測(cè)網(wǎng)絡(luò)中很難檢測(cè)出起落架;使用帶色彩恢復(fù)的MSRCR算法得到的圖像顏色發(fā)生變化而且圖像偏暗;經(jīng)過(guò)ACE算法得到的圖像亮度和顏色都有所改善,增強(qiáng)效果要好于HE和MSRCR,因此本文選用了ACE算法進(jìn)行圖像增強(qiáng)。

        (2)不同網(wǎng)絡(luò)模型對(duì)比實(shí)驗(yàn)

        為了驗(yàn)證本文提出算法的性能,分別選用了SSD、YOLOv3、YOLOv4、CenterNet、YOLOv5五種流行的目標(biāo)檢測(cè)算法在同一實(shí)驗(yàn)平臺(tái)和相同數(shù)據(jù)集下進(jìn)行對(duì)比實(shí)驗(yàn),完成對(duì)戰(zhàn)斗機(jī)起落架的檢測(cè),檢測(cè)結(jié)果如表1所示。

        表1 不同檢測(cè)模型的檢測(cè)結(jié)果

        從表中可以看出,本文算法相比于SSD算法,速度上略有不足,但mAP提高了很多,性能明顯更好;對(duì)比于CenterNet算法,在速度和mAP上都有顯著提升;和YOLOv3、YOLOv4算法相比,速度上略有提升,mAP提升明顯;和原YOLOv5算法相比,mAP提升了1.43%,速度上幾乎持平,能夠滿足實(shí)時(shí)檢測(cè)的需求。在對(duì)戰(zhàn)斗機(jī)降落視頻的檢測(cè)中,能夠較好地檢測(cè)出后起落架且跟蹤穩(wěn)定。

        (3)消融實(shí)驗(yàn)

        算法對(duì)視頻圖像數(shù)據(jù)進(jìn)行了圖像增強(qiáng),在YOLOv5的主干特征提取網(wǎng)絡(luò)提取的三個(gè)有效特征層后嵌入了ECA高效通道注意力模塊,為評(píng)估兩個(gè)改進(jìn)模塊對(duì)于算法性能的提升效果,特設(shè)計(jì)消融實(shí)驗(yàn)在相同的實(shí)驗(yàn)條件下進(jìn)行驗(yàn)證,實(shí)驗(yàn)結(jié)果如表2所示。實(shí)驗(yàn)結(jié)果表明,兩種改進(jìn)方法單獨(dú)作用都會(huì)起到提高檢測(cè)精度的效果,單獨(dú)進(jìn)行圖像增強(qiáng)mAP增加了0.37%,單獨(dú)嵌入ECA高效通道注意力模塊mAP增加了0.52%,注意力機(jī)制模塊的性能要好于圖像增強(qiáng),兩者共同作用mAP增加了1.43%,檢測(cè)精度有了較大的提高。

        表2 消融實(shí)驗(yàn)數(shù)據(jù) %

        為驗(yàn)證改進(jìn)后YOLOv5算法的檢測(cè)效果,通過(guò)消融實(shí)驗(yàn)對(duì)比不同模塊加入后檢測(cè)效果的變化,檢測(cè)效果對(duì)比如圖5所示,圖中的檢測(cè)概率表示預(yù)測(cè)框與真實(shí)框的重疊程度,由于置信度設(shè)為0.5,只有檢測(cè)概率大于0.5的預(yù)測(cè)框才會(huì)被保留下來(lái)。置信度分?jǐn)?shù)與真值框的IoU與IoU閾值相比較來(lái)判斷為TP還是FP,進(jìn)而影響到mAP的計(jì)算。從圖5可以看出,各模塊的加入都漏檢了戰(zhàn)斗機(jī)的前起落架,這主要是由于降落過(guò)程時(shí)間短,戰(zhàn)斗機(jī)轉(zhuǎn)向等原因?qū)е聰?shù)據(jù)集中標(biāo)注前起落架的標(biāo)簽數(shù)據(jù)較少,未能較好地提取前起落架的特征信息,對(duì)檢測(cè)效果造成了很大影響;對(duì)后起落架都能很好地檢測(cè)出來(lái),各模塊加入后檢測(cè)效果都有了一定提升,與圖5(a)檢測(cè)效果相比,圖5(b)為加入了ACE模塊后對(duì)起落架的檢測(cè)效果,對(duì)左側(cè)起落架的檢測(cè)概率提高了2%,右側(cè)提高了3%;圖5(c)為加入ECA模塊后對(duì)起落架的檢測(cè)效果,對(duì)左側(cè)起落架的檢測(cè)概率提高了6%,右側(cè)提高了1%;圖5(d)為本文算法的檢測(cè)效果,對(duì)左側(cè)起落架的檢測(cè)概率提高了7%,右側(cè)提高了1%。本文算法的mAP值較高,整體的檢測(cè)效果也較好,能夠更好地識(shí)別出起落架目標(biāo)。

        圖5 消融實(shí)驗(yàn)檢測(cè)效果對(duì)比

        4 結(jié) 語(yǔ)

        本文針對(duì)視頻圖像中戰(zhàn)斗機(jī)起落架目標(biāo)小、檢測(cè)難度大等問(wèn)題,提出了一種改進(jìn)的YOLOv5算法完成對(duì)戰(zhàn)斗機(jī)起落架的檢測(cè)。通過(guò)ACE算法對(duì)視頻圖像進(jìn)行增強(qiáng),在主干提取網(wǎng)絡(luò)提取的三個(gè)有效特征層后嵌入ECA注意力機(jī)制,得到新的起落架檢測(cè)模型。實(shí)驗(yàn)結(jié)果表明,經(jīng)過(guò)改進(jìn)后YOLOv5模型與原YOLOv5模型相比,mAP提高了1.43%。但該算法也有局限性,視頻圖像數(shù)據(jù)中含有前起落架的標(biāo)簽數(shù)據(jù)較少,對(duì)前起落架檢測(cè)效果很差。下一步將繼續(xù)進(jìn)行算法優(yōu)化,提高小樣本條件下對(duì)起落架的檢測(cè)精度。

        猜你喜歡
        起落架戰(zhàn)斗機(jī)聚類
        蘇-35S戰(zhàn)斗機(jī)
        軍事文摘(2021年17期)2021-09-24 01:05:58
        飛機(jī)秘密檔案
        一種多旋翼無(wú)人機(jī)起落架快速插接結(jié)構(gòu)
        基于DBSACN聚類算法的XML文檔聚類
        殲-5戰(zhàn)斗機(jī)
        蚋式戰(zhàn)斗機(jī)
        基于改進(jìn)的遺傳算法的模糊聚類算法
        一種層次初始的聚類個(gè)數(shù)自適應(yīng)的聚類方法研究
        自適應(yīng)確定K-means算法的聚類數(shù):以遙感圖像聚類為例
        某型教練機(jī)起落架信號(hào)電路改進(jìn)設(shè)計(jì)
        教練機(jī)(2013年3期)2013-10-11 02:30:30
        亚洲一区二区女优视频| 97精品国产手机| 996久久国产精品线观看| 欧洲人体一区二区三区| 亚洲熟女天堂av一区二区三区| 国产精品美女久久久免费| 日本无码人妻波多野结衣| 久久频道毛片免费不卡片| 玩弄放荡人妻一区二区三区| 国产精品狼人久久影院软件介绍 | 91精品91久久久久久| 国产一区二区三区精品毛片| 亚洲精品成人无限看| 欧美人与动人物姣配xxxx| 国产一级淫片免费大片| 97成人精品在线视频| 亚洲av无码国产精品色午夜字幕| 少妇人妻偷人精品一区二区| 日韩无码尤物视频| 不卡视频在线观看网站| 国产欧美一区二区三区在线看| 少妇人妻偷人精品无码视频| 久久精品熟女亚洲av艳妇| 两人前一后地插着她丰满| 丁字裤少妇露黑毛| 日韩一区二区肥| 天堂影院久久精品国产午夜18禁| 国产亚洲欧洲aⅴ综合一区| 人妻少妇精品视频一区二区三区 | 人妻有码av中文幕久久| 东京热无码av一区二区| 99久久久无码国产精品9| 一本一道久久a久久精品综合蜜桃 成年女人18毛片毛片免费 | 国产美女高潮流白浆在线观看 | 丰满人妻AV无码一区二区三区| 成av人大片免费看的网站| 青青青爽在线视频观看| 欧美午夜a级精美理论片| 亚洲成生人免费av毛片| 日韩大片高清播放器大全| 亚洲成a人v欧美综合天堂麻豆 |