亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于DATE-FCOS的空中目標(biāo)檢測(cè)研究

        2024-02-29 04:21:38陳釗陽(yáng)王玉玫
        關(guān)鍵詞:檢測(cè)模型

        陳釗陽(yáng),王玉玫

        (華北計(jì)算技術(shù)研究所,北京 100083)

        0 引言

        近年來(lái),我國(guó)圍繞“全面加強(qiáng)軍事空天發(fā)展:優(yōu)先發(fā)展戰(zhàn)略性空間和高新技術(shù),增強(qiáng)網(wǎng)絡(luò)空間和電磁空間力量,全面提高航空航天、防空導(dǎo)彈力量的能力”做出重要部署,旨在提升國(guó)家空天實(shí)力,維護(hù)國(guó)家安全和領(lǐng)土領(lǐng)空安全,促進(jìn)國(guó)家經(jīng)濟(jì)和科技發(fā)展,并為全球空間治理貢獻(xiàn)中國(guó)方案。隨著國(guó)內(nèi)外無(wú)人機(jī)相關(guān)技術(shù)飛速發(fā)展,無(wú)人機(jī)的應(yīng)用涉及多個(gè)領(lǐng)域,包括軍事應(yīng)用。高空無(wú)人機(jī)對(duì)航空?qǐng)D像中目標(biāo)的檢測(cè)是當(dāng)前研究的熱點(diǎn)之一,高效、準(zhǔn)確地探測(cè)在軍事和民用領(lǐng)域具有很高的價(jià)值。然而,由于高空環(huán)境和光照條件較為特殊,高空?qǐng)D像采集系統(tǒng)獲取的圖像存在較多的噪點(diǎn),并且存在陰影衰落,使圖像變得粗糙模糊[1],因此空中目標(biāo)檢測(cè)精度較低,難度較大。

        而空中目標(biāo)大致可分為3類:1)空中季節(jié)性遷徙的鳥類,大型的鳥類遷徙高度可達(dá)3 000~6 300 m,而天鵝等大型種飛行高度可達(dá)9 000 m,跨越珠穆朗瑪峰;2)小型飛行器,主要包括探空氣球、空飄氣球、輕型和超輕型運(yùn)動(dòng)飛機(jī)、輕型直升機(jī)、滑翔機(jī)、無(wú)人機(jī)、航模、動(dòng)力傘、動(dòng)力三角翼、小型飛艇等;3)大型飛行器,主要有軍用和民用的運(yùn)輸機(jī)和直升機(jī)、客機(jī)、轟炸機(jī)和偵察機(jī)等[2]。研究的主要重點(diǎn)當(dāng)然還是各類的大型飛行器,飛行器,尤其是飛機(jī)有幾個(gè)方面使目標(biāo)識(shí)別與眾不同。首先,飛機(jī)設(shè)計(jì)跨越了超過(guò)一百年,包括數(shù)千種不同的型號(hào)、數(shù)百種不同的品牌和航空公司;其次,飛機(jī)的設(shè)計(jì)因尺寸(從小型無(wú)人機(jī)到大型運(yùn)輸機(jī))、目的地(私人、民用、軍用)、用途(運(yùn)輸機(jī)、航母、訓(xùn)練、運(yùn)動(dòng)、戰(zhàn)斗機(jī)等)、推進(jìn)力(滑翔機(jī)、螺旋槳、噴氣式飛機(jī))和包括技術(shù)在內(nèi)的許多其他因素而異。飛機(jī)的結(jié)構(gòu)隨著其設(shè)計(jì)(機(jī)翼、起落架、每個(gè)起落架的輪子、發(fā)動(dòng)機(jī)等的數(shù)量)而變化;最后,任何公開(kāi)的飛機(jī)模型都可以被不同的公司重新使用,這會(huì)導(dǎo)致外觀(涂裝)的進(jìn)一步變化。根據(jù)識(shí)別任務(wù)的不同,這些可以被視為噪聲或要提取的有用信息。

        早期目標(biāo)檢測(cè)主要是依靠基于人工特征提取的機(jī)器學(xué)習(xí)方法。這些方法通過(guò)色彩、輪廓、紋理等特征來(lái)刻畫物體[3],盡管具有方法簡(jiǎn)單、實(shí)時(shí)性好等優(yōu)點(diǎn),但時(shí)間冗余度高,基于手工設(shè)計(jì)的特征魯棒性、泛化性較差,僅適用于專門面向的特定任務(wù),并且嚴(yán)重受到設(shè)備的硬件性能和周圍環(huán)境的影響,進(jìn)行高精度的檢測(cè)任務(wù)較為困難,容易造成大量的檢測(cè)結(jié)果誤差,難以實(shí)施于實(shí)際的工程應(yīng)用之中。然而,隨著人工智能的發(fā)展和其在計(jì)算機(jī)視覺(jué)領(lǐng)域的研究不斷地深入,深度學(xué)習(xí)(DL,deep learning)[4-6]的許多方法開(kāi)始逐漸應(yīng)用于目標(biāo)檢測(cè)領(lǐng)域,并且由于其優(yōu)異的表現(xiàn)在學(xué)術(shù)界得到了廣泛研究和應(yīng)用。從目標(biāo)檢測(cè)算法的結(jié)構(gòu)上來(lái)說(shuō)可以主要分為兩大類:一類是兩階段檢測(cè)算法,主要以 Faster R-CNN[7]、Mask R-CNN[8]等R-CNN系列算法為代表,該算法是第一個(gè)提出“先選取候選框,再通過(guò)分類器對(duì)候選框內(nèi)的物體進(jìn)行分類”的方法。它的主要組成部分包括區(qū)域提取網(wǎng)絡(luò)(RPN)、特征提取網(wǎng)絡(luò)(Backbone)、RoI-Pooling以及分類和回歸網(wǎng)絡(luò)。兩階段目標(biāo)檢測(cè)算法在準(zhǔn)確率上有著很大的優(yōu)勢(shì),在實(shí)際應(yīng)用中也得到了廣泛的應(yīng)用;另一類是一階段檢測(cè)算法,主要代表有YOLO(You Only Look Once)[9],F(xiàn)COS(Fully Convolutional One-Stage Object Detection)[10],SSD(Single Shot Detection)[11],直接通過(guò)神經(jīng)網(wǎng)絡(luò)計(jì)算輸出檢測(cè)對(duì)象的預(yù)選框和標(biāo)簽。

        王偉臣以Faster R-CNN目標(biāo)檢測(cè)算法作為研究基礎(chǔ),并對(duì)Faster R-CNN提出了兩點(diǎn)改進(jìn)。首先是在原始Faster R-CNN算法的主干網(wǎng)絡(luò)中生成特征金字塔,充分利用不同層級(jí)的特征圖來(lái)對(duì)小尺度目標(biāo)進(jìn)行有效的特征提?。涣硪环矫妫岢隽艘环N改進(jìn)的Anchor匹配規(guī)則,改進(jìn)的匹配規(guī)則能夠使所有的真實(shí)目標(biāo)框在Anchor匹配過(guò)程中匹配到比原始匹配規(guī)則更多的Anchor[12]。算法有效地提升了檢測(cè)的精度,但依舊有著檢測(cè)速度不理想的問(wèn)題。薛建偉等人提出了一種利用YOLOv3對(duì)空中飛行器進(jìn)行識(shí)別追蹤的方法[13],一階段的檢測(cè)算法在檢測(cè)速度上有著巨大的優(yōu)勢(shì),該方法提升了對(duì)目標(biāo)的追蹤精度和實(shí)時(shí)性,但在識(shí)別精度方面并無(wú)明顯提升。王耀領(lǐng)等人提出了利用改進(jìn)的條件生成網(wǎng)絡(luò)生成高質(zhì)量飛行器圖像樣本[14],用以提高模型的泛化能力以此來(lái)提升模型的識(shí)別精度,但難以應(yīng)對(duì)現(xiàn)實(shí)中空中目標(biāo)所處的復(fù)雜環(huán)境。蘭旭婷等人提出了以Resnet50為基礎(chǔ)特征提取的SSD300網(wǎng)絡(luò)模型,加入注意力機(jī)制CBAM模塊和特征融合FPN模塊,采用Soft-NMS策略選取最終預(yù)測(cè)框,對(duì)遙感圖像飛機(jī)目標(biāo)更加有效地進(jìn)行檢測(cè)[15],該方法通過(guò)注意力機(jī)制提升了模型的性能,但對(duì)于模型的特征提取能力沒(méi)有提升,對(duì)于飛機(jī)目標(biāo)中相同目標(biāo)不同角度識(shí)別困難的情況效果并不是很理想。

        DATE-FCOS作為在FCOS基礎(chǔ)上改進(jìn)的anchor-free模型,不僅有著FCOS低計(jì)算量的同時(shí)保持高準(zhǔn)確性的優(yōu)點(diǎn),并且在提升了模型性能的同時(shí)簡(jiǎn)化了模型的訓(xùn)練過(guò)程。對(duì)于空中目標(biāo)檢測(cè)的特點(diǎn),本文將以DATE-FCOS(Dual Assignment for End-to-End Fully Convolutional One-Stage Object Detection)為基準(zhǔn)檢測(cè)框架。并針對(duì)空中目標(biāo)檢測(cè)存在的目標(biāo)尺度變換以及目標(biāo)檢測(cè)精度不足的問(wèn)題,在原有算法框架的基礎(chǔ)上進(jìn)行改進(jìn),并且進(jìn)行消融實(shí)驗(yàn)論證改進(jìn)的有效性,最后與目前常見(jiàn)檢測(cè)算法進(jìn)行實(shí)驗(yàn)對(duì)比。

        1 模型介紹

        1.1 FCOS模型

        為了彌補(bǔ)anchor-base的模型在目標(biāo)檢測(cè)領(lǐng)域的幾點(diǎn)缺陷:

        1)檢測(cè)結(jié)果對(duì)于anchor的尺寸、比例和數(shù)量等超參數(shù)是非常敏感的。不同的anchor設(shè)置之間存在著較大的 AP的差距;

        2)anchor的尺寸和比例是固定的,因此不能很好地應(yīng)對(duì)過(guò)大或者過(guò)小的目標(biāo)。

        3)為了獲取更高的recall,anchor-based檢測(cè)器通常采取密集采樣的方式,大量的anchor box在于gt box計(jì)算IoU時(shí)也造成了巨大的算力消耗,需要較高的算力和時(shí)間成本。

        因此提出了anchor-free的FCOS。整體框架,基本上與RetinaNet一致,由backbone + neck + head組成。

        對(duì)于CNN backbone的第i層特征圖上每個(gè)像素(x,y),我們可以把它映射到原輸入圖像。在映射后的該點(diǎn)直接回歸目標(biāo)框,而不是把這個(gè)點(diǎn)看成目標(biāo)框的中心點(diǎn)生成不同尺寸的anchor,從而避免了生成大量的anchor。FCOS相當(dāng)于把每個(gè)點(diǎn)看出訓(xùn)練的樣本。對(duì)于每個(gè)(x,y),如果它落在gt的框里面,并且類別和gt的框的類別是一樣的,那么就看成正樣本(c*),反之則是負(fù)樣本(c*=0)。并且使用點(diǎn)到gt框四邊的距離作為訓(xùn)練的回歸條件。

        經(jīng)典的anchor-free檢測(cè)器YOLOv1[16],由于只檢測(cè)離中心點(diǎn)近的目標(biāo),導(dǎo)致召回率比較低,而多級(jí)FPN[17]的加入則有效提高了回歸率。

        為了抑制這些低質(zhì)量檢測(cè)到的邊界框,而不引入更多的超參數(shù)。FCOS添加了一個(gè)單層分支,與歸回分支并行,以預(yù)測(cè)位置的“中心度”。中心度描述了從該位置到該位置負(fù)責(zé)的對(duì)象中心的歸一化距離。

        1.2 DATE-FCOS模型

        一階卷積目標(biāo)檢測(cè)模型,如FCOS和RetinaNet[18],因其簡(jiǎn)單性而被廣泛熟知并采用。盡管他們?nèi)〉昧顺晒?,但一?duì)多分配(o2m)策略使他們依賴于非最大值抑制(NMS)來(lái)消除重復(fù)的預(yù)測(cè)。這樣的過(guò)程使它們對(duì)NMS的每個(gè)參數(shù)都很敏感,并可能導(dǎo)致陷入局部最優(yōu)解。這個(gè)問(wèn)題促使研究人員消除NMS,以實(shí)現(xiàn)端到端的完全卷積目標(biāo)檢測(cè)。OneNet[19]認(rèn)識(shí)到具有分類成本的一對(duì)一匹配(o2o)策略是端到端檢測(cè)的關(guān)鍵。具體而言,通過(guò)考慮分類成本,僅為GT分配一個(gè)預(yù)測(cè),可以防止其產(chǎn)生冗余預(yù)測(cè)。在DATE-FCOS中重新審視了這兩種分配方法,發(fā)現(xiàn)將一對(duì)多分配帶回端到端全卷積檢測(cè)器有助于模型收斂,提出了雙任務(wù)分配(DATE,dual assignment for end-to-end)的方法:在FCOS模型的基礎(chǔ)之上進(jìn)行了改進(jìn),在訓(xùn)練過(guò)程中構(gòu)造了兩個(gè)分支:一對(duì)多和一對(duì)一分配的分支,在回歸子網(wǎng)和分類子網(wǎng)都使用兩種分支來(lái)提供更多的監(jiān)督信號(hào)來(lái)加快一對(duì)一指派分支的收斂[20],而在進(jìn)行模型推理時(shí)只使用具有一對(duì)一分配策略的分支,這不會(huì)帶來(lái)額外的檢測(cè)開(kāi)銷,并且能顯著提高檢測(cè)性能。DATE-FCOS模型結(jié)構(gòu)如圖1所示。

        圖1 DATE-FCOS模型結(jié)構(gòu)

        2 模型改進(jìn)工作

        2.1 可變卷積

        在計(jì)算機(jī)視覺(jué)領(lǐng)域,同一物體在不同場(chǎng)景,角度中未知的幾何變換是檢測(cè)和識(shí)別領(lǐng)域的一大挑戰(zhàn)。而對(duì)于空中目標(biāo)這樣的情況十分常見(jiàn),同一目標(biāo)在不同的角度收集到的圖像差異較大,尤其是像飛機(jī)這樣形狀復(fù)雜的目標(biāo),在不同的角度更容易出現(xiàn)形態(tài)的變化,從而提升檢測(cè)的難度。而通常的處理方法有:

        1)通過(guò)充足的數(shù)據(jù)增強(qiáng),擴(kuò)充足夠多的樣本去增強(qiáng)模型適應(yīng)尺度變換的能力。

        2)設(shè)置一些針對(duì)幾何變換不變的特征或者算法,比如SIFT[21]和sliding Windows。

        兩種方法都有著各自的缺陷。第一種方法因?yàn)闃颖镜木窒扌允沟媚P偷姆夯芰Ρ容^低,無(wú)法泛化到一般場(chǎng)景中;第二種方法則因?yàn)槭止ぴO(shè)計(jì)的不變特征和算法對(duì)于過(guò)于復(fù)雜的變換是很難甚至無(wú)法設(shè)計(jì)的[22]。所以Deformable Conv(可變形卷積),被提出以處理這個(gè)問(wèn)題。

        它是基于在模塊中對(duì)空間采樣的位置信息做進(jìn)一步位移調(diào)整使采樣網(wǎng)格能夠自由變形。該位移可以通過(guò)模塊附加的卷積層從前面得到的特征層中學(xué)習(xí),并不需要額外的監(jiān)督信號(hào)。它們?yōu)槠茖W(xué)習(xí)只添加了少量的參數(shù)和計(jì)算,因此屬于輕量級(jí)的模塊[23]??勺兙矸e模塊可以很便捷地在常見(jiàn)的卷積神經(jīng)網(wǎng)絡(luò)中替換原有的卷積核,并且能很容易進(jìn)行標(biāo)準(zhǔn)反向傳播端到端的訓(xùn)練。

        傳統(tǒng)卷積的輸出為:

        (1)

        其中:x為輸入,K為卷積核的大小,wk為權(quán)重系數(shù)。p為輸入的位置,pk為卷積核中的點(diǎn)相對(duì)偏移。而可變卷積的輸出為:

        (2)

        我們采用了最新的可形變卷積--DCN v2[24],它在前一代DCN v1的基礎(chǔ)上加入了權(quán)重系數(shù)Δmk∈[0,1],以此來(lái)降低在改變感受野形狀的同時(shí)引入的無(wú)關(guān)背景干擾,并且在模型骨干網(wǎng)絡(luò)Resnet50的stage3,stage4和stage5的多個(gè)3×3卷積層使用。Δpk和Δmk的初始值分別為0和1。改進(jìn)后的網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。

        圖2 卷積塊注意力模塊

        圖3 改進(jìn)模型網(wǎng)絡(luò)結(jié)構(gòu)

        2.2 增加通道與空間注意力機(jī)制模塊

        卷積神經(jīng)網(wǎng)絡(luò)(CNNs)在視覺(jué)任務(wù)中表現(xiàn)出出色的性能主要是基于其豐富的表示能力。數(shù)據(jù)經(jīng)過(guò)神經(jīng)網(wǎng)絡(luò)中每個(gè)不同的卷積核都會(huì)產(chǎn)生不同的通道信息,對(duì)于經(jīng)典的神經(jīng)網(wǎng)絡(luò),特征層會(huì)默認(rèn)每個(gè)通道上所提取的信息所占的比重是相同的。而對(duì)于任何公開(kāi)的飛機(jī)模型都可以被不同的公司使用,并添加更多的設(shè)計(jì)和進(jìn)行不同的改裝。例如,戰(zhàn)斗機(jī)外掛彈倉(cāng),航空公司對(duì)客機(jī)進(jìn)行涂裝等等。對(duì)于不同的目標(biāo)類型,不同的特征信息重要程度也是不同的。

        因此為了進(jìn)一步提高細(xì)胞神經(jīng)網(wǎng)絡(luò)對(duì)于目標(biāo)的表示能力,提升模型對(duì)于飛行器目標(biāo)物體的關(guān)注識(shí)別。我們?cè)谀P椭屑尤肓艘环N簡(jiǎn)單而高效的卷積塊注意力模塊(CBAM,convolutional block attention module)[25]——通道注意力模塊(Channel Attention Module)和空間注意力模塊(Spatial Attention Module),如圖2所示。本文在進(jìn)行FPN結(jié)構(gòu)之后的特征檢測(cè)層上分別加入雙通道注意力模塊CBAM,通道注意模塊可以幫助模型更好地集中檢測(cè)所需要的信息,而空間注意力模塊可以使模型忽略與檢測(cè)目標(biāo)無(wú)關(guān)的邊界信息減少干擾,從而提高網(wǎng)絡(luò)的特征表達(dá)能力。

        給定其中一個(gè)特征圖F∈RC×H×W作為模塊的輸入,CBAM依次推斷出一個(gè)1維的通道注意力圖Mc∈RC×1×1和一個(gè)2維的空間注意力圖Ms∈R1×H×W。整個(gè)注意力過(guò)程可以表述為:

        F′=Mc(F)?F

        (3)

        F″=Ms(F′)?F′

        (4)

        其中:?為矩陣的逐元素乘法。

        (5)

        其中:σ為sigmoid函數(shù),W1,W0為共享的權(quán)重。

        (6)

        2.3 加入損失

        在原始的DATE-FCOS中損失由兩個(gè)部分組成,分別是一對(duì)一分支損失和一對(duì)多分支損失。

        一對(duì)一分支損失:

        (7)

        一對(duì)多分支損失:

        (8)

        (9)

        LGIoU=1-GIoU

        (10)

        先求出兩個(gè)框的最小凸集C(即包含A,B的最小框),再計(jì)算出IoU(交并比),再計(jì)算閉包區(qū)域中不屬于兩個(gè)框的區(qū)域占閉包區(qū)域的比重,最后用IoU減去這個(gè)比重得到GIoU。最后可以得到GIoU的損失函數(shù)。

        GIoU解決了IoU在兩個(gè)框不相交時(shí)損失函數(shù)不可導(dǎo)、無(wú)法學(xué)習(xí)的問(wèn)題,并且反映出了兩個(gè)框在相交面積相同時(shí)的相交情況,但依然存在不足。好的目標(biāo)框回歸損失應(yīng)該考慮3個(gè)重要的幾何因素:重疊面積,中心點(diǎn)距離,長(zhǎng)寬比。由此提出了CIoU(Complete Intersection over Union)[27],其收斂的精度更高,并且考慮到了全部以上3個(gè)因素。

        (11)

        其中:d為兩個(gè)框中心點(diǎn)的歐式距離,L為最小凸集C的對(duì)角線長(zhǎng)度,αv是懲罰項(xiàng),通過(guò)該項(xiàng)因子將寬高比因素考慮到回歸損失中,α是權(quán)重函數(shù),而v用來(lái)度量長(zhǎng)寬比的相似性。

        定義為:

        (12)

        (13)

        CIoU損失函數(shù)可以直接最小化兩個(gè)目標(biāo)框的距離,因此比GIoU損失函數(shù)收斂快得多。并且對(duì)于包含兩個(gè)框在水平方向或垂直方向上這種情況,CIoU損失可以使回歸非常快,而GIoU損失幾乎退化為IoU損失。

        3 實(shí)驗(yàn)結(jié)果分析

        3.1 實(shí)驗(yàn)使用數(shù)據(jù)集

        實(shí)驗(yàn)所用數(shù)據(jù)集為FGVC-aircraft(Fine-Grained Visual Classification of Aircraft)[28],是經(jīng)典的飛機(jī)模型視覺(jué)分類的公開(kāi)基準(zhǔn)數(shù)據(jù)集。

        該數(shù)據(jù)集共有100個(gè)目標(biāo)類別,包括涂裝改裝后的不同機(jī)型數(shù)據(jù),共有70多個(gè)飛機(jī)家族總共100個(gè)不同型號(hào)的飛機(jī)。數(shù)據(jù)集包含了10 000張的不同飛機(jī)圖片。數(shù)據(jù)集按照 1∶2的比例劃分,即訓(xùn)練集6 666張,測(cè)試集3 334張。

        3.2 模型訓(xùn)練

        實(shí)驗(yàn)運(yùn)行環(huán)境為,CPU為Corei7-12 700 K,GPU為NVIDIAGeForceRTX-3 060等。系統(tǒng)環(huán)境為Ubuntu16.04,CUDA11.7,python 3.10,pytorch 1.13.1,模型框架為基于pytorch框架的mmdetection目標(biāo)檢測(cè)框架[29]。

        本實(shí)驗(yàn)在訓(xùn)練過(guò)程中采用AdamW(Adam with Decoupled Weight Decay)[30]優(yōu)化器進(jìn)行損失優(yōu)化。初始學(xué)習(xí)率設(shè)為0.004,每500個(gè)iteration輸出一次日志記錄,為了加快訓(xùn)練學(xué)習(xí)過(guò)程的速度,設(shè)置學(xué)習(xí)動(dòng)量為0.930,權(quán)重衰減系數(shù)為0.001,以避免數(shù)據(jù)過(guò)擬合的情況出現(xiàn)。Warmup設(shè)置為前5個(gè)epoch線性增長(zhǎng)0.01當(dāng)訓(xùn)練epoch到8次時(shí),學(xué)習(xí)率衰減到10倍,當(dāng)epoch=12次,學(xué)習(xí)率衰減到100倍。最初實(shí)驗(yàn)的batch-size設(shè)為16,經(jīng)過(guò)多次調(diào)參修改,最終batch-size為8時(shí)模型的最終損失最小。

        模型訓(xùn)練中的損失曲線如圖4和圖5所示。

        圖4 一對(duì)多分支損失

        圖5 一對(duì)一分支損失

        可以看到在訓(xùn)練的損失雖然有波動(dòng),但一直在下降。在12 000步后,模型的兩個(gè)分支的損失都開(kāi)始趨于穩(wěn)定。

        在模型訓(xùn)練開(kāi)始訓(xùn)練后,我們使用召回率(Recall,R)、mAP0.5和mAP0.5:0.95作為模型性能的評(píng)價(jià)指標(biāo)。

        其中,mAP0.5表示IoU閾值為0.5時(shí)所有目標(biāo)類別的平均檢測(cè)精度,mAP0.5:0.95表示以步長(zhǎng)0.05,計(jì)算IoU從0.5到0.95總共10個(gè)IoU閾值下的平均檢測(cè)精度,通常情況下IoU閾值越高對(duì)于算法的回歸能力要求更高。P、R以及mAP的計(jì)算方法如下:

        其中:TP指被模型預(yù)測(cè)為正的正樣本,F(xiàn)P指被模型預(yù)測(cè)為正的負(fù)樣本,F(xiàn)N指被模型預(yù)測(cè)為負(fù)的正樣本,mAP為所有類別的平均精度,n為檢測(cè)目標(biāo)總類別數(shù)。

        3.3 消融實(shí)驗(yàn)

        為進(jìn)一步論證上述提出的改進(jìn)檢測(cè)算法性能,本文對(duì)改進(jìn)點(diǎn)逐一進(jìn)行對(duì)比分析,在模塊消融實(shí)驗(yàn)中,采用相同的測(cè)試集和學(xué)習(xí)率配置參數(shù),實(shí)驗(yàn)結(jié)果如表1所示。

        表1 模塊消融實(shí)驗(yàn)結(jié)果

        mAP表示mAP0.5:0.95精度的數(shù)據(jù),mAP.5表示mAP0.5精度的數(shù)據(jù),R表示模型的回歸率。

        可以看出可變卷積和CBAM兩項(xiàng)改進(jìn)均對(duì)準(zhǔn)確率有著較大的提升,兩項(xiàng)準(zhǔn)確率數(shù)據(jù)都有著較高的提升;mAP0.5:0.95提升了11.3%和10.6%,R提升了4.9%和3.6%。

        CIoU的加入雖然對(duì)于模型的準(zhǔn)確率沒(méi)有明顯的提升,但加快了訓(xùn)練的回歸速率,并且提升了模型接近10%回歸率,增幅達(dá)到12.8%。

        如圖6所示,將改進(jìn)后的模型與原模型在FGVC-aircraft數(shù)據(jù)集下的檢測(cè)結(jié)果進(jìn)行對(duì)比,左側(cè)為原模型檢測(cè)結(jié)果,右側(cè)為改進(jìn)后模型檢測(cè)效果??梢钥闯龈倪M(jìn)后的模型對(duì)于目標(biāo)在圖像中的標(biāo)注更加準(zhǔn)確,且準(zhǔn)確率更高,對(duì)空中飛行器的特征檢測(cè)能力更強(qiáng)。

        圖6 改進(jìn)前后檢測(cè)對(duì)比圖

        改進(jìn)后的模型0.5:0.95達(dá)到了77.8%,.5達(dá)到了79.8%,準(zhǔn)確率提升至原模型的1.11倍。說(shuō)明相關(guān)改進(jìn)對(duì)于模型對(duì)于空中飛行器的檢測(cè)性能確實(shí)具有有效提升。

        3.4 對(duì)比實(shí)驗(yàn)

        為綜合分析改進(jìn)后的DATE_FCOS模型算法的檢測(cè)性能,本文選擇與YOLO、FCOS、RetinaNet幾種經(jīng)典目標(biāo)檢測(cè)算法,采用相同的測(cè)試集進(jìn)行實(shí)驗(yàn)對(duì)比以mAP、FPS作為評(píng)價(jià)指標(biāo),實(shí)驗(yàn)結(jié)果如表2所示。

        表2 對(duì)比實(shí)驗(yàn)結(jié)果

        根據(jù)表2數(shù)據(jù)分析可知,本文算法mAP為77.8%,比原始網(wǎng)絡(luò)DATE-FCOS提高9.13個(gè)百分點(diǎn),在檢測(cè)速度上差距并不明顯,這主要是因?yàn)橐幌盗械膬?yōu)化改進(jìn)結(jié)果;而作為經(jīng)典一階段目標(biāo)檢測(cè)算法YOLOv3和FCOS則檢測(cè)能力遠(yuǎn)不如改進(jìn)后的DATE-FCOS算法,此外mAP也比本文低了超過(guò)10個(gè)百分點(diǎn),本文算法在檢測(cè)速度上略低,但精度最高,這主要是加入多層可形變卷積層和CBAM模塊,引入CIoU回歸損失共同作用的結(jié)果。

        圖7為改進(jìn)后模型的混淆矩陣。圖中縱軸代表的是標(biāo)簽,橫軸代表預(yù)測(cè)結(jié)果。由此可知對(duì)角線上的方格代表每個(gè)類別預(yù)測(cè)正確,每個(gè)方格內(nèi)的值代表行為出現(xiàn)的頻率,頻率越高顏色越明亮。從混淆矩陣可以看出模型具有較好的準(zhǔn)確性和泛化性。

        4 結(jié)束語(yǔ)

        為解決空中目標(biāo)尺度變換和檢測(cè)精度低的問(wèn)題,本文在DATE-FCOS基準(zhǔn)框架下,做出針對(duì)性改進(jìn)。首先在Resnet主干網(wǎng)絡(luò)中加入多個(gè)可形變卷積層,提取更多尺度特征信息,提升網(wǎng)絡(luò)的特征提取能力,之后在多級(jí)FPN結(jié)構(gòu)后加入CBAM模塊提升模型的表示能力,最后修改模型的損失函數(shù)為CIoU,可提供更加準(zhǔn)確的邊界框回歸方向,加快訓(xùn)練收斂速度,提升模型的回歸率。

        實(shí)驗(yàn)結(jié)果表明改進(jìn)DATE-FCOS算法在使用相同的空中目標(biāo)數(shù)據(jù)集的情況下模型的檢測(cè)性能更加優(yōu)秀,并且從實(shí)驗(yàn)得到的客觀數(shù)據(jù)分析看來(lái),改進(jìn)后算法在mAP方面較原始算法提高顯著,漲幅達(dá)到11%。同時(shí)通過(guò)對(duì)比,算法性能也優(yōu)于其他常見(jiàn)檢測(cè)算法,改進(jìn)DATE-FCOS算法具有更好的泛化性和魯棒性,因此能夠滿足空中環(huán)境中目標(biāo)的檢測(cè)。但是仍存在個(gè)別特殊類別,例如完全背光只有輪廓特征的檢測(cè)目標(biāo),對(duì)其識(shí)別效果較差,后續(xù)將繼續(xù)優(yōu)化網(wǎng)絡(luò)提高對(duì)少數(shù)特殊目標(biāo)的檢測(cè)精度。

        猜你喜歡
        檢測(cè)模型
        一半模型
        “不等式”檢測(cè)題
        “一元一次不等式”檢測(cè)題
        “一元一次不等式組”檢測(cè)題
        “幾何圖形”檢測(cè)題
        “角”檢測(cè)題
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        3D打印中的模型分割與打包
        小波變換在PCB缺陷檢測(cè)中的應(yīng)用
        国产熟妇搡bbbb搡bb七区| 一区二区三区四区中文字幕av | 二区三区日本高清视频| 疯狂做受xxxx国产| 午夜福利视频合集1000| 国产成人aa在线观看视频| 国产av一区二区网站| 久久精品国产字幕高潮| 亚洲国产精品嫩草影院久久| 中文字幕无码毛片免费看| 精品推荐国产精品店| 日本啪啪一区二区三区| 中文字幕国内一区二区| av日韩高清一区二区| 粗大的内捧猛烈进出视频| 亚洲精品中文字幕无乱码麻豆 | 国产麻无矿码直接观看| 亚洲欧洲美洲无码精品va| 少妇精品揄拍高潮少妇桃花岛| 国产av无码国产av毛片| 国产日产高清欧美一区| 亚洲每天色在线观看视频| 亚洲一区二区三区99| 十八18禁国产精品www| 精品国产一区二区三区AV小说| 亚洲图文一区二区三区四区 | 日本视频一区二区三区在线观看 | 在线视频中文字幕一区二区三区 | 亚洲黄片高清在线观看| 99精品国产一区二区三区| 性欧美videofree高清精品| 欧美国产亚洲精品成人a v| 视频一区视频二区亚洲| 亚洲日韩精品a∨片无码加勒比| 丰满少妇在线观看网站| 亚洲欧美成人久久综合中文网| 白白色发布会在线观看免费| 欧洲熟妇色xxxx欧美老妇多毛 | 美女在线一区二区三区视频| 少妇无码太爽了不卡视频在线看| 国内精品国产三级国产av另类|