亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        改進(jìn)Yolov5的無(wú)人機(jī)目標(biāo)檢測(cè)算法

        2023-09-25 08:59:18陳范凱李士心
        關(guān)鍵詞:航拍標(biāo)簽卷積

        陳范凱,李士心

        天津職業(yè)技術(shù)師范大學(xué)電子工程學(xué)院,天津300222

        隨著卷積神經(jīng)網(wǎng)絡(luò)(CNN)目標(biāo)檢測(cè)算法不斷發(fā)展,檢測(cè)性能逐漸提升,使得深度學(xué)習(xí)算法更適用于機(jī)器視覺的應(yīng)用[1]。根據(jù)輸入圖像的處理方式,常使用兩階段檢測(cè)和單階段檢測(cè)兩種物體檢測(cè)方法,在不同應(yīng)用場(chǎng)景下均表現(xiàn)出良好準(zhǔn)確率和識(shí)別速度。其中,R-CNN[2]、Fast R-CNN[3]、Faster R-CNN[4]、R-FCN[5]等都是兩階段檢測(cè)方法。DenseBox[6]、RetinaNet[7]、SSD 系列[8]、YOLO系列[9-12]等都是單階段檢測(cè)方法。

        在無(wú)人機(jī)飛行過程中,搭載設(shè)備需實(shí)時(shí)傳輸航拍圖像,這對(duì)目標(biāo)檢測(cè)提出更高要求。此外,圖像以小目標(biāo)為主,具有模糊、密集排列和稀疏分布等特點(diǎn),而且常常淹沒在復(fù)雜的環(huán)境背景中。綜合上述問題,使得傳統(tǒng)檢測(cè)方法很難準(zhǔn)確定位無(wú)人機(jī)航拍圖像上的目標(biāo),搭建高性能的目標(biāo)檢測(cè)模型成為當(dāng)下研究的熱點(diǎn)。近年來(lái),YOLO系列檢測(cè)方法由于其優(yōu)越的速度和良好的精度,廣泛應(yīng)用于無(wú)人機(jī)航拍圖像的目標(biāo)檢測(cè)。程江川等人[13]采用輕量化高效骨干網(wǎng)絡(luò)對(duì)模型進(jìn)行改進(jìn),提高模型檢測(cè)速度。李利霞等人[14]設(shè)計(jì)了一種多級(jí)特征融合模塊,動(dòng)態(tài)調(diào)節(jié)各輸出檢測(cè)層的權(quán)重,提高模型的適應(yīng)性。李楊等人[15]在YoloX的基礎(chǔ)上,通過Neck多尺度特征融合提高淺層目標(biāo)的感受野,加大對(duì)小目標(biāo)的識(shí)別能力。甄然等人[16]利用深度可分離卷積替換傳統(tǒng)卷積,使Yolov5模型輕量化,同時(shí)增加注意力機(jī)制,提升模型的小目標(biāo)識(shí)別能力。薛珊等人[17]提出了一種動(dòng)態(tài)實(shí)時(shí)檢測(cè)網(wǎng)絡(luò)模型Yolo-Ads,增強(qiáng)了網(wǎng)絡(luò)對(duì)無(wú)人機(jī)尺度變化的魯棒性。謝椿輝等人[18]通過增加小目標(biāo)預(yù)測(cè)層和優(yōu)化損失函數(shù)來(lái)提高模型的檢測(cè)效果。上述無(wú)人機(jī)目標(biāo)檢測(cè)模型主要采用高效輕量化結(jié)構(gòu)來(lái)降低模型參數(shù)量和計(jì)算復(fù)雜度,提高算法檢測(cè)速度,提升模型識(shí)別能力。由于輕量化網(wǎng)絡(luò)結(jié)構(gòu)使得網(wǎng)絡(luò)感知深度變淺,圖像特征融合和提取能力無(wú)法更好發(fā)揮,使得無(wú)人機(jī)航拍圖像檢測(cè)精度不高。針對(duì)上述問題,改進(jìn)后模型需在保證無(wú)人機(jī)檢測(cè)速度要求的前提下,致力于提高模型的檢測(cè)精度和準(zhǔn)確率。論文以Yolov5s 模型為基礎(chǔ),首先采用梯度流豐富的C2F模塊替換C3模塊加強(qiáng)圖像特征提取和特征融合能力;其次通過輕量化上采樣算子CARAFE 對(duì)FPN 網(wǎng)絡(luò)進(jìn)行優(yōu)化,擴(kuò)展模型的感受野;最后采用動(dòng)態(tài)標(biāo)簽分配策略O(shè)TA(optimal transport assignment for object detection),從全局信息角度實(shí)現(xiàn)標(biāo)簽最優(yōu)分配,提高了網(wǎng)絡(luò)對(duì)候選框的處理效果,使得模型訓(xùn)練更加穩(wěn)定高效,以滿足無(wú)人機(jī)實(shí)時(shí)檢測(cè)要求。

        1 Yolov5模型

        Yolov5 是Yolo 系列第五代,是一款高性能目標(biāo)檢測(cè)模型[19],Yolov5 模型架構(gòu)包含了Input、Backbone、Neck、Head四個(gè)部分。

        Input部分:目標(biāo)檢測(cè)模型輸入端,該部分包含一個(gè)圖像預(yù)處理階段,將輸入圖像進(jìn)行自適應(yīng)縮放來(lái)匹配網(wǎng)絡(luò)的輸入大小,并進(jìn)行歸一化操作,同時(shí)Yolov5 利用Mosaic圖像增強(qiáng)提升模型適應(yīng)性。

        Backbone 部分:Backbone 網(wǎng)絡(luò)是模型的主干網(wǎng)絡(luò),通常采用一些性能優(yōu)異的分類器作為網(wǎng)絡(luò)架構(gòu)用來(lái)對(duì)目標(biāo)圖像進(jìn)行特征提取。Yolov5 采用改進(jìn)后的CSPDarknet53結(jié)構(gòu),由Conv模塊、C3模塊以及SPPF模塊構(gòu)成。

        Neck部分:Neck部分是網(wǎng)絡(luò)銜接部分,主要用來(lái)獲取傳遞特征信息并進(jìn)行融合。Yolov5使用FPN-PAN結(jié)構(gòu),F(xiàn)PN 結(jié)構(gòu)是自頂向下結(jié)構(gòu),通過上采樣和融合底層特征信息的方式得到預(yù)測(cè)特征圖,PAN采用自底向上結(jié)構(gòu)對(duì)FPN 特征圖進(jìn)行融合補(bǔ)充的特征金字塔網(wǎng)絡(luò)結(jié)構(gòu)。Yolov5 在Yolov4 的Neck 網(wǎng)絡(luò)基礎(chǔ)上進(jìn)行改進(jìn),通過借鑒CSPNet設(shè)計(jì)的C3模塊替換普通卷積操作,進(jìn)一步加強(qiáng)網(wǎng)絡(luò)特征融合能力。

        Head 部分:Yolov3 以后的系列采用三個(gè)檢測(cè)層對(duì)目標(biāo)進(jìn)行檢測(cè)識(shí)別,分別對(duì)應(yīng)Neck 部分中得到的三種不同尺寸特征圖。特征圖上每個(gè)網(wǎng)格都預(yù)設(shè)了三個(gè)不同寬高比的錨框(anchor),可以在特征圖通道維度上保存所有基于anchor的位置信息和分類信息,用來(lái)預(yù)測(cè)和回歸目標(biāo)。

        2 Yolov5模型改進(jìn)

        2.1 引入上采樣算子CARAFE

        現(xiàn)有卷積網(wǎng)絡(luò)體系結(jié)構(gòu)中,特征上采樣是一個(gè)關(guān)鍵算子[20]。傳統(tǒng)算法中上采樣以最近鄰插值法為主,僅僅通過像素點(diǎn)位置來(lái)決定上采樣核,并沒有利用特征圖的語(yǔ)義信息,而且感知域很小。所以本文采用感受野較大的輕量級(jí)通用上采樣算子CARAFE,可以很好利用特征圖的語(yǔ)義信息,同時(shí)沒有引入過多參數(shù)量和計(jì)算量。對(duì)于內(nèi)容信息,CARAFE可以實(shí)現(xiàn)在不同位置使用自適應(yīng)和優(yōu)化重組內(nèi)核,實(shí)現(xiàn)比主流上采樣運(yùn)算符(如插值或去卷積)更好的性能。利用CARAFE 代替所有特征層中最近鄰插值上采樣,加強(qiáng)了低分辨率特征圖經(jīng)過CARAFE上采樣與高分辨率特征圖的融合,提升了特征金字塔網(wǎng)絡(luò)性能。CARAFE流程圖如圖1所示。

        圖1 CARAFE流程圖Fig.1 CARAFE flow chart

        CARAFE分為兩個(gè)主要模塊,分別是上采樣核預(yù)測(cè)模塊和特征重組模塊。假設(shè)上采樣倍率為σ,給定一個(gè)形狀為H×W×C的輸入特征圖,CARAFE首先利用上采樣核預(yù)測(cè)模塊預(yù)測(cè)上采樣核,然后利用特征重組模塊完成上采樣,得到形狀為σH×σW×C的輸出特征圖。在上采樣預(yù)測(cè)模塊中,為了減少后續(xù)計(jì)算量,首先對(duì)于輸入形狀為H×W×C的特征圖經(jīng)過1×1卷積進(jìn)行通道數(shù)壓縮,壓縮為H×W×Cm再進(jìn)行內(nèi)容編碼和上采樣核預(yù)測(cè),利用Kencoder×Kencoder卷積層來(lái)預(yù)測(cè)上采樣核,輸入通道數(shù)為Cm,輸出為,然后將通道在空間維度展開,得到形狀為的上采樣核,將上采樣核進(jìn)行歸一化操作,使其卷積核權(quán)重和為1。在特征重組模塊中,對(duì)于輸出特征圖中每個(gè)位置,將其映射回輸入特征圖,取以之為中心的Kup×Kup的區(qū)域,和預(yù)測(cè)該點(diǎn)上采樣核作點(diǎn)積,得到輸出值。相同位置不同通道共享同一個(gè)上采樣核,最后得到輸出為σH×σW×C的輸出特征圖。

        利用CARAFE 上采樣替換特征金字塔網(wǎng)絡(luò)中最近鄰上采樣改進(jìn)后的模型,在召回率、準(zhǔn)確率和檢測(cè)精度方面均有提升,增強(qiáng)了特征金字塔網(wǎng)絡(luò)對(duì)圖像特征提取和融合的能力。

        2.2 利用C2F模塊替換C3模塊

        Yolov5 模型中C3 模塊主要借助CSPNet 提取分流結(jié)合殘差結(jié)構(gòu)的思想,通過n值控制CSPNet 中主分支梯度模塊BottleNeck,達(dá)到豐富模型語(yǔ)義效果,C3 模塊結(jié)構(gòu)如圖2 所示。C2F 模塊首先經(jīng)過ConvBnNSiLU 將模塊前特征信息進(jìn)行卷積提取,再通過Spilt模塊進(jìn)行分流,分割后信息進(jìn)入n個(gè)BottleNeck模塊分別進(jìn)行梯度流提取,將信息匯入Concat 模塊進(jìn)行合并,最后經(jīng)過卷積進(jìn)行特征融合,C2F模塊結(jié)構(gòu)如圖3所示。相比較C3模塊,C2F 模塊主要是通過更多分支層連接,從而豐富模型梯度流,對(duì)小目標(biāo)和密集目標(biāo)具有更好的識(shí)別效果。利用C2F 模塊替換所有C3 模塊改進(jìn)后的模型,在增加少量參數(shù)量的情況下,較大地提升了模型的識(shí)別能力。改進(jìn)后的模型結(jié)構(gòu)圖如圖4所示。

        圖2 C3模塊結(jié)構(gòu)圖Fig.2 C3 module structure diagram

        圖3 C2F模塊結(jié)構(gòu)圖Fig.3 C2F module structure diagram

        圖4 改進(jìn)后Yolov5模型結(jié)構(gòu)圖Fig.4 Improved Yolov5 model structure diagram

        2.3 動(dòng)態(tài)標(biāo)簽分配策略

        在目標(biāo)檢測(cè)中,標(biāo)簽分類主要是為目標(biāo)框?qū)で螵?dú)立的正負(fù)樣本標(biāo)簽[21]。Yolov5 模型在標(biāo)簽分配上采用真實(shí)框和預(yù)選框之間的寬高比,這類標(biāo)簽分配機(jī)制無(wú)法考慮尺寸、形狀或者邊界遮擋帶來(lái)的差異性,同時(shí)沒有進(jìn)行全局性考慮。在處理不明確錨框時(shí),往往需要局部之外的更多信息,而傳統(tǒng)標(biāo)簽分配策略就是獨(dú)立為每個(gè)真實(shí)框找尋最優(yōu)標(biāo)簽,沒有利用全局最優(yōu)思想,容易造成模糊錨框在標(biāo)簽分配時(shí)對(duì)訓(xùn)練網(wǎng)絡(luò)進(jìn)行錯(cuò)誤干擾,影響目標(biāo)檢測(cè)效率。所以引入了一種基于全局考慮的動(dòng)態(tài)標(biāo)簽分配策略O(shè)TA,將標(biāo)簽分配過程公式化為最優(yōu)運(yùn)輸問題,免去傳統(tǒng)手工設(shè)定參數(shù)的方式來(lái)實(shí)現(xiàn)標(biāo)簽分配,讓檢測(cè)網(wǎng)絡(luò)自主選擇每個(gè)目標(biāo)框?qū)?yīng)候選框的數(shù)量,解決了模糊錨框的分配問題,提高了網(wǎng)絡(luò)對(duì)候選框的處理效果。OTA流程圖如圖5所示。

        圖5 OTA流程圖Fig.5 OTA flow chart

        被測(cè)圖片進(jìn)入目標(biāo)識(shí)別模型,對(duì)FPN層上所有錨框進(jìn)行成本計(jì)算,生成正負(fù)樣本的成本矩陣C(cost matrix),其中GT表示正樣本目標(biāo)框和anchors對(duì)應(yīng)生成的成本大小,BG表示負(fù)樣本即背景類和anchors 的成本。正樣本成本價(jià)值表示從真實(shí)框傳輸一個(gè)正標(biāo)簽到預(yù)選框的運(yùn)輸成本記為,將其定義為真實(shí)框和預(yù)選框之間的分類損失和回歸損失的加權(quán)和,如公式(1)。

        其中,θ是模型參數(shù),分別表示候選框aj預(yù)測(cè)分類得分和預(yù)測(cè)目標(biāo)得分,和表示真實(shí)框相關(guān)預(yù)測(cè)分?jǐn)?shù)。Lcls和Lreg分別表示交叉熵?fù)p失和IoU損失,α表示權(quán)重系數(shù)。

        其中,?表示背景類。將Cbg∈R1×n和Cgt∈Rm×n進(jìn)行合并組成完整的成本矩陣C∈R(m+1×n),同時(shí)將每個(gè)目標(biāo)框?qū)?yīng)的標(biāo)簽數(shù)S進(jìn)行適應(yīng)性變化,如公式(3)所示:

        將生成的成本矩陣C和供應(yīng)量S以及需求量d通過Sinkhorn-Knopp Iteration 算法來(lái)獲得標(biāo)簽分配方案π*,得到π*后,對(duì)應(yīng)標(biāo)簽分配就是將每個(gè)anchor傳輸給這個(gè)anchor最多標(biāo)簽的真實(shí)框。

        為了進(jìn)一步優(yōu)化標(biāo)簽分配策略,針對(duì)每個(gè)真實(shí)框,只挑選每個(gè)FPN 層中距離邊界框中心最近的r2錨框,對(duì)于其他錨框,對(duì)應(yīng)的成本會(huì)加上額外常數(shù)項(xiàng),減少訓(xùn)練階段其被分配為正樣本的概率。同時(shí)根據(jù)預(yù)測(cè)框和對(duì)應(yīng)真實(shí)框的IoU 值動(dòng)態(tài)估計(jì)每個(gè)真實(shí)框合適的正樣本數(shù)量,降低計(jì)算量,加強(qiáng)標(biāo)簽分配策略泛化能力,提高目標(biāo)識(shí)別模型的準(zhǔn)確率。

        3 實(shí)驗(yàn)與分析

        3.1 數(shù)據(jù)集

        采用由天津大學(xué)團(tuán)隊(duì)開源的數(shù)據(jù)集VisDrone2019,該數(shù)據(jù)集是一個(gè)大型無(wú)人機(jī)視角下的數(shù)據(jù)集,數(shù)據(jù)集亮度、色彩、氣候環(huán)境等因素豐富,涵蓋生活中常見10 種目標(biāo),且檢測(cè)目標(biāo)小而密集,非常符合本次實(shí)驗(yàn)要求。從數(shù)據(jù)集中分別隨機(jī)抽取了1 550張,464圖片組成本次實(shí)驗(yàn)的訓(xùn)練集和驗(yàn)證集。

        3.2 實(shí)驗(yàn)配置

        所有實(shí)驗(yàn)均在相同的硬件環(huán)境中進(jìn)行,相關(guān)環(huán)境配置如表1所示。

        表1 實(shí)驗(yàn)配置表Table 1 Experimental configuration table

        3.3 評(píng)價(jià)指標(biāo)

        本實(shí)驗(yàn)選取了目標(biāo)檢測(cè)領(lǐng)域重要評(píng)價(jià)指標(biāo)對(duì)模型進(jìn)行性能檢測(cè),分別是準(zhǔn)確率P(Precision)、召回率R(Recall)、精度AP(average precision)和平均精度mAP(mean average precision)[22],對(duì)應(yīng)計(jì)算公式如式(4)~(7)所示:

        上述式中,n表示標(biāo)簽種類,TP表示正確識(shí)別正樣本個(gè)數(shù),F(xiàn)P表示錯(cuò)誤識(shí)別正樣本的負(fù)樣本個(gè)數(shù),F(xiàn)N表示錯(cuò)誤識(shí)別負(fù)樣本的正樣本個(gè)數(shù)。

        3.4 模塊對(duì)比實(shí)驗(yàn)分析

        為了驗(yàn)證改進(jìn)模型算法的可行性和有效性,針對(duì)改進(jìn)模塊進(jìn)行橫向?qū)Ρ葘?shí)驗(yàn),在保持原有模型基礎(chǔ)上,對(duì)相同位置不同改進(jìn)點(diǎn)進(jìn)行對(duì)比實(shí)驗(yàn)。實(shí)驗(yàn)均在Yolov5-7.0版本基礎(chǔ)上進(jìn)行改進(jìn),迭代次數(shù)為300次。

        3.4.1 CARAFE上采樣對(duì)比分析

        利用輕量級(jí)上采樣算子CARAFE 替換傳統(tǒng)模型中最近鄰插值法(Nearest),同時(shí)對(duì)比上采樣插值法,選取雙立方插值法(Bicubic)、轉(zhuǎn)置卷積法(ConvTranspose2d)進(jìn)行對(duì)比實(shí)驗(yàn)。由表2可知,利用CARAFE上采樣改進(jìn)后的模型準(zhǔn)確率達(dá)到了49%,召回率達(dá)到了42.9%,mAP值達(dá)到了42.6%,相較其他上采樣算法,性能更佳。

        表2 不同上采樣算法檢測(cè)性能對(duì)比表Table 2 Different upsampling algorithms detection performance comparison table

        3.4.2 C2F模塊對(duì)比分析

        為了驗(yàn)證含有殘差結(jié)構(gòu)C2F模塊的有效性,針對(duì)模型中殘差模塊進(jìn)行對(duì)比實(shí)驗(yàn)分析。Yolov5模型4.0版本以后殘差模塊采用C3模塊。C3_Faster模塊是在FasterNet[23]輕量化模型基礎(chǔ)上提出的,致力于保證準(zhǔn)確率的同時(shí)減少模型參數(shù)。CSPstage 模塊引用DAMO-YOLO 的RepGFPN多尺度特征融合思想[24],通過加強(qiáng)特征融合能力來(lái)提高目標(biāo)檢測(cè)精度。VoVGSCSP 模塊[25]是由高效輕量化卷積GSConv組成的,用于提高模型檢測(cè)速度和精度。C2F模塊采用多層次梯度提取的思想,加深了特征提取的網(wǎng)絡(luò)層次,加大了模型參數(shù)量的同時(shí)提升模型檢測(cè)精度。對(duì)比實(shí)驗(yàn)選取的5 種殘差模塊在目標(biāo)特征提取和特征融合方面均表現(xiàn)出優(yōu)異效果。由表3可知,相比較其他模塊而言,C2F 模塊參數(shù)量有所增加,但mAP 提升較明顯。相較于C3_Faster 模塊的mAP@0.5提高了10.7 個(gè)百分點(diǎn),較CSPstage 模塊提高了2.1 個(gè)百分點(diǎn),達(dá)到46.6%,同時(shí)mAP@0.5-0.95 達(dá)到24.1%。對(duì)比實(shí)驗(yàn)結(jié)果進(jìn)一步驗(yàn)證了C2F模塊的有效性。

        表3 不同殘差結(jié)構(gòu)模塊實(shí)驗(yàn)數(shù)據(jù)對(duì)比表Table 3 Different residual structure module experimental data comparison table

        3.5 消融實(shí)驗(yàn)結(jié)果分析

        為了驗(yàn)證改進(jìn)模型算法的高效性,對(duì)算法所提及的改進(jìn)點(diǎn)在數(shù)據(jù)集上進(jìn)行消融實(shí)驗(yàn)。由表4可知,Yolov5算法模型在數(shù)據(jù)集上平均精度為40.6%,用C2F模塊替換C3 模塊后的Yolov5s_1 模型在平均精度方面提高了5.7 個(gè)百分點(diǎn),表明選用C2F 模塊在目標(biāo)檢測(cè)模型性能上有所提升。Yolov5s_2是在傳統(tǒng)模型基礎(chǔ)上通過采用CARAFE上采樣算子設(shè)計(jì)的目標(biāo)模型,其平均精度提升了0.7 個(gè)百分點(diǎn)。利用動(dòng)態(tài)標(biāo)簽分配策略改進(jìn)的模型Yolov5s_3,性能有了較大提升,mAP@0.5達(dá)到了60.4%。Yolov5s_4 模型、Yolov5s_5 模型和Yolov5s_6 模型都為改進(jìn)點(diǎn)兩兩融合的模型,從實(shí)驗(yàn)結(jié)果可知,兩兩融合后的模型較之前模型均有提升,并且表現(xiàn)出性能疊加效果。Yolov5s_UAV是所有改進(jìn)點(diǎn)融合的檢測(cè)模型,在檢測(cè)速度方面,改進(jìn)后的模型雖然FPS 有所下降,但仍能達(dá)到103 FPS,滿足無(wú)人機(jī)對(duì)于目標(biāo)檢測(cè)的速度要求。在檢測(cè)精度方面,改進(jìn)后的模型較傳統(tǒng)模型mAP@0.5 提升24.7個(gè)百分點(diǎn),達(dá)到65.3%,mAP@0.5-0.95提升14.3個(gè)百分點(diǎn)。對(duì)于無(wú)人機(jī)航拍數(shù)據(jù)集,所提改進(jìn)方法在目標(biāo)檢測(cè)方面性能均有提升,Yolov5s_UAV模型保持較高檢測(cè)速度的同時(shí)大幅提升了檢測(cè)精度,具有很高的適用性。

        表4 改進(jìn)過程模型變化實(shí)驗(yàn)數(shù)據(jù)表Table 4 Experimental data sheet for improved process model changes

        3.6 模型對(duì)比實(shí)驗(yàn)分析

        將數(shù)據(jù)集分別通過Yolov5s模型和改進(jìn)后的Yolov5s_UAV 模型進(jìn)行對(duì)比實(shí)驗(yàn)。與原模型相比,改進(jìn)后的模型無(wú)論在召回率、準(zhǔn)確率還是精度方面都有一定的提升,對(duì)數(shù)據(jù)集全類別提升效果明顯,改進(jìn)后的模型和傳統(tǒng)模型各個(gè)類別的訓(xùn)練結(jié)果對(duì)比如表5 所示。通過訓(xùn)練結(jié)果對(duì)比圖6 可知,傳統(tǒng)Yolov5s 模型在訓(xùn)練過程中存在準(zhǔn)確率不穩(wěn)定、召回率不理想和mAP 值不高的問題。改進(jìn)后的模型在訓(xùn)練方面比傳統(tǒng)模型準(zhǔn)確率更加穩(wěn)定,召回率曲線更加平滑,同時(shí)mAP值也有所提高。

        表5 改進(jìn)模型前后種類檢測(cè)性能對(duì)比表Table 5 Comparison table of species detection performance before and after improved model

        圖6 改進(jìn)前后模型檢測(cè)性能對(duì)比圖Fig.6 Comparison of model detection performance before and after improvement

        為了驗(yàn)證改進(jìn)后模型的高效性和適應(yīng)性,本文采用其他模型對(duì)該數(shù)據(jù)集進(jìn)行訓(xùn)練驗(yàn)證,分別為Yolov5系列的l、m、s、n版本模型和Yolo系列目前兩大高版本Yolov6和Yolov7[26],同時(shí)選取了兩個(gè)熱門無(wú)人機(jī)目標(biāo)檢測(cè)算法優(yōu)化模型進(jìn)行對(duì)比實(shí)驗(yàn),分別是輕量化無(wú)人機(jī)遙感圖像小目標(biāo)檢測(cè)模型LUSS-YOLO[22]和對(duì)于航拍小目標(biāo)的改進(jìn)模型VA-YOLO[27]。選取參數(shù)量、計(jì)算力(GFLOPs)、模型大小、mAP@0.5 和mAP@0.5-0.95 等5 個(gè)性能指標(biāo)進(jìn)行記錄,數(shù)據(jù)如表6 所示。從表可知,Yolov5s_UAV具有比Yolov5 系列模型參數(shù)少和精度高的優(yōu)點(diǎn)。對(duì)比高版本Yolov6和Yolov7,Yolov5s_UAV模型小且檢測(cè)精度高。與LUSS-YOLO、VA-YOLO 無(wú)人機(jī)優(yōu)化模型相比,改進(jìn)后模型雖然參數(shù)量和模型大小有所增加,但是對(duì)于目標(biāo)識(shí)別的精度有較大提高。Yolov5s_UAV 是在滿足無(wú)人機(jī)目標(biāo)檢測(cè)速度的前提下,通過優(yōu)化檢測(cè)模型結(jié)構(gòu),從而加強(qiáng)模型性能。

        表6 其他主流無(wú)人機(jī)檢測(cè)模型實(shí)驗(yàn)數(shù)據(jù)對(duì)比表Table 6 Other mainstream UAV detection model experimental data comparison table

        考慮無(wú)人機(jī)飛行過程中極易出現(xiàn)圖像抖動(dòng)、目標(biāo)遮擋和光線變化等情況,為了更加直觀驗(yàn)證改進(jìn)后模型的高效性以及對(duì)復(fù)雜環(huán)境的適應(yīng)性,組建無(wú)人機(jī)航拍目標(biāo)測(cè)試集并對(duì)傳統(tǒng)模型和改進(jìn)后的模型進(jìn)行視覺檢測(cè)結(jié)果對(duì)比。對(duì)比結(jié)果圖如圖7 所示,圖左側(cè)為傳統(tǒng)模型Yolov5s的目標(biāo)檢測(cè)圖,圖右側(cè)為改進(jìn)后的模型Yolov5s-UAV的目標(biāo)檢測(cè)圖。其中圖7(a)表示密集小目標(biāo)情況下改進(jìn)前后模型對(duì)比圖;圖7(b)表示黑暗模式下對(duì)比圖;圖7(c)表示強(qiáng)光照射目標(biāo)模糊情況下檢測(cè)對(duì)比圖;圖7(d)表示有目標(biāo)遮擋情況下檢測(cè)對(duì)比圖;圖7(e)表示超高角度下模型檢測(cè)對(duì)比圖。由圖7可知,傳統(tǒng)模型在面對(duì)惡劣環(huán)境下存在小目標(biāo)漏檢情況,改進(jìn)后的模型對(duì)小目標(biāo)檢測(cè)性能有了提升,減少了小目標(biāo)漏檢情況,提高了模型的檢測(cè)精度,對(duì)復(fù)雜環(huán)境具有更好的適應(yīng)性。

        圖7 復(fù)雜環(huán)境下改進(jìn)前后模型檢測(cè)對(duì)比圖Fig.7 Comparison of model detection before and after improvement in complex environments

        4 結(jié)束語(yǔ)

        通過分析無(wú)人機(jī)航拍圖像的特點(diǎn),總結(jié)了無(wú)人機(jī)航拍圖像檢測(cè)方法的不足,在Yolov5模型基礎(chǔ)進(jìn)行了一些改進(jìn),利用C2F 模塊和CARAFE 上采樣算法對(duì)骨干網(wǎng)絡(luò)進(jìn)行修改,加強(qiáng)了模型對(duì)圖像的特征提取和特征融合能力;采用全局性動(dòng)態(tài)標(biāo)簽分配策略進(jìn)行標(biāo)簽分配,提高了模型對(duì)密集目標(biāo)和小目標(biāo)的檢測(cè)精度。Yolov5s_UAV模型較傳統(tǒng)模型在性能上有較大提升,對(duì)數(shù)據(jù)集被測(cè)目標(biāo)所有種類上的識(shí)別準(zhǔn)確率、召回率和精度均有顯著提升,mAP@0.5 值提升24.7 個(gè)百分點(diǎn)達(dá)到了65.3%,mAP@0.5-0.95 提升14.3 個(gè)百分點(diǎn)達(dá)到了34.5%。改進(jìn)后的模型在滿足無(wú)人機(jī)實(shí)時(shí)檢測(cè)的情況下,可以更為準(zhǔn)確地完成航拍過程中小目標(biāo)的檢測(cè)任務(wù)。

        猜你喜歡
        航拍標(biāo)簽卷積
        基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
        航拍下的苗圃與農(nóng)場(chǎng)
        中外文摘(2021年10期)2021-05-31 12:10:40
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        無(wú)懼標(biāo)簽 Alfa Romeo Giulia 200HP
        車迷(2018年11期)2018-08-30 03:20:32
        難忘的航拍
        不害怕撕掉標(biāo)簽的人,都活出了真正的漂亮
        海峽姐妹(2018年3期)2018-05-09 08:21:02
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        《航拍中國(guó)》美得讓人想哭
        陜西畫報(bào)航拍
        標(biāo)簽化傷害了誰(shuí)
        亚洲视频一区二区三区视频| 国产精品18久久久久久首页| 日韩精品中文字幕人妻中出| 国产在线91精品观看| 国产乡下三级全黄三级| 老熟女多次高潮露脸视频| 国产三级在线观看播放视频| 欧美日本免费一区二| 久久精品国产亚洲av夜夜| 亚洲成av人综合在线观看| 日韩在线一区二区三区免费视频 | 一本色道加勒比精品一区二区 | 一本色道久久综合无码人妻| 性一交一乱一透一a级| 亚洲熟妇一区无码| 青青草在线成人免费视频| 狠狠综合久久av一区二区蜜桃| 中国内射xxxx6981少妇| 麻豆国产av尤物网站尤物| 91热久久免费频精品99| 深夜放纵内射少妇| 欧美日韩精品一区二区在线观看| A阿V天堂免费无码专区| 成人av资源在线播放| 午夜性色一区二区三区不卡视频| 精品国精品国产自在久国产应用| 五码人妻少妇久久五码| 黄片视频大全在线免费播放| 亚洲精品国产av天美传媒| 女性自慰网站免费看ww| 久久精品国产亚洲av夜夜| 亚洲爆乳精品无码一区二区三区| 正在播放国产对白孕妇作爱| 人妻少妇精品一区二区三区| 一本色道久久88—综合亚洲精品| 国产成人精品综合在线观看| 国产精品18久久久久网站 | 国产欧美久久久精品影院| 国产一区二区三区啊啊| 日韩丰满少妇无码内射| 在线观看国产一区亚洲bd|