亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進YOLOv5s 的無人機圖像實時目標檢測

        2022-04-15 09:17:46彭冬亮
        光電工程 2022年3期
        關鍵詞:深度特征檢測

        陳 旭,彭冬亮,谷 雨

        杭州電子科技大學自動化學院,浙江 杭州 310018

        1 引言

        “無人機+行業(yè)應用”逐漸成為社會剛需,實現(xiàn)無人機圖像的目標準確實時檢測與跟蹤是在安防巡警、農(nóng)業(yè)防害、電力檢修、物聯(lián)網(wǎng)運輸?shù)阮I域廣泛應用需要解決的核心問題之一。與通用目標檢測不同,無人機視角圖像小目標多且密集,不同類型目標間尺度差異大、背景復雜等特點[1]嚴重影響了目標檢測的精度,而無人機圖像的高分辨率特點對目標檢測模型優(yōu)化設計提出了挑戰(zhàn)。

        隨著深度學習理論與技術的飛速發(fā)展,基于深度學習的通用目標檢測性能取得了遠超傳統(tǒng)方法的性能[2-4],基于深度學習的通用目標檢測算法可分為RCNN[2]系列雙階段算法和YOLO[3]、SSD[4]系列單階段算法。單階段檢測器有著端到端的性能優(yōu)勢,但是在小目標定位識別上精度偏低。雙階段目標檢測器以先定位后識別的方式,在精度方面優(yōu)于單階段,但實時性較差。

        深度目標檢測模型算法的訓練需要大量的數(shù)據(jù),目前主要的無人機圖像目標檢測數(shù)據(jù)集包括VisDrone[5]、UAVDT[6]等。VisDrone 無人機數(shù)據(jù)集由多架無人機傾斜俯視拍攝而成,涵蓋了中國14 個城市景觀,包含10000 張圖像以及260 萬標注信息,對于檢測、跟蹤任務而言仍然是一個難度較高的數(shù)據(jù)集。VisDrone 數(shù)據(jù)集中圖片分辨率高達2000×1500,包含10 種目標類別,其中people 類和pedestrians 類極易混淆,圖像的尺度、方向多樣性、強度不均勻、退化嚴重等特點對算法設計提出了極大挑戰(zhàn)。UAVDT無人機數(shù)據(jù)集是一個大規(guī)模的目標檢測跟蹤數(shù)據(jù)集,由100 個航拍視頻、4 萬張圖片及其84.15 萬標注信息組成,圖片大小為1080×540,包含不同天氣狀況、飛行高度、攝像機視圖和遮擋等14 種不同場景下的三類車輛圖像,UAVDT 數(shù)據(jù)集中圖像的背景復雜度高于VisDrone 數(shù)據(jù)集。

        直接將通用目標檢測算法應用于無人機圖像目標檢測時,由于無人機圖像的上述特性,檢測性能通常會有較大降低,因此研究學者進行了有針對性的改進,主要從優(yōu)化雙階段檢測網(wǎng)絡、進行數(shù)據(jù)增強、優(yōu)化無錨方法、優(yōu)化輕量化網(wǎng)絡等幾個方面展開。

        為充分利用雙階段網(wǎng)絡在小目標檢測上的優(yōu)勢,文獻[7]針對提高IOU 訓練閾值存在的問題,提出了一種級聯(lián)指導IOU 重采樣的網(wǎng)絡結(jié)構Cascade RCNN,顯著提升了小目標檢測精度,但推理速度有所降低。基于無人機圖像目標聚集的特點,文獻[8]基于R-CNN 改進算法,提出了一種多階段集群檢測網(wǎng)絡ClusDet。該網(wǎng)絡使用區(qū)域聚類、切片檢測、尺度適應的方法,提高了雙階段目標檢測網(wǎng)絡在高分辨率無人機圖像上的運行速度與小目標檢測率。Singh 等人[9]使用小目標縮放、均衡正負樣本的訓練策略,提高了雙階段R-CNN 的精度水平;文獻[10]使用多方法聯(lián)合增強的訓練策略,解決了訓練網(wǎng)絡的過程中存在的尺度變化、目標稀疏、類別不均衡等問題,在不犧牲推理速度的情況下大幅提高精度。近年新興的無錨網(wǎng)絡十分適用于無人機圖像小目標檢測:Duan 等人提出的CenterNet[11]提出的視定位為檢測中心點及其偏移的任務,使用預測焦點的方式進行回歸,并從中心回歸的偏移參數(shù)得到實際的位置信息,該方法有效增強了小目標的檢出率,但高分辨率特征圖也降低了算法實時性。從實時性角度出發(fā),谷歌采用深度可分離卷積替換傳統(tǒng)卷積,提出了MobileNet[12]骨干網(wǎng)絡,大幅降低計算量,廣泛應用在邊緣設備上。隨后也出現(xiàn)了大量輕量化網(wǎng)絡:Pelee[13]、EfficientDet[14]、GhostNet[15]等。此外基于L1 正則化的模型剪枝、特征組之間的模型蒸餾加速方法也備受關注,提速效果明顯,可兼容各種邊緣設備,但是精度會出現(xiàn)較大損失。

        結(jié)合無人機圖像特點和單階段YOLO 系列算法的實時性和準確性,本文充分利用YOLOv5s 的優(yōu)勢解決了其深度寬度不均衡、分類精度不足等問題,有效提高了無人機場景下小模型實時檢測的精度,主要創(chuàng)新點包括以下幾點:

        1) 為解決無人機圖像目標尺度差異大、小目標檢測率低的問題,分析了深度模型中模型深度和寬度對于無人機圖像檢測的性能增益,提出了可顯著提高感受野的混合殘差空洞卷積模塊,并結(jié)合無人機圖像特點對YOLOv5s 模型進行改進,設計了YOLOv5sm模型;

        2) 為進一步優(yōu)化改進模型的實時性與識別率,設計了一種基于目標局部部件特征信息的注意力機制,提出了一種跨階段注意力特征融合模塊SCAM;

        3) 考慮到目標檢測任務中位置回歸與分類任務之間的矛盾,通過對YOLO 檢測頭進行改進,單獨對分類分支進行特征后處理,實現(xiàn)位置回歸與分類任務的隔離解耦;

        4) 最后采用VisDrone 和DIOR[16]數(shù)據(jù)集驗證了提出算法的有效性與適用性。

        2 基于YOLOv5s 改進算法

        2.1 YOLOv5s 基準算法

        基于全卷積的單階段YOLO 目標檢測算法,以其簡潔、快速、易部署的優(yōu)點,被廣泛應用于工業(yè)領域的目標檢測、跟蹤、分割,其中YOLOv5s 十分適用于無人機場景實時目標檢測。與其他檢測算法相比,YOLOv5s 有著如下特點。

        2.1.1 骨干網(wǎng)絡

        采用CSPDarkNet53 表征學習,在檢測性能上優(yōu)于ResNet 基準算法。其深度、寬度均衡化的特性兼容了不同設備、數(shù)據(jù)集。殘差網(wǎng)絡避免了深度網(wǎng)絡學習中的梯度消失的問題,以及CSPNet[17](cross stage partial network)在不丟失模型精度的條件下,加速推理44%。在最后一個尺度的表征學習前添加SPP[18],極大提高感受野,提高大目標檢出率和平移魯棒性。

        2.1.2 特征融合

        沿用特征金字塔網(wǎng)絡 (feature pyramid network,FPN)[19]輔以PANet[20]多尺度特征融合策略,如圖2所示,在不同特征層輸出檢測結(jié)果,提高了各尺度目標的檢出率與定位、識別精度。結(jié)合CSPNet 融合特征,優(yōu)化特征融合速度。

        圖2 特征融合模塊結(jié)構圖Fig.2 Structure diagram of feature fusion module

        2.1.3 其他特性

        采取一系列數(shù)據(jù)增強方法,并沿用目標檢測算法中的先驗框思想,在目標數(shù)據(jù)集上主動學習得到預設先驗框,使得目標定位更加精確,訓練更加快速穩(wěn)定。

        2.2 YOLOv5sm+算法

        盡管YOLOv5s 性能優(yōu)異,在無人機場景上有巨大優(yōu)勢,但是精度上相較YOLOv4[21]、EfficientDet 等一流模型差距較大,故本文從骨干網(wǎng)絡、特征融合、檢測頭三個方面改進YOLOv5s,提出了一個均衡化的實時檢測算法YOLOv5sm+,力圖保持運行速度的同時提高檢測精度。

        2.2.1 YOLOv5sm 骨干網(wǎng)絡

        深度卷積通過不斷疊加卷積模塊來提高檢測精度,但是無人機圖像小目標眾多,分辨率高,一味增加深度將嚴重降低算法實時性,給深度網(wǎng)絡帶來難以承受的推理、后處理計算成本,而且難以在硬件中實際部署。而YOLOv5s 模型低級特征映射少、感受野小,導致各大目標的召回率、精度偏低,故需針對無人機圖像對網(wǎng)絡進行調(diào)整。

        深度網(wǎng)絡可以映射更深層次的語義信息,這對分類有益,卻不利于回歸,回歸框的優(yōu)劣極大影響樣本判定,即召回率,進而影響整體精度。寬度網(wǎng)絡不但可以保存更多的歷史信息,降低神經(jīng)網(wǎng)絡的災難性遺忘,而且可以映射更細微的特征信息,即相似特征之間微弱的差異、偏移。這些對于無人機圖像定位、識別來說尤為重要。

        圖1 YOLOv5 骨干網(wǎng)絡架構圖Fig.1 YOLOv5 backbone network architecture diagram

        基于以上分析,本文對YOLOv5s 增寬50%以增加模型容量,去除Focus 模塊降低對小目標定位的影響,由于低層特征提取模塊內(nèi)部僅有32 維特征,故替換為殘差塊以增加低層內(nèi)部特征的容量、信息。為了解決低層特征感受野較小的問題,本文提出了混合殘差空洞卷積模塊(Res-DConv),如圖3 (a),通過有效提高感受野來增強背景信息對回歸、分類的指導,并避免降低局部細節(jié)信息損失,提高回歸的精度。如圖3 (b),該模塊(空洞率為3)等價于四層普通卷積的感受野,即可以一半的計算量實現(xiàn)相同深度。最終提出YOLOv5sm 輕量化骨干網(wǎng)絡,具體架構如表1 所示。

        表1 感受野分析表Table 1 Receptive field analysis table

        圖3 (a) Res-DConv 模塊;(b) 感受野映射Fig.3 (a) Res-DConv module;(b) Receptive field mapping

        其次考慮到錨的尺寸需受到特征感受野、下采樣次數(shù)的約束。首先根據(jù)實際數(shù)據(jù)集中目標的長寬分布,采用K-Means 聚類確定預設先驗框的大致范圍,再根據(jù)表2 中的框預設值范圍對先驗框進行歸類?;赮OLO 系列模型,VisDrone 數(shù)據(jù)集的預設錨點要參考實際目標出現(xiàn)頻次、長寬先驗信息與模型預測輸出的最值進行判斷取舍。采用契合數(shù)據(jù)集的超參數(shù)設置方法,將三個預設框增加為四個,可增加硬件設備兼容性,提高訓練速度,也可細分樣本的尺度變化,增大錨與真實樣本框的擬合度,提升訓練樣本召回率,利于檢測框的回歸,提升小目標的檢測精度。

        表2 呼應感受野、下采樣的錨點預設置Table 2 Pre-setting anchors in response to the receptive field and down-sampling

        2.2.2 SCAM 特征融合模塊

        為了保持小目標分類性能的同時平衡計算成本和物體尺度的方差、強化大目標的識別精度,受基于部件的細粒度目標分類[22]、注意力機制[23]啟發(fā),本文提出了SCAM 特征融合模塊,其主要思想是基于低分辨率特征圖的空間注意力對高分辨率特征圖進行加權篩選,用以增強目標的部件特征,提高特征利用率,增強檢測器的分類性能。本文稱之為跨階段注意力模塊(stage crossed attention module,SCAM)。

        本SCAM 模塊可取代下采樣模塊:首先低分辨率特征經(jīng)過最大池化和均值池化,連接后經(jīng)過混合空洞卷積后得到注意力掩碼圖像Mask;然后對高分辨率特征按照尺度轉(zhuǎn)通道進行處理(下轉(zhuǎn)換)結(jié)合Mask掩碼對高分辨率特征進行加權,后經(jīng)過通道注意力[24]調(diào)整通道得到待融合特征;最后將高階特征與處理后的低階特征按維度級聯(lián)融合得到融合特征。具體模塊結(jié)構如圖4 中SCAM 模塊所示。

        圖4 改進模塊結(jié)構Fig.4 Improved module structure

        2.2.3 SDCM 檢測頭解耦模塊

        目標檢測中分類和回歸的矛盾本質(zhì)上是卷積的平移、尺度的不變性和恒等性之間的矛盾。分類任務希望目標狀態(tài)經(jīng)平移、旋轉(zhuǎn)、光照和尺度改變后,類別信息不變,即平移和尺度的不變性,而對于回歸任務,需要目標的狀態(tài)變化皆反映在特征上,進而回歸出準確位置,即平移和尺度的恒等性?;赗etina-Net[24]、Double-Head R-CNN[25]等文獻對檢測頭解耦的做法,本文提出SDCM(split de-couped module)模塊,可分階段地執(zhí)行不同的任務,防止特征共用,第一階段完成回歸任務,第二階段借助跨階段卷積模塊協(xié)助完成分類任務,從而緩解了這種互斥矛盾,提高了細類別的分類精度。

        2.2.4 YOLOv5sm+模型架構

        混合殘差空洞卷積的高感受野和高維特征,降低了實際所需的卷積層數(shù),使得低層特征具有較大感受野的同時包含較多的細節(jié)信息,輔以SCAM 特征融合模塊和SDCM 檢測頭,用以提高檢測速度與定位識別精度,改進模型并稱之為YOLOv5sm+,和YOLOv5 相似,該模型有著四種不同的容量大小,以匹配不同設備、數(shù)據(jù)集。尤其在無人機場景中,性能優(yōu)異的輕量化的模型結(jié)構十分重要。

        圖5 YOLOv5sm+模型架構Fig.5 YOLOv5sm+model architecture

        3 實驗設計

        3.1 實驗準備

        3.1.1 數(shù)據(jù)處理

        本文選取VisDrone2019-DET 數(shù)據(jù)集進行實驗,訓練、驗證數(shù)據(jù)集均以步長為600,切分為800×800的圖像,其中訓練數(shù)據(jù)集有樣本25447 張圖片及其標注,驗證集樣本1115 張圖像及其標注信息,測試集為547 張驗證集原圖。

        經(jīng)過數(shù)值統(tǒng)計分析,由表3、圖6 可知,VisDrone數(shù)據(jù)集類別分布不均衡、小目標眾多、大目標稀少,部分類間方差較小,類別混淆嚴重,是一個極具挑戰(zhàn)性的數(shù)據(jù)集。

        圖6 (a) VisDrone 數(shù)據(jù)集類別實例總計;(b) YOLOv5m 算法下的類混淆矩陣Fig.6 (a) Total number of category instances on the VisDrone dataset;(b) Classes confusion matrix of YOLOv5m algorithm

        表3 不同類型目標數(shù)量統(tǒng)計Table 3 Statistics of different types of objects

        3.1.2 實驗設置

        實驗中采用的服務器配置如下:Intel(R) i7-6850K的CPU,64 G 內(nèi)存,NVIDIA GeForce GTX 3090 圖形處理器,Ubuntu 18.04 操作系統(tǒng)。

        所有模型訓練使用雙卡分布式混合精度訓練,并使用單卡單批次方式進行測試。實驗代碼基于ultralytics 的YOLOv5 工程第四個版本和yolov3-archive 工程融合改進,同時支持yaml 模型文件和cfg 模型文件,所有算法皆為官方模型在本工程的遷移實現(xiàn)。訓練輪次(epoch)初始為200,批大小為16;采用SGD 梯度下降優(yōu)化器,初始學習率0.01,動量為0.949,采用one-cycle 學習率衰減,其它為默認設置。

        3.2 評價指標

        為了準確評估深度模型在無人機空域圖像上的檢測性能,本文采用檢測算法評估公認度最高的平均精度均值(mean average precision,mAP),即數(shù)據(jù)集中各類精度的平均值。每個類別根據(jù)準確率和召回率可繪制一條曲線,該曲線與坐標軸的面積則為AP 值。其中準確率(precision,P)、召回率(recall,R)定義如下。其中TP為真正例,F(xiàn)P為假正例,F(xiàn)N為假反例。

        實驗中采用COCO 評價標準[26],使用pycocotools工具對檢測結(jié)果進行評估分析。當檢測框與真值的交并比(intersection over union,IOU)大于0.5 認為該目標被準確預測,分別在IOU 取值為0.5、0.75、0.5:0.95條件下的計算總類別的平均精度(mAP50,mAP75,mAP),并且在IOU 為0.5 的條件下分別統(tǒng)計大、中、小三種尺度目標的平均精度(AP-large,AP-mid,APsmall)。模型實時性評估采用單張圖片的平均推理時間。

        4 數(shù)據(jù)分析

        4.1 消融實驗

        4.1.1 目標檢測模型中深度和寬度對檢測精度影響實驗分析

        首先本文探索了深度和寬度對VisDrone 數(shù)據(jù)集算法精度的增幅,為了保證對比模型的計算量、參數(shù)量一致,模型設置如下:1) 深度為1.33、寬度為0.5的深度模型;2) 深度為0.33、寬度為0.75 的寬度模型;3) 深度為0.33,寬度為0.5 的基準模型YOLOv5s。實驗使用處理后的訓練集以及相同的默認參數(shù)進行訓練,在800×800 的裁剪后的驗證數(shù)據(jù)集上進行單尺度測試,評價模型的表征能力。由表4 實驗結(jié)果可知:1) YOLOv5s 的模型容量不足以容納VisDrone 數(shù)據(jù)集的知識總量;2) 在VisDrone 無人機數(shù)據(jù)集上,相比深度網(wǎng)絡模型,寬度網(wǎng)絡模型對精度提升增益更大。

        表4 深度、寬度模型性能對比實驗結(jié)果Table 4 Performance comparison experiment results of depth and width models

        為了驗證混合殘差空洞卷積模塊的有效性,設置實驗如下,模型分別為YOLOv5s 和更改殘差塊為Res-Dconv 的YOLOv5s+Res-Dconv 模型,實驗條件同上。由表5 實驗結(jié)果可知,在VisDrone 數(shù)據(jù)集上,相較原始YOLOv5s 模型,改進模型平均精度提升1.4%,驗證了本模塊可增大感受野,縮減網(wǎng)絡深度,進而提高性能。

        表5 Res-Dconv 模塊驗證實驗結(jié)果Table 5 Verification experiment results on Res-Dconv module

        鑒于以上實驗,本文提出了YOLOv5sm 骨干網(wǎng)絡,并與官方s、m 模型進行對比實驗,在1536×1536 的圖片分辨率下測試各項指標,如表6 的1、2行所示,在s 模型基準下,改進骨干的mAP50 提高了4.1 個百分點,優(yōu)于s 模型的0.548,驗證了改進模型在無人機圖像上具有可行性。

        4.1.2 特征融合SCAM 模塊對比實驗

        為驗證SCAM 模塊的有效性,本文以YOLOv5s為基準模型,并以SCAM 模塊替換下采樣特征融合模塊進行對比實驗,實驗參數(shù)默認,使用單尺度訓練,在1536×1536 分辨率下進行測試,由表6 第1、3 行可知,相較于YOLOv5s 基準模型,SCAM 模塊提升mAP50 近0.7%,且目標越大,提升越明顯,同時參數(shù)量和推理時間也低于基準模型。

        4.1.3 SDCM 檢測頭解耦模塊對比實驗

        為驗證SDCM 模塊的可行性,本文仍然以YOLOv5s 為基準模型,在此基礎之上加入SDCM 模塊進行對比實驗。SDCM 模塊可直接替換YOLOv5s的檢測頭結(jié)構,實驗條件同上,通過比較表6 中的第1、4 行,得出SDCM 模塊在輕量級s 模型基礎上將性能指標mAP 提升1.4%,也驗證了對于回歸、分類解耦的可行性。

        表6 本文算法模塊在VisDrone 數(shù)據(jù)集上的消融實驗結(jié)果Table 6 The ablation experiment results of our algorithm modules on the VisDrone dataset

        4.2 VisDrone 數(shù)據(jù)集檢測結(jié)果

        為了驗證本文方法的有效性,本文以YOLOv5s模型作為基準算法,然后以Scaled-YOLOv4[27]、YOLOv3[28]探索精度水平,MobileNetv3[29]探索速度基準,MobileViT[30]試驗Transformer 算法的性能表現(xiàn),YOLOX[31]試驗無錨檢測算法在VisDrone 數(shù)據(jù)集上的性能表現(xiàn)。實驗結(jié)果如表7 所示。

        表7 不同算法在VisDrone 數(shù)據(jù)集上的檢測性能Table 7 Detection performance of different algorithms on VisDrone dataset

        對比發(fā)現(xiàn),在1536×1536 分辨率下,基準算法YOLOv5s 的mAP50 精度為54.8%,實時性最好;Scaled-YOLOv4 精度最高、YOLOv3 次之,同時模型復雜度最高,推理時間達不到無人機平臺算法實時性的要求;對于輕量級網(wǎng)絡MobileNetv3 來說,精度優(yōu)于YOLOv5s 模型,但是速度上次于YOLOv5s;基于注意力的Transformer 輕量級網(wǎng)絡性能上并不占優(yōu)勢;無錨檢測器YOLOX 的精度最低,即在輕量骨干網(wǎng)絡下,無錨檢測器回歸精度低,性能較差。

        YOLOv5sm+模型較基準模型mAP50 高5.6%,優(yōu)于m 模型且推理速度提升21.4%,也驗證了改進算法在無人機數(shù)據(jù)集上的有效性。由圖7 可知,本文YOLOv5sm+模型在遠景小目標的檢出率優(yōu)于s 和m模型,由圖8 可知,在重疊度高的目標集群中,本文算法可以更準確的檢測出實際的目標,虛警低于對比模型。

        圖7 不同算法在VisDrone 無人機場景下的檢測實例。(a) YOLOv5m 模型;(b) YOLOv5sm+模型;(c) YOLOv5s 模型Fig.7 The detection examples of different algorithms in the VisDrone UAV scene.(a) YOLOv5m model;(b) YOLOv5sm+model;(c) YOLOv5s model

        圖8 三種算法在密集車輛場景的檢測結(jié)果對比圖。(a) YOLOv5m;(b) YOLOv5s;(c) YOLOv5sm+Fig.8 Comparison of the detection effects of three algorithms in dense vehicle scenes.(a) YOLOv5m;(b) YOLOv5s;(c) YOLOv5sm+

        4.3 DIOR 數(shù)據(jù)集遷移實驗

        為了充分驗證本文方法有效性和魯棒性,本文在DIOR 遙感數(shù)據(jù)集上進行了對比驗證。該數(shù)據(jù)集是西北工業(yè)大學于2019 年發(fā)布了一個大規(guī)模的空域遙感數(shù)據(jù)集,數(shù)據(jù)集在不同成像條件、天氣和季節(jié)下采集而成,覆蓋20 個目標類別,類間相似、類內(nèi)多樣,尺度差異性大,背景復雜,適合遷移驗證本文算法有效性。訓練參數(shù)按照默認實施,使用多尺度訓練模型200 個輪次。DIOR 數(shù)據(jù)集使用官方的數(shù)據(jù)劃分,分為5876 張訓練集,876 張驗證集,14885 張測試集,采用默認超參數(shù)設置。

        實驗結(jié)果如表8 所示,在20 類的DIOR 遙感數(shù)據(jù)集上,相對于YOLOv5s 模型,改進模型檢測精度提升近4.2%,達到了66.7%,優(yōu)于Faster R-CNN 兩階段算法。由如圖9 中的部分檢測實例可知,本模型在虛警率、密集目標分辨率上表現(xiàn)優(yōu)于YOLOv5s 模型。實驗表明,本文算法對于小目標眾多、尺度差異大、目標重疊度的數(shù)據(jù)集可以實現(xiàn)較好的魯棒性。

        圖9 改進算法在DIOR 數(shù)據(jù)集的檢測對比。(a) YOLOv5s;(b) YOLOv5sm+Fig.9 Detection comparison of improved algorithm in DIOR dataset.(a) YOLOv5s;(b) YOLOv5sm+

        表8 不同算法在DIOR 數(shù)據(jù)集上的檢測性能Table 8 Detection performance of different algorithms on DIOR dataset

        5 結(jié)論

        本文以無人機監(jiān)視場景為背景,分析了VisDrone無人機視角數(shù)據(jù)集的目標分布規(guī)律。首先探索了在UAV 數(shù)據(jù)集上深度和寬度對YOLOv5 模型的精度增幅,實驗結(jié)果表明,在無人機數(shù)據(jù)集上,雖然深度模型的深層語義提高了模型精度,但是由于內(nèi)部特征匱乏,深度模型性能差于寬度模型,主要影響精度水平的是內(nèi)部特征映射量?;诨旌蠚埐羁斩淳矸e模塊,提出了一種均衡化的實時目標檢測模型YOLOv5sm,精度高于YOLOv5s 模型4.1 個百分點。SCAM 特征融合模塊提高了特征空間利用率和特征融合速度,進一步提升了檢測精度。在VisDrone 數(shù)據(jù)集上的結(jié)果表明,目標尺度越大,精度提升越明顯。最后基于解耦的思想改進檢測頭結(jié)構,進一步提升了精度水平。通過與Scaled-YOLOv4、MobileNetv3 輕量化網(wǎng)絡、MobileViT 注意力網(wǎng)絡、YOLOX 無錨檢測器對比可知,改進模型可顯著提高模型精度,驗證集mAP50高達60.6%,優(yōu)于m 模型且速度提升21.4%,基本滿足無人機邊緣設備上的性能、精度要求。在DIOR 數(shù)據(jù)集上的遷移實驗表明,改進模型相較于YOLOv5s基準模型,mAP50 提升4.2%,驗證了算法的有效性和魯棒性。雖然改進模型的精度、速度在VisDrone數(shù)據(jù)集上較為可觀,但后期工作仍需關注召回對目標的精度影響以及在無人機并行設備上的實際測試部署工作。

        猜你喜歡
        深度特征檢測
        “不等式”檢測題
        “一元一次不等式”檢測題
        “一元一次不等式組”檢測題
        深度理解一元一次方程
        如何表達“特征”
        不忠誠的四個特征
        當代陜西(2019年10期)2019-06-03 10:12:04
        深度觀察
        深度觀察
        深度觀察
        抓住特征巧觀察
        岛国熟女一区二区三区| 一本久久a久久精品vr综合| 99精品免费久久久久久久久日本| 制服丝袜视频国产一区| 亚洲一区久久久狠婷婷| 手机在线观看日韩不卡av| 人妻丝袜av中文系列先锋影音| 91福利国产在线观看一区二区| 日本最新在线一区二区| 国产情侣自拍在线视频| 国产人妖视频一区二区| 免费av一区二区三区无码| 亚洲成a人片在线观看无码| 亚洲VR永久无码一区| 国产亚洲综合另类色专区 | 国产精品无码无在线观看| 人妻无码中文专区久久五月婷 | 伊人蕉久中文字幕无码专区| 69av视频在线| 亚洲国产最新免费av| 亚洲欧洲国产成人综合在线| 亚洲精品无码国模| 亚洲精品国产精品av| 一区二区三区日韩亚洲中文视频| 激情综合色综合久久综合| 国产精品无码Av在线播放小说| 后入少妇免费在线观看| 欧洲乱码伦视频免费| 人妻被黑人粗大的猛烈进出| 国产精品国产三级国产av主| 久久精品伊人久久精品伊人| 人成午夜大片免费视频77777 | 囯产精品无码va一区二区| 亚洲男人在线天堂av| 琪琪色原网站在线观看| 日日噜噜夜夜狠狠久久无码区| 波多吉野一区二区三区av| 在线播放草猛免费视频| 米奇777四色精品人人爽| 国内成人精品亚洲日本语音| 国产极品大秀在线性色|