亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        面向無人機(jī)平臺的輕量化目標(biāo)檢測網(wǎng)絡(luò)

        2023-12-04 02:39:48黃丹丹于林韜王惠績
        光學(xué)精密工程 2023年20期
        關(guān)鍵詞:網(wǎng)絡(luò)結(jié)構(gòu)度量分支

        黃丹丹, 高 晗, 劉 智,2*, 于林韜, 王惠績

        (1. 長春理工大學(xué) 電子信息工程學(xué)院,吉林 長春 130022;2. 長春理工大學(xué) 空間光電技術(shù)國家地方聯(lián)合工程研究中心,吉林 長春 130022)

        1 引言

        無人機(jī)憑借尺寸小、操作靈敏等優(yōu)點,能夠替代人類完成一些高難度或有危險的任務(wù)[1]。目標(biāo)檢測是搭載在無人機(jī)平臺的一項重要視覺任務(wù),能夠?qū)崿F(xiàn)空中對地俯視視角下的目標(biāo)檢測,這在軍事偵察、森林防火、高壓輸電線路巡檢、環(huán)境監(jiān)測、智慧交通等領(lǐng)域發(fā)揮重要作用[2]。在人工智能時代,基于卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測算法不斷刷新著目標(biāo)檢測的性能[3-4]。但是,目前絕大多數(shù)的目標(biāo)檢測算法都是基于平視自然的視角下進(jìn)行的改進(jìn)。由此可見,設(shè)計一種專門針對無人機(jī)視角下的目標(biāo)檢測模型將是一項有意義且具有挑戰(zhàn)性的工作。

        在無人機(jī)目標(biāo)檢測的實際場景中,面臨許多挑戰(zhàn)性的問題。例如,當(dāng)無人機(jī)的飛行高度發(fā)生變化時,圖像采集設(shè)備與拍攝目標(biāo)之間的距離也會發(fā)生變化,這就使得無人機(jī)獲取的圖像中目標(biāo)尺度變化過大,從而影響目標(biāo)檢測的精度[5];當(dāng)無人機(jī)的飛行高度較高時,高空俯視視角下采集的圖像會包含大量的小目標(biāo)。由于檢測網(wǎng)絡(luò)對這些小目標(biāo)能夠提取的特征特別少,導(dǎo)致檢測精度非常差[6];由于無人機(jī)機(jī)載嵌入式設(shè)備的算力有限,而常規(guī)的目標(biāo)檢測算法一般會產(chǎn)生較大的參數(shù)量,使無人機(jī)視角下的目標(biāo)檢測無法做到實時性[7]。

        針對上述問題,研究者們做了大量工作。多尺度信息融合[8-10]是解決無人機(jī)平臺下目標(biāo)尺度變化大的有效方案,但多尺度融合會給網(wǎng)絡(luò)增加許多參數(shù),減慢模型的推理速度,不利于模型的部署。關(guān)于無人機(jī)視角下的小目標(biāo)檢測問題,Chen 等[11]提出了一種改進(jìn)的R-CNN(Region-Convolutional Neural Networks)的小目標(biāo)檢測模型,通過上下文模型和區(qū)域提議生成器增強(qiáng)了RCNN 算法,以提高小目標(biāo)檢測性能;Li 等[12]人提出一種利用生成對抗網(wǎng)絡(luò)(Generative Adversarial Networks,GAN),將低分辨率的小物體轉(zhuǎn)換為類似大物體的高分辨率信息。上述工作改善了小目標(biāo)檢測的檢測效果,但也引入了較多的計算量,網(wǎng)絡(luò)模型不夠輕量化。對于模型的輕量化處理,目前較為流行的方法是模型壓縮[13],即在已經(jīng)訓(xùn)練好的模型上進(jìn)行簡化,而Yang 等人[14]則提出了一種QueryDet 檢測網(wǎng)絡(luò),使用一種新穎的查詢機(jī)制來加速基于特征金字塔的目標(biāo)檢測器的推理速度。但該類方法實際操作復(fù)雜且穩(wěn)定性較差。而Huang 等人[15]提出了一種YOLOv5-tiny 模型,大幅度提升了檢測速度,但犧牲了較大的檢測精度。最近的研究成果中,TPHYOLOv5[16]為了提高網(wǎng)絡(luò)的預(yù)測回歸能力,將Transformer 引入到Y(jié)OLOv5 的檢測頭中,并且使用注意力機(jī)制模塊,使網(wǎng)絡(luò)更加關(guān)注被檢測的目標(biāo),但這種方法在目標(biāo)密集的情況下容易造成漏檢。

        鑒于以上分析,可知無人機(jī)視角下目標(biāo)檢測任務(wù)面臨圖像尺度變化大、小目標(biāo)檢測結(jié)果精度低以及機(jī)載嵌入式資源有限等問題。本文針對以上問題展開研究,提出一種基于YOLOv5 模型的面向無人機(jī)平臺輕量化的目標(biāo)檢測方法。對于該方法的主要特點與改進(jìn)之處描述如下:(1)在網(wǎng)絡(luò)結(jié)構(gòu)方面增加檢測分支以提高模型的檢測能力,增強(qiáng)來自于淺層特征的表達(dá),解決目標(biāo)特征在經(jīng)過多次卷積池化后大量信息丟失的問題,同時緩解無人機(jī)飛行高度變化引起的圖像尺度變化的問題;(2)采用NWD[17](Normalized Wasserstein Distance,NWD)與傳統(tǒng)IOU(Intersection Over Union)混合的小目標(biāo)檢測度量方法,取代常用的IOU 度量[18-20],減輕IOU 對小目標(biāo)位置偏差的敏感性,從而提高網(wǎng)絡(luò)對小目標(biāo)檢測的檢測性能;(3)為降低模型的參數(shù)量,引入Faster-Net[21]網(wǎng)絡(luò)結(jié)構(gòu),并且與C3 網(wǎng)絡(luò)結(jié)構(gòu)融合,大大提高了目標(biāo)檢測的推理速度,使模型更適合無人機(jī)平臺使用。

        2 相關(guān)工作

        2.1 YOLOv5 算法模型

        YOLOv5 算法模型作為端到端的卷積神經(jīng)網(wǎng)絡(luò)模型,可直接對輸入的圖片進(jìn)行預(yù)測,從而得到目標(biāo)的定位和分類[22-25]。YOLOv5 的網(wǎng)絡(luò)結(jié)構(gòu)主要由backbone 和head 組成,backbone 主要由Conv 層、C3 層和SPPF 層組成,具體結(jié)構(gòu)如圖1所示。 Conv 層由Conv2d 卷積函數(shù)、Batch-Norm2d 歸一化函數(shù)以及SiLU 激活函數(shù)組成;C3層是由3 個卷積層和多個bottleneck 模塊構(gòu)成,是對殘差特征進(jìn)行學(xué)習(xí)的主要模塊;SPPF 層位于backbone 的最后一個Conv 層后,將輸入經(jīng)過多個并行不同大小的Maxpool 后做進(jìn)一步融合,可在一定程度上解決多尺度的問題。head 包括特征增強(qiáng)和預(yù)測兩部分,特征增強(qiáng)部分由PANet(Path Aggregation Network)構(gòu)成,旨在將不同層級的特征進(jìn)行整合,通過自下而上的路徑增強(qiáng)較低層次上的精確定位信號,從而縮短較低層與最頂層特征間信息路徑。head 層的預(yù)測部分包含3個輸出頭,卷積步長分別為8,16,32,大尺寸檢測頭輸出特征圖檢測小目標(biāo),小尺寸檢測頭輸出特征圖檢測大目標(biāo)[26]。

        圖1 YOLOv5 的backbone 層各結(jié)構(gòu)示意圖Fig.1 YOLOV5's Backbone layer various structural diagrams

        當(dāng)使用VisDrone 數(shù)據(jù)集[27]訓(xùn)練模型時,發(fā)現(xiàn)YOLOv5x 模型的精度要遠(yuǎn)超于其他模型,但YOLOv5x 模型的計算成本是YOLOv5 系列模型中最高的,不適合在無人機(jī)平臺上應(yīng)用,而YOLOv5s 模型雖然計算成本低,但精度卻遠(yuǎn)不及其他模型。綜合考慮,本文采用性能更加均衡的YOLOv5l 模型作為基準(zhǔn)網(wǎng)絡(luò),并在此基礎(chǔ)上進(jìn)行優(yōu)化和改進(jìn)。

        2.2 歸一化Wasserstein 距離(NWD)的度量方法

        IOU 是目標(biāo)檢測常用的度量方式,但其自身也存在缺點:IOU 對于位置的微小變化非常敏感。所以Wang J 等人[17]提出了一種新的方法,即新的包圍框相似度(NWD)來代替IOU。NWD 不僅能夠?qū)崿F(xiàn)IOU 的功能,而且對目標(biāo)的尺度并不敏感,非常適用于測量小目標(biāo)的相似性。

        在小目標(biāo)檢測中,由于絕大部分物體不是標(biāo)準(zhǔn)的矩形,往往邊界框會帶有背景信息。而目標(biāo)物體信息、背景信息會分別集中于邊界框的中心點、邊界上。因此,為邊界框構(gòu)建二維高斯分布時,可將邊界框的中心像素設(shè)置為權(quán)值最高,中心點至邊界逐步降低。對邊界框R=(cx,cy,w,h)其中中心坐標(biāo)為(cx,cy),寬度和高度分別w和h,將R建模為二維高斯分布N(μ,∑),其中:

        用Wasserstein 距離計算分布距離時,對于不同的邊界框μ1=N(m1,∑1)和μ2=N(m2,∑2)之間的二階Wasserstein 距離計算公式如式(2)所示:

        對于邊界框A=(cxa,cya,wa,ha)和邊界框B=(cxb,cyb,wb,hb)建模的高斯分布Na和Nb,公式最終可簡化如公式(3)所示:

        2.3 FasterNet 網(wǎng)絡(luò)結(jié)構(gòu)

        Jierun Chen 等人[21]研究發(fā)現(xiàn):每秒浮點運(yùn)算的效率低下,不一定會導(dǎo)致延遲減少。所以作者在此基礎(chǔ)上指出:同時減少冗余計算與內(nèi)存訪問,能有效提取空間特征。在這一思路下,根據(jù)PConv 進(jìn)一步提出了FasterNet,能夠有效提高算法的推理速度。圖2 所示為FasterNet 的網(wǎng)絡(luò)結(jié)構(gòu),從圖中可知該網(wǎng)絡(luò)先進(jìn)行PConv 操作提取空間特征,再進(jìn)行兩次PWConv 操作,能夠充分有效地利用來自所有通道的信息。

        圖2 FasterNet 網(wǎng)絡(luò)結(jié)構(gòu)Fig.2 FasterNet network structure

        圖3 所示為PConv 工作原理:只需在輸入通道的一部分應(yīng)用Conv 進(jìn)行空間特征提取,其他通道保持不變。對于連續(xù)或規(guī)則的內(nèi)存訪問,視第一個連續(xù)的通道或最后一個連續(xù)的通道為整個特征圖代表進(jìn)行計算。在不喪失一般性的情況下,可認(rèn)為輸入、輸出特征圖的通道數(shù)量相同。因此,PConv 的FLOPs 僅對于典型的r=1/4(r=Cp/C,C和Cp分別代表PWconv 與Pconv 的通道數(shù)),只有常規(guī)卷積的1/16。此外,PConv 的內(nèi)存訪問量較小,同樣對于r=1/4,其僅為常規(guī)卷積的1/4。

        圖3 PConv 工作原理Fig.3 PConv working principle

        如圖4 所示,為了獲取特征圖中的通道信息,將逐點卷積(PWConv)附加到PConv,因此在輸入特征圖上形成了類似“T”形Conv 的結(jié)構(gòu),這種“T”形Conv 結(jié)構(gòu)與常規(guī)Conv 結(jié)構(gòu)相比能夠更好地在圖像中定位目標(biāo)。

        3 基于YOLOv5l 的算法改進(jìn)

        本文基于YOLOv5l 算法改進(jìn)的模型如圖5所示(彩圖見期刊電子版),其中虛線框為新增的檢測分支P2,用于解決無人機(jī)因飛行高度變化引起的尺度變化問題;針對IOU 對小目標(biāo)位置偏差敏感的問題,提出基于NWD 與傳統(tǒng)IOU 混合的小目標(biāo)檢測度量方法,提高了小目標(biāo)的檢測精度;圖中綠色處理單元為本文新設(shè)計的C3_FN模塊,這種C3_FN 模塊是將FasterNet 與C3 融合得到的一種輕量化網(wǎng)絡(luò)結(jié)構(gòu),以解決無人機(jī)機(jī)載嵌入式設(shè)備算力資源有限的問題。

        圖5 改進(jìn)后的YOLOv5 模型Fig.5 Improved YOLOV5 model

        3.1 新增目標(biāo)檢測分支

        新增的P2 檢測分支為圖5 中虛線框內(nèi)所示,此分支可用于多尺度中極小目標(biāo)的檢測。P2 檢測分支的輸入,大部分來源于淺層中的卷積層,且包含許多信息,如:形狀、位置、大小等。由于深層的特征圖在經(jīng)過多次的卷積和池化后,會損失較多信息,且大目標(biāo)的特征有蓋住小目標(biāo)信息的可能,因而造成誤檢、漏檢的問題。所以,引入淺層信息的P2 檢測分支能夠有效定位小目標(biāo)的位置,從而可以更好地實現(xiàn)小目標(biāo)的檢測。同時,基于錨框的基準(zhǔn)模型對錨框設(shè)定較為敏感,而新增的P2 檢測分支在進(jìn)行預(yù)測回歸時,錨框的大小設(shè)定為數(shù)據(jù)集進(jìn)行K-means 聚類分析后得到的小目標(biāo)尺寸,因此更適合實際檢測任務(wù)。其他各個分支的錨框設(shè)定如表1 所示。本文算法新增的P2 檢測分支可減少由于物體過小而錨框過大所導(dǎo)致的小目標(biāo)被忽略的情況,進(jìn)而有效緩解由于錨框設(shè)定而引起的誤檢、漏檢的情況。

        表1 各個檢測分支的錨框設(shè)定值Tab.1 Setting value of the anchor frame of each detection branch

        3.2 優(yōu)化度量指標(biāo)

        IOU 是目標(biāo)檢測中常用的度量指標(biāo),IOU 的發(fā)展經(jīng)歷了GIOU,DIOU,CIOU 等歷程。上述度量指標(biāo)對于普通中大尺寸目標(biāo)已有較好的效果,但是由于在無人機(jī)視角下,大多數(shù)地面目標(biāo)均為只有幾像素的小目標(biāo),缺乏外觀信息和細(xì)節(jié)。而IOU 對不同尺度目標(biāo)的敏感性差異很大,對于像素越小的目標(biāo),微小距離的改變就會導(dǎo)致IOU 下降的明顯變化,進(jìn)而導(dǎo)致模型對小目標(biāo)檢測精度的下降。于是本文引入NWD 來解決IOU對小目標(biāo)位置偏差敏感的問題,提高網(wǎng)絡(luò)對小目標(biāo)檢測的精度。

        由于單獨(dú)使用NWD 會造成網(wǎng)絡(luò)收斂速度慢,因此本文采用NWD 和IOU 混合的方法,這樣就可以完美解決收斂變慢及目標(biāo)檢測精度低的問題。本文采用的模型損失函數(shù)如公式(5)所示:

        其中:α為可調(diào)節(jié)的超參數(shù),取值范圍為0~1,通過調(diào)節(jié)α的值來調(diào)節(jié)IOU 與NWD 的比重,即當(dāng)α的值增大時,NWD 比重增大;當(dāng)α的值減少時,IOU 比重增大。

        3.3 輕量化的網(wǎng)絡(luò)結(jié)構(gòu)

        如2.1 節(jié)所訴,YOLOv5 主干特征提取網(wǎng)絡(luò)采用C3 結(jié)構(gòu)會帶來較大參數(shù)量,進(jìn)而導(dǎo)致檢測速度慢、應(yīng)用受限等問題。在無人機(jī)視角下進(jìn)行目標(biāo)檢測時,大且復(fù)雜的模型難以被應(yīng)用。原因如下:首先,模型過于龐大,會面臨內(nèi)存不足的情況;其次,場景要求低延遲、響應(yīng)速度要快、精度較高的模型算法。而FasterNet 網(wǎng)絡(luò)采用PConv結(jié)構(gòu),該結(jié)構(gòu)能夠在減少冗余計算和內(nèi)存訪問的基礎(chǔ)上更有效地提取空間特征。因此本文引入FasterNet 網(wǎng)絡(luò)結(jié)構(gòu),并與C3 結(jié)合形成一種快速輕量化的網(wǎng)絡(luò)結(jié)構(gòu)C3_FN,其結(jié)構(gòu)如圖6 所示。將一半的特征信息通過FasterNet Block 生成特征圖,另一部分只通過卷積、正則化和激活函數(shù)生成特征圖,再將兩部分特征圖拼接,使得梯度組合的差異最大化,并減少大量梯度信息。

        圖6 C3_FN 網(wǎng)絡(luò)結(jié)構(gòu)Fig.6 C3_FN network structure

        4 實驗與結(jié)果分析

        4.1 數(shù)據(jù)集

        本文在無人機(jī)目標(biāo)檢測公開數(shù)據(jù)集Vis-Drone2019 上測試算法性能。該數(shù)據(jù)集含10 209張靜態(tài)圖像(6 471 張用于訓(xùn)練,548 張用于驗證,3 190 張用于測試),由不同的無人機(jī)平臺在不同地點、不同高度、不同的天氣和光照條件下捕獲。該數(shù)據(jù)集覆蓋類型范圍廣泛,包括不同位置(相隔數(shù)千公里的14 個不同城市)、不同環(huán)境(城市和農(nóng)村)、不同目標(biāo)物體(行人、車輛、自行車等)和不同密度(稀疏和擁擠的場景)。VisDrone2019數(shù)據(jù)集中小目標(biāo)占比較大,統(tǒng)計訓(xùn)練集中各個目標(biāo)物體面積尺寸如圖7(a)所示(橫坐標(biāo)為數(shù)據(jù)集樣本面積、縱坐標(biāo)為樣本數(shù)量占比);圖7(b)為VisDrone2019 數(shù)據(jù)集在YOLOv5l 算法下的類混淆矩陣,可以看出該數(shù)據(jù)集類別分布不均勻且混淆嚴(yán)重,十分具有挑戰(zhàn)性。 因此使用Vis-Drone2019 數(shù)據(jù)集進(jìn)行測試更能夠體現(xiàn)算法之間的性能差異。

        圖7 VisDrone2019 數(shù)據(jù)集目標(biāo)統(tǒng)計圖Fig.7 VisDrone 2019 Data set target statistical diagram

        4.2 評價指標(biāo)

        本實驗采取mAP0.5,mAP0.5-0.95、推理時間(Inference Time)、參數(shù)量(Parameters)和模型復(fù)雜度(FLOPs)等指標(biāo)作為模型性能的評價指標(biāo)。均值平均精度(mAP)是目標(biāo)檢測算法性能的重要指標(biāo)(APi為每個類別的平均精度,i代表檢測類別序號),可以直觀反映算法的綜合精度,其計算公式如式(6)所示。另外,為了更好地分析模型評價指標(biāo)的增益情況,本文引入變化率這一評價指標(biāo),通過變化率這一性能評價指標(biāo),可以較為客觀的評價算法與基準(zhǔn)算法之間的性能改變情況。計算公式如式(7)所示,其中ρ表示變化率,A表示新值,B表示舊值。

        其中:mAP0.5表示當(dāng)IOU 和NWD 閾值為0.5 時,所有目標(biāo)類別的平均檢測精度,它能夠反映算法對于不同類別目標(biāo)的綜合分類能力;mAP0.5-0.95表示當(dāng)IOU 和NWD 閾值為0.5~0.95 時,步長為0.05,在0.5~0.95 的10 個閾值下,計算閾值的檢測精度的平均值,能更好地反映算法對于目標(biāo)邊界框的回歸能力。通常來說,閾值越高,對于模型回歸能力的要求就越高,在高閾值下,檢測指標(biāo)也越高。因此,模型的檢測結(jié)果與實際目標(biāo)可實現(xiàn)更好的貼合。 每秒浮點運(yùn)算次數(shù)(FLOPs)與Parameters 值模型的參數(shù)量,分別用于衡量訓(xùn)練模型時的計算復(fù)雜度與計算內(nèi)存資源的消耗。

        4.3 實驗平臺

        本文采用的實驗環(huán)境分為仿真平臺實驗環(huán)境與嵌入式設(shè)備驗證環(huán)境。其中仿真平臺的實驗環(huán)境描述如下:使用Windows10 操作系統(tǒng),實驗環(huán)境設(shè)置如下:PyTorch 版本為2.0.0;CUDA版本為11.7;Python 版本為3.8.16;硬件配置為:CPU 為Intel(R) Core(TM) i9-10920X;GPU為NVIDIA GeForce RTX 3090 24 GB,算法中的網(wǎng)絡(luò)模型訓(xùn)練與測試在同一平臺進(jìn)行,網(wǎng)絡(luò)的預(yù)訓(xùn)練權(quán)重是在COCO 數(shù)據(jù)集上訓(xùn)練而得到,實驗數(shù)據(jù)為VisDrone2019 數(shù)據(jù)集,測試圖片大小固定為640×640,設(shè)置的總訓(xùn)練輪數(shù)為100epochs,測試基準(zhǔn)模型為YOLOv5l 模型,學(xué)習(xí)率為0.01,采用帶動量的隨機(jī)梯度下降法(Stochastic Gradient Descent,SGD)作為優(yōu)化器,動量設(shè)置為0.937,權(quán)重衰減系數(shù)為0.000 5。

        嵌入式設(shè)備的驗證平臺描述如下:NVIDIA Jetson Nano、四核Cortex-A57 CPU、128 核Maxwell GPU、內(nèi)存為4 GB。相應(yīng)配置系統(tǒng)為ARM版Ubuntu18.04 操作系統(tǒng),模型運(yùn)行環(huán)境為Jet-Pack4.6.1,python3.6,pytorth1.8,CUDA10.2和TensorRT8.2.1.8。模型部署采用10W 高性能運(yùn)行模式,USB 攝像頭圖像輸入。

        4.4 實驗結(jié)果與分析

        4.4.1 檢測分支對比實驗

        本實驗首先對檢測分支的數(shù)量與位置進(jìn)行論證。 當(dāng)neck 結(jié)構(gòu)為4 層時,檢測分支為P2~P5;當(dāng)neck 結(jié)構(gòu)為3 層時,減少head 處的一個檢測頭并使其不進(jìn)行回歸檢測。測試基準(zhǔn)模型為YOLOv5l 模型,測試結(jié)果如表2 所示。

        表2 不同檢測分支對比結(jié)果Tab.2 Different detection branches comparison results

        由表2 可知:包含四個檢測分支的模型與其他只包含三個檢測分支的模型相比,目標(biāo)檢測精度有所提升。這是因為增加一個檢測分支可以提取更多的特征信息,使得對無人機(jī)視角下目標(biāo)的定位更加精確,有效提升目標(biāo)檢測的效果,此外本算法采用的錨框的設(shè)定更加適合無人機(jī)視角下的目標(biāo)檢測任務(wù)。

        4.4.2 度量指標(biāo)對比實驗

        為了驗證NWD 度量指標(biāo)的有效性,本文設(shè)計了NWD 和CIOU 的對比實驗。模型總訓(xùn)練輪數(shù)分別為50 epochs 與100 epochs,基準(zhǔn)模型為邊界框預(yù)測損失函數(shù)是CIOU 的YOLOv5l 模型,實驗結(jié)果如表3 所示。

        表3 不同預(yù)測邊界框?qū)Ρ冉Y(jié)果Tab.3 Different predictive boundary box comparison results

        由表3 可知:當(dāng)總訓(xùn)練輪數(shù)為50 epochs 時,使用CIOU 得到的mAP0.5值為39.6%;當(dāng)總訓(xùn)練輪數(shù)為100 epochs 時,使用CIOU 的mAP0.5僅僅增加了1.2%;對比使用NWD 的效果,當(dāng)訓(xùn)練輪數(shù)為100 epochs 時,mAP0.5顯著增加了2.3%。說明在單獨(dú)使用NWD 時雖然能夠顯著提高檢測性能,但是會造成模型的收斂速度慢。于是本文采用基于NWD 與傳統(tǒng)IOU 混合的目標(biāo)檢測度量方法,在保證精度提高的前提下提高NWD 的收斂速度。

        4.4.3 度量指標(biāo)的超參數(shù)實驗

        為了充分驗證NWD 與IOU 混合方法的有效性,本文設(shè)計了NWD 與IOU 占比對YOLOv5 模型影響的實驗,實驗前提為以YOLOv5l 為基準(zhǔn),訓(xùn)練數(shù)據(jù)為VisDrone2019 數(shù)據(jù)集,使用YOLOv5 原始實驗參數(shù),設(shè)置的總訓(xùn)練輪數(shù)為100 epochs。α為可調(diào)節(jié)的超參數(shù),取值范圍為0~1,通過調(diào)節(jié)α的值來調(diào)節(jié)IOU 與NWD 的比重。測試基準(zhǔn)模型為YOLOv5l 模型,實驗結(jié)果如圖8 所示,圖中Z1 代表mAP0.5,Z2 代表mAP0.5-0.95,X代表α的值,Y代表平均精度值。

        優(yōu)化預(yù)測邊界框的超參數(shù)α設(shè)置為0 時,預(yù)測邊界框損失函數(shù)為IOU;當(dāng)α設(shè)置為1 時,預(yù)測邊界框損失函數(shù)為NWD。圖8 中可以看出,當(dāng)α設(shè)置為0.8 時達(dá)到最優(yōu)效果,后面的算法性能測試中,α的值都設(shè)置為0.8,以達(dá)到算法的性能最優(yōu)。實驗結(jié)果證明,本算法采用NWD 與CIOU 結(jié)合的度量方法是合理且有效的,當(dāng)模型的總訓(xùn)練輪數(shù)相同時,采用NWD 與IOU 結(jié)合的度量方法mAP0.5值比單獨(dú)使用NWD 或IOU 度量方法的mAP0.5值都要高,因此本文采用NWD與IOU 結(jié)合的度量方法來提升模型的檢測性能。

        4.4.4 網(wǎng)絡(luò)結(jié)構(gòu)對比實驗

        為了驗證本文設(shè)計的C3_FN 網(wǎng)絡(luò)結(jié)構(gòu)的有效性,本文進(jìn)行了如下對比實驗。實驗基于YOLOv5l 模型進(jìn)行實驗,其中:C3 代表YOLOv5 原模型結(jié)構(gòu);C3_Ghost 代表C3 融合GhostNet[27]的結(jié)構(gòu);C3_FN 為本文使用的結(jié)構(gòu)。實驗結(jié)果如表4 所示。

        由表4 可知:當(dāng)加入了融合FasterNet 網(wǎng)絡(luò)的C3_FN 模塊后,相對于原模型得到了較為理想的壓縮,在mAP0.5值提升的基礎(chǔ)上,參數(shù)量減少31.9%,模型復(fù)雜度FLOPs 減少了60.8%,而推理時間提升48.9%,這都?xì)w功于FasterNet 網(wǎng)絡(luò),可以在不影響模型精度的基礎(chǔ)上減少計算量,從而提高算法處理速度。

        4.4.5 綜合對比實驗

        最后,為了綜合測試本文模型的檢測效果,將本文改進(jìn)的模型與基準(zhǔn)模型YOLOv5l 以及其他主流的無人機(jī)目標(biāo)檢測模型進(jìn)行性能對比。模型的訓(xùn)練數(shù)據(jù)是VisDrone 數(shù)據(jù)集,其最終測試結(jié)果是在VisDrone 測試數(shù)據(jù)集上進(jìn)行驗證的,實驗結(jié)果如下表5 所示。

        表5 VisDrone 測試數(shù)據(jù)集實驗結(jié)果Tab.5 VisDrone test data set experiment results

        由表5 可知:本文模型的推理速度優(yōu)于YOLOv5l,并且模型的平均檢測精度均高于其他主流目標(biāo)檢測模型。整體對比,無論是在檢測精度上,還是在推理速度上,本文模型在無人機(jī)視角下的目標(biāo)檢測應(yīng)用上都具有一定優(yōu)勢。

        4.4.6 改進(jìn)模塊的消融實驗

        為了更好地說明本文改進(jìn)的模塊與方法對于模型檢測能力的提升,以及對于模型參數(shù)量、模型復(fù)雜度和推理時間的影響,本節(jié)進(jìn)行了消融實驗。本消融實驗是在YOLOv5l 模型上逐個添加本文改進(jìn)模塊與方法所得出的實驗結(jié)果,首先添加新增的檢測分支,然后優(yōu)化預(yù)測邊界框損失函數(shù),最后加入快速輕量化的網(wǎng)絡(luò)結(jié)構(gòu)C3_FN。測試圖片大小固定為640×640,在NVIDIA Ge-Force RTX 3090 GPU 上進(jìn)行推理。消融實驗的測試結(jié)果基于VisDrone 測試數(shù)據(jù)集,實驗結(jié)果如表6 所示。

        表6 VisDrone 測試數(shù)據(jù)集消融實驗Tab.6 VisDrone test data set discipline experiment

        由表6 可知:在YOLOv5l 模型添加新增的檢測分支,模型的mAP0.5提升了3.9%;在添加檢測分支基礎(chǔ)上修改IOU 評價指標(biāo)后,模型的mAP0.5提升了6.4%;最后同時添加檢測分支、修改IOU評價指標(biāo)和C3_FN,模型的mAP0.5提升了6.8%。綜上所述,本文模型與YOLOv5 相比,在保證檢測精度的同時減少了模型參數(shù),因此在無人機(jī)目標(biāo)檢測任務(wù)中具有更高的應(yīng)用價值,本文模型檢測的可視化結(jié)果示例如圖9 所示(彩圖見期刊電子版)。該組圖片是在無人機(jī)視角下拍攝的不同場景的圖片,圖片中待檢測的目標(biāo)類別主要是:行人、車輛、自行車等,實驗結(jié)果中的黃色表示檢測結(jié)果是車,綠色檢測結(jié)果表示大巴車,紅色表示檢測結(jié)果是行人。從可視化結(jié)果可見,本文算法能夠?qū)o人機(jī)拍攝的圖片具有較好的檢測效果,尤其是第2 行第1 列和第3 行第1 列的圖片,其中包含大量行人小目標(biāo),本文算法仍能夠很好地檢測出目標(biāo)。實驗結(jié)果證明本文算法能夠處理大部分無人機(jī)目標(biāo)檢測中的難點問題,且在無人機(jī)視角下的小目標(biāo)仍具有較好的檢測效果。

        圖9 本文模型的目標(biāo)檢測示意圖Fig.9 Object detection schematic diagram of this model

        4.5 模型部署實驗結(jié)果與分析

        4.5.1 模型部署

        為了驗證算法在實際嵌入式平臺上的檢測性能,本文采用NVIDIA Jetson Nano 進(jìn)行模型遷移部署,測試圖如圖10 所示,其中1 表示嵌入式設(shè)備NVIDIA Jetson Nano,2 表示外接顯示器,3表示檢測圖像。將在深度學(xué)習(xí)主機(jī)上訓(xùn)練好的本文模型傳入到Jetson Nano 開發(fā)板上,在Jetson Nano 開發(fā)板上使用TensorRT 加速將Pytorch 框架下訓(xùn)練的無人機(jī)目標(biāo)檢測模型的.pt 權(quán)重文件轉(zhuǎn)化為.wts 中間文件,再使用.wts 文件構(gòu)建用于推理的引擎(.engine)文件,使用推理引擎推理即可獲得加速。

        圖10 Jetson Nano 測試圖Fig.10 Exeriment diagram on Jetson Nano

        4.5.2 結(jié)果分析

        本文從VisDrone 測試數(shù)據(jù)集中選擇10 張未標(biāo)注的圖像在Jetson Nano 平臺上進(jìn)行無人機(jī)對地目標(biāo)檢測的推理測試,結(jié)果如表7 所示。

        表7 TensorRT 加速前后推理時間對比Tab.7 Comparison of inference time before and after TensorRT acceleration(ms)

        從表7 可以看出,在嵌入式設(shè)備NVIDIA Jetson Nano 中原始YOLOv5l 模型平均每張圖像推理時間為563 ms,使用本文模型平均每張圖像推理時間為342 ms,檢測速度較慢。經(jīng)過TensorRT 加速后,YOLOv5l 模型平均每張圖像推理時間為153 ms,而使用本文模型平均每張圖像推理時間僅為84 ms,可以滿足實時性的要求。

        5 結(jié) 論

        本文針對面向無人機(jī)平臺下現(xiàn)有目標(biāo)檢測模型對于小目標(biāo)檢測效果差、漏檢率高以及模型參數(shù)量大的問題,提出一種適用于無人機(jī)視角下輕量化的目標(biāo)檢測算法,并在VisDrone2019 數(shù)據(jù)集上進(jìn)行實驗驗證,主要得出以下結(jié)論:

        (1)針對無人機(jī)視角下目標(biāo)檢測任務(wù)面臨的圖像尺度變化大、小目標(biāo)檢測結(jié)果精度低以及機(jī)載嵌入式資源有限的問題,本文以YOLOv5l 模型為基礎(chǔ),在網(wǎng)絡(luò)結(jié)構(gòu)方面增加了檢測分支,增強(qiáng)來自于淺層特征的表達(dá),mAP0.5值提升了3.9%;為了降低模型的參數(shù)量,得到速度更快的網(wǎng)絡(luò),使用C3_FN 代替YOLOv5l 模型默認(rèn)的C3結(jié)構(gòu),在mAP0.5值提升的基礎(chǔ)上,參數(shù)量減少31.9%,模型復(fù)雜度FLOPs 減少了60.8%,推理時間提升48.9%。

        (2)在模型的度量指標(biāo)上,本文引入NWD 作為模型的度量指標(biāo)。經(jīng)實驗發(fā)現(xiàn),相比于單獨(dú)使用IOU,單獨(dú)使用NWD 時會使模型的收斂速度變慢,于是本文提出基于NWD 與傳統(tǒng)IOU 混合的目標(biāo)檢測度量方法,以提高NWD 的收斂速度。結(jié)果發(fā)現(xiàn),當(dāng)權(quán)重參數(shù)α設(shè)置為0.8 時算法性能達(dá)到最優(yōu)效果,mAP0.5值為41.8%,mAP0.5值為24.5%。

        (3)在綜合對比實驗中,本文模型的mAP0.5值較YOLOv5l,TPH-YOLOv5 和YOLOv7 模型分別提升了6.8%,1.4%和5.5%,推理時間分別提高了40.2%,16.7%,6.2%。最后在Jetson Nano 進(jìn)行模型遷移部署,經(jīng)過TensorRT 加速后本文模型平均每張圖像推理時間僅為84 ms,說明本文模型在面向無人機(jī)平臺下的目標(biāo)檢測應(yīng)用上更具有優(yōu)勢。

        后續(xù)的研究將繼續(xù)進(jìn)行網(wǎng)絡(luò)結(jié)構(gòu)的優(yōu)化,使模型變得更加快速、準(zhǔn)確以及輕量化,以便于在計算資源有限的情況下部署與應(yīng)用。

        猜你喜歡
        網(wǎng)絡(luò)結(jié)構(gòu)度量分支
        有趣的度量
        模糊度量空間的強(qiáng)嵌入
        迷向表示分為6個不可約直和的旗流形上不變愛因斯坦度量
        巧分支與枝
        一類擬齊次多項式中心的極限環(huán)分支
        基于互信息的貝葉斯網(wǎng)絡(luò)結(jié)構(gòu)學(xué)習(xí)
        地質(zhì)異常的奇異性度量與隱伏源致礦異常識別
        知識網(wǎng)絡(luò)結(jié)構(gòu)維對于創(chuàng)新績效的作用機(jī)制——遠(yuǎn)程創(chuàng)新搜尋的中介作用
        滬港通下A+ H股票網(wǎng)絡(luò)結(jié)構(gòu)演化的實證分析
        復(fù)雜網(wǎng)絡(luò)結(jié)構(gòu)比對算法研究進(jìn)展
        国产69精品麻豆久久| 亚洲国产综合精品 在线 一区 | 欧美午夜刺激影院| 国产95在线 | 欧美| 亚洲欧美在线视频| 在线播放偷拍一区二区| 偷拍一区二区三区四区视频| 中文字幕人成乱码熟女| 国产成人精品电影在线观看| 国产极品美女高潮抽搐免费网站| 国产高清一区在线观看| 亚洲av色香蕉一区二区三区潮| 久久午夜av一区二区三区| 成年女人色毛片| 亚洲av理论在线电影网| 欧美一级鲁丝片免费一区| 亚洲a级视频在线播放| 国产精品亚洲精品日韩已方| 久久国内精品自在自线图片| 亚洲AⅤ永久无码精品AA| 亚洲区福利视频免费看| 91亚洲国产成人精品一区.| 亚洲av无码专区在线观看下载| 日本乱人伦在线观看| www.av在线.com| 日韩精品一区二区亚洲专区| 久久婷婷五月综合色奶水99啪| 亚洲av麻豆aⅴ无码电影| 国产亚洲精品国产福利在线观看| 在线视频日韩精品三区| 亚洲一区二区免费在线观看视频| 99精品人妻无码专区在线视频区| 天天爽天天爽天天爽| 中文字幕日本女优在线观看| 成年网站在线91九色| 久9re热视频这里只有精品| 日本乱子人伦在线视频| 久久精品国产av大片| 国语对白精品在线观看| 亚洲欧美日韩中文字幕一区二区三区 | 蜜臀av在线播放一区二区三区 |