張 上,張 岳,王恒濤*,王 杰
(1.三峽大學(xué) 湖北省建筑質(zhì)量檢測(cè)裝備工程技術(shù)研究中心,湖北 宜昌 443002;2.三峽大學(xué) 計(jì)算機(jī)與信息學(xué)院,湖北 宜昌 443002)
伴隨相關(guān)科技的發(fā)展,無(wú)人機(jī)遙感在各個(gè)領(lǐng)域的應(yīng)用越來越廣泛。例如,無(wú)人機(jī)遙感可應(yīng)用于濕地水動(dòng)力研究[1]、建筑物震害識(shí)別[2]和黃土滑坡識(shí)別[3]等實(shí)際場(chǎng)景;在地震應(yīng)急救援、核泄漏和應(yīng)急測(cè)繪等場(chǎng)景中也有著突出表現(xiàn)[4]。無(wú)人機(jī)遙感圖像在遙感圖像的分辨率和精度上,相比傳統(tǒng)衛(wèi)星遙感等手段具有顯著提高,但仍未解決遙感圖像需要人工輔助處理而導(dǎo)致的工作強(qiáng)度大、效率低等問題。
隨著人工智能技術(shù),特別是深度學(xué)習(xí)技術(shù)的逐步發(fā)展,基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法在多個(gè)領(lǐng)域與遙感圖像進(jìn)行了有效結(jié)合,用于解決工業(yè)、農(nóng)業(yè)與生態(tài)等領(lǐng)域的多種實(shí)際問題[5]。時(shí)啟龍等[6]基于U-Net神經(jīng)網(wǎng)絡(luò)與SegNet神經(jīng)網(wǎng)絡(luò),對(duì)無(wú)人機(jī)遙感松材線蟲病疫木進(jìn)行了自動(dòng)識(shí)別提取。Youme等[7]基于SSD目標(biāo)檢測(cè)算法,對(duì)西非塞內(nèi)加爾的圣路易斯地區(qū)無(wú)人機(jī)遙感圖像中的隱蔽垃圾堆進(jìn)行了目標(biāo)檢測(cè)。王恒濤等[8]針對(duì)無(wú)人機(jī)航拍的特點(diǎn),提出了一種輕量化無(wú)人機(jī)航拍目標(biāo)檢測(cè)算法。
當(dāng)前基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法,可根據(jù)有錨框與無(wú)錨框來進(jìn)行區(qū)分。而其中有錨框的算法又可分為雙階段法與單階段法。前者的檢測(cè)精度與效果更好,但由于將備選框的生成與判斷分開,所以存在計(jì)算量大而導(dǎo)致檢測(cè)速度慢的問題。如R-FCN[9]、Mask R-CNN[10]、SPP-Net[11]等。后者相對(duì)于雙階段法而言檢測(cè)速度更快、效率更高且移植至邊緣設(shè)備上更加簡(jiǎn)便,所以應(yīng)用更加廣泛。如OverFeat[12]、SSD[13]、YOLOv3[14]、YOLOv4[15]與YOLOv5等。
針對(duì)無(wú)人機(jī)遙感圖像背景復(fù)雜、檢測(cè)目標(biāo)小且密度大的特點(diǎn),本文提出一種基于YOLOv5的輕量化無(wú)人機(jī)遙感小目標(biāo)檢測(cè)算法——LUSS-YOLO,主要貢獻(xiàn)歸納如下:
① 針對(duì)無(wú)人機(jī)遙感影像成像高度高、檢測(cè)目標(biāo)密集且尺寸小的特征,重設(shè)計(jì)網(wǎng)絡(luò)結(jié)構(gòu)。通過調(diào)整特征提取網(wǎng)絡(luò)結(jié)構(gòu)和特征融合網(wǎng)絡(luò)結(jié)構(gòu)來增加小感受野,增加淺層網(wǎng)絡(luò)特征權(quán)重。重構(gòu)特征融合網(wǎng)絡(luò),強(qiáng)調(diào)多尺度特征融合,實(shí)現(xiàn)小目標(biāo)感受野權(quán)重加權(quán)處理。
② 引入EIoU損失函數(shù),使回歸過程中高質(zhì)量樣本的重要程度提高,從而加速收斂,并提高回歸精度。
③ 引入VairFocal Loss使IACS回歸,均衡正負(fù)樣本的同時(shí)按權(quán)重增加樣本的影響因子,并且在加速模型訓(xùn)練收斂速度的同時(shí)提高精度。
④ 為驗(yàn)證算法的有效性,在Visdrone2019數(shù)據(jù)集上對(duì)LUSS-YOLO算法進(jìn)行驗(yàn)證,平均準(zhǔn)確率(mean Average Precision,mAP)達(dá)到了41.3%,相較YOLOv5有6.4%的提升。
主流YOLO算法改進(jìn)以添加注意力機(jī)制、改變卷積層、疊加與修改網(wǎng)絡(luò)模塊為主,而忽略了基于檢測(cè)目標(biāo)本身特點(diǎn)來建立合適的網(wǎng)絡(luò)結(jié)構(gòu)。針對(duì)無(wú)人機(jī)遙感圖像的小目標(biāo)特性,本文設(shè)計(jì)LUSS-YOLO算法,其系統(tǒng)架構(gòu)如圖1所示。
圖1 LUSS-YOLO系統(tǒng)架構(gòu)Fig.1 LUSS-YOLO system architecture
LUSS-YOLO的核心思想是針對(duì)無(wú)人機(jī)遙感圖像的小目標(biāo)特性,對(duì)網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行重構(gòu)并對(duì)網(wǎng)絡(luò)模型進(jìn)行輕量化處理,分別對(duì)網(wǎng)絡(luò)模型的長(zhǎng)度與寬度,降低冗余模塊與參數(shù),使網(wǎng)絡(luò)結(jié)構(gòu)更適用于無(wú)人機(jī)遙感圖像小目標(biāo)檢測(cè)。LUSS-YOLO由重設(shè)計(jì)網(wǎng)絡(luò)結(jié)構(gòu)、EIoU損失函數(shù)與VariFocal Loss組成。首先,對(duì)小目標(biāo)感受野權(quán)重進(jìn)行調(diào)整,修剪特征提取網(wǎng)絡(luò);對(duì)特征融合網(wǎng)絡(luò)架構(gòu)進(jìn)行調(diào)整并剔除冗余模塊。然后,使用EIoU損失函數(shù)替換原CIoU損失函數(shù),強(qiáng)調(diào)回歸過程中的高質(zhì)量樣本,以加速收斂并提高回歸精度。最后,使用VariFocal Loss,保證均衡正負(fù)例的同時(shí)更加突出正例貢獻(xiàn),使IACS回歸,在加速模型訓(xùn)練收斂速度的同時(shí)提高模型精度。如圖1所示,通過輕量化處理特征提取網(wǎng)絡(luò)與特征融合網(wǎng)絡(luò),提高模型檢測(cè)無(wú)人機(jī)遙感圖像小目標(biāo)的能力。
LUSS-YOLO網(wǎng)絡(luò)結(jié)構(gòu)削減了冗余模塊與參數(shù),在計(jì)算量、模型體積和檢測(cè)速度上均有巨大改善。
原YOLOv5算法使用的特征圖分別為20 pixel×20 pixel、40 pixel×40 pixel與80 pixel×80 pixel,為實(shí)現(xiàn)無(wú)人機(jī)遙感小目標(biāo)檢測(cè)的準(zhǔn)確性,LUSS-YOLO對(duì)其進(jìn)行擴(kuò)充和修改,實(shí)現(xiàn)了160 pixel×160 pixel與320 pixel×320 pixel特征圖的提取,并刪除20 pixel×20 pixel大感受野的尺度,使其更適用于檢測(cè)無(wú)人機(jī)遙感圖像小目標(biāo)。
在無(wú)人機(jī)遙感圖像中,檢測(cè)目標(biāo)占圖像中的部分較小,背景面積較大。在卷積過程中,圖像迭代會(huì)導(dǎo)致檢測(cè)目標(biāo)信息出現(xiàn)丟失,針對(duì)該情況,LUSS-YOLO通過降低卷積迭代次數(shù)與突出底層特征圖來增強(qiáng)檢測(cè)效果。重構(gòu)后的CSPDarkNet如表1所示,改進(jìn)后的特征提取網(wǎng)絡(luò)經(jīng)歷4次下采樣、3次卷積操作,從而保證降低計(jì)算量與參數(shù)量的同時(shí),有效減少小目標(biāo)特征信息丟失。
表1 重構(gòu)CSPDarkNet結(jié)構(gòu)Tab.1 Reconstructed CSPDarkNet structure
LUSS-YOLO特征圖大小為40 pixel×40 pixel與80 pixel×80 pixel,因此原特征融合網(wǎng)絡(luò)不再適用于新的特征提取網(wǎng)絡(luò),需要改進(jìn)。
改進(jìn)后的特征融合網(wǎng)絡(luò)如圖2所示。對(duì)感受野融合位置進(jìn)行了調(diào)整,首先進(jìn)行淺層語(yǔ)義與深層語(yǔ)義的特征融合,依次進(jìn)行320 pixel×320 pixel、160 pixel×160 pixel、80 pixel×80 pixel與40 pixel×40 pixel特征圖融合;再進(jìn)行深層語(yǔ)義與淺層語(yǔ)義的特征融合,即40 pixel×40 pixel、80 pixel×80 pixel與160 pixel×160 pixel特征圖融合。由此,可在原網(wǎng)絡(luò)基礎(chǔ)上提升淺層語(yǔ)義特征權(quán)重,旨在減少卷積帶來的目標(biāo)特征信息丟失。
圖2 特征融合網(wǎng)絡(luò)結(jié)構(gòu)Fig.2 Structure of feature fusion network
LUSS-YOLO算法結(jié)構(gòu)如圖3所示。LUSS-YOLO分別對(duì)特征提取網(wǎng)絡(luò)與特征融合網(wǎng)絡(luò)進(jìn)行重設(shè)計(jì)。首先對(duì)特征提取網(wǎng)絡(luò)CSPDarkNet進(jìn)行重設(shè)計(jì),去除20 pixel×20 pixel特征圖提取模塊,提高網(wǎng)絡(luò)內(nèi)的小感受野權(quán)重,降低了模型的計(jì)算量與體積;然后對(duì)改進(jìn)后的CSPDarkNet進(jìn)行特征融合,分別實(shí)現(xiàn)從320 pixel×320 pixel淺層語(yǔ)義,沿160 pixel×160 pixel、80 pixel×80 pixel到40 pixel×40 pixel深層語(yǔ)義的特征信息融合;再?gòu)?0 pixel×40 pixel深層語(yǔ)義,沿80 pixel×80 pixel、160 pixel×160 pixel到320 pixel×320 pixel淺層語(yǔ)義的特征信息融合。
圖3 LUSS-YOLO網(wǎng)絡(luò)結(jié)構(gòu)Fig.3 LUSS-YOLO network structure
YOLOv5使用的CIoU損失函數(shù)會(huì)同時(shí)考慮回歸框的寬高比例,以及真實(shí)框與預(yù)測(cè)框的中心距離,但其僅將寬高比作為影響因子會(huì)導(dǎo)致部分情況下計(jì)算結(jié)果與損失的目標(biāo)不相符。CIoU計(jì)算如下:
(1)
式中:IoU為預(yù)測(cè)框與真實(shí)框的交并比,取值[0,1],b與bgt分別為預(yù)測(cè)框和真實(shí)框的中心點(diǎn),ρ(·)為求預(yù)測(cè)框和真實(shí)框中心點(diǎn)之間的歐氏距離,c為預(yù)測(cè)框和真實(shí)框最小外接矩形的對(duì)角線距離,α為平衡參數(shù),不參與梯度計(jì)算,v用來衡量預(yù)測(cè)框和真實(shí)框的寬和高之間的比例一致性。
針對(duì)此情況,采用EIoU[16]損失函數(shù)進(jìn)行改進(jìn),直接對(duì)寬w和高h(yuǎn)的預(yù)測(cè)結(jié)果進(jìn)行懲罰,包括寬高損失、重疊損失和中心距離損失3種情況。其中新加入的寬高損失主要解決CIoU寬高不能同時(shí)增大或縮小的情況,直接使真實(shí)框與預(yù)測(cè)框之間的寬高差達(dá)到最小。因此,EIoU損失函數(shù)收斂更快、回歸精度更高。EIoU計(jì)算如下:
(2)
式中:cw、ch分別為覆蓋2個(gè)box的最小外接框?qū)挾扰c高度,b與bgt分別為預(yù)測(cè)框和真實(shí)框的中心點(diǎn),ρ為求預(yù)測(cè)框和真實(shí)框中心點(diǎn)之間的歐氏距離,w、h與wgt、hgt分別為預(yù)測(cè)框與真實(shí)框的寬、高。
在無(wú)人機(jī)遙感圖像中,小目標(biāo)所占區(qū)域較少。對(duì)無(wú)人機(jī)遙感圖像進(jìn)行小目標(biāo)檢測(cè)時(shí),會(huì)出現(xiàn)目標(biāo)類與背景類極端不均衡問題。使用Focal Loss能夠有效解決目標(biāo)類與背景類之間不均衡的問題。Focal Loss計(jì)算如下:
(3)
式中:p為[-1,1]的目標(biāo)類預(yù)測(cè)概率,y為取值1或-1的真實(shí)正負(fù)樣本類別,α為可調(diào)比例因子,(1-ρ)β為目標(biāo)類調(diào)制因子,pβ為背景類調(diào)制因子,此2類調(diào)制因子旨在減少簡(jiǎn)單樣本貢獻(xiàn),增加誤檢樣本的重要性,從而有效增加對(duì)困難樣本的關(guān)注度,使Focal Loss能夠通過加權(quán)方式解決IACS回歸訓(xùn)練時(shí)會(huì)出現(xiàn)的類別不均衡問題。
對(duì)于Focal Loss[17]采用平等方式處理正負(fù)樣本的方式,VariFocal Loss進(jìn)行了改進(jìn),提高了正例的貢獻(xiàn)權(quán)重。VariFocal Loss基于binary cross entropy loss,借鑒了Focal Loss的加權(quán)方式并加以改進(jìn),以處理IACS訓(xùn)練回歸過程中類別不匹配的問題。VariFocal Loss計(jì)算如下:
(4)
式中:p為代表目標(biāo)分?jǐn)?shù)的IACS預(yù)測(cè)值,q為分類條件。其條件為:若為目標(biāo)類,則將正樣本類的q值設(shè)置為預(yù)測(cè)框和真實(shí)框之間的IoU值,否則設(shè)置為0;若為背景類,則將目標(biāo)q值均為0。如式(8)所示,VariFocal Loss通過pβ縮放因子對(duì)負(fù)樣本進(jìn)行了處理,但不會(huì)影響正樣本,旨在突出正樣本的貢獻(xiàn)。
本文對(duì)網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行了重設(shè)計(jì),同時(shí)對(duì)錨框大小進(jìn)行了重構(gòu)。在使用k-means聚類與遺傳算法對(duì)預(yù)測(cè)框大小進(jìn)行分析與聚類后,得到了最適合的錨框大小,旨在提高回歸速度與訓(xùn)練精度。
最終錨框分配如表2所示,通過刪除20 pixel×20 pixel特征圖的方式實(shí)現(xiàn)感受野調(diào)整,旨在使其更適用于無(wú)人機(jī)遙感圖像檢測(cè)場(chǎng)景。
表2 錨框分配Tab.2 Anchor box allocation
本文實(shí)驗(yàn)配置為:操作系統(tǒng)Windows 11,CUDA12.0;GPU為NVIDIA GTX1660ti Max-Q,6 GB顯存,調(diào)用GPU進(jìn)行訓(xùn)練;框架基于Pytorch;YOLOv5工程版本為v6.0,基準(zhǔn)模型為YOLOv5s。
本文采用VisDrone2019進(jìn)行算法驗(yàn)證。VisDrone數(shù)據(jù)集由AISKYEYE團(tuán)隊(duì)發(fā)布,數(shù)據(jù)集來自14座不同城市的不同環(huán)境,包括城市與鄉(xiāng)村的多種天氣和光照條件,檢測(cè)目標(biāo)多樣,稀疏環(huán)境與密集環(huán)境都具備,是目前中國(guó)無(wú)人機(jī)遙感圖像中數(shù)據(jù)量最大、類型最全面、環(huán)境最復(fù)雜、覆蓋范圍最廣的數(shù)據(jù)集之一。
VisDrone2019數(shù)據(jù)集共包括10類航拍檢測(cè)目標(biāo),由7 019張訓(xùn)練集、548張預(yù)測(cè)集與1 610張測(cè)試集組成。10個(gè)類別分別為pedestrian、people、bicycle、car、van、truck、tricycle、awning-tricycle、bus與motor。
計(jì)算機(jī)視覺對(duì)于算法有數(shù)個(gè)用以評(píng)價(jià)的指標(biāo),包括mAP、召回率(Recall,R)和準(zhǔn)確率(Precision,P)。其中,召回率為正確檢測(cè)的正例比例;準(zhǔn)確率是預(yù)測(cè)與實(shí)際都為正的樣本所占比例。召回率、準(zhǔn)確率與平均準(zhǔn)確率的計(jì)算如下:
(5)
(6)
(7)
(8)
式中:TP(True Positive)為檢測(cè)結(jié)果為真的正例,FN(False Negative)為檢測(cè)結(jié)果為非真的正例,FP(False Positive)為檢測(cè)結(jié)果為真的負(fù)例,AP為單個(gè)類別準(zhǔn)確率,mAP為所有類別的準(zhǔn)確率均值,c為類別數(shù)。
對(duì)于LUSS-YOLO各改動(dòng)點(diǎn)在無(wú)人機(jī)遙感圖像上對(duì)小目標(biāo)檢測(cè)的有效性,在VisDrone2019數(shù)據(jù)集上進(jìn)行了消融實(shí)驗(yàn)。消融實(shí)驗(yàn)結(jié)果如表3所示。
表3 消融實(shí)驗(yàn)Tab.3 Ablation experiment
其中BASE算法為YOLOv5s模型。由消融實(shí)驗(yàn)結(jié)果可知,網(wǎng)絡(luò)結(jié)構(gòu)重構(gòu)后,準(zhǔn)確率、回歸率和平均檢測(cè)精度均有明顯提高;其中平均檢測(cè)精度提高最大,提高至40.6%;計(jì)算量有略微增長(zhǎng),增長(zhǎng)幅度為1.0 GFLOPs;模型容量與參數(shù)量同樣大幅下降,相較未重構(gòu)模型下降59.1%與74.6%;可證明對(duì)網(wǎng)絡(luò)結(jié)構(gòu)的輕量化改進(jìn)具有顯著效果。在引入EIoU損失函數(shù)后,準(zhǔn)確率與回歸率均明顯提高,分別提高0.4%與2.2%;引入VariFocal Loss后,準(zhǔn)確率與回歸率均明顯提高,分別提高0.3%與2.0%;同時(shí)引入EIoU損失函數(shù)與VariFocal Loss后,準(zhǔn)確率與回歸率均大幅提高,分別提高0.6%與3.0%;證明在無(wú)人機(jī)遙感圖像的小目標(biāo)檢測(cè)場(chǎng)景中,同時(shí)強(qiáng)調(diào)高質(zhì)量樣本權(quán)重與強(qiáng)調(diào)正面樣本權(quán)重具有互不沖突的正面改進(jìn)效果。
綜上,在重構(gòu)網(wǎng)絡(luò)、EIoU和VariFocal的作用下,模型平均精度、回歸率和準(zhǔn)確率均達(dá)到最高,每個(gè)模塊均對(duì)無(wú)人機(jī)遙感小目標(biāo)檢測(cè)起到積極作用;重構(gòu)網(wǎng)絡(luò)的輕量化改進(jìn)效果顯著,模型容量與參數(shù)量均有大幅下降。
為了驗(yàn)證LUSS-YOLO算法的先進(jìn)性,本文將其與主流經(jīng)典算法與部分先進(jìn)算法進(jìn)行對(duì)比實(shí)驗(yàn)。與經(jīng)典算法的對(duì)比結(jié)果如表4所示,LUSS-YOLO對(duì)比其他主流經(jīng)典算法,在平均檢測(cè)精度上表現(xiàn)最好,可達(dá)到41.3%,相較于Faster R-CNN、SDD、YOLOv3與YOLOv5分別提升了10.4%、7.8%、8.0%與6.4%;模型容量?jī)H為5.6 MB,相比Faster R-CNN、SDD、YOLOv3與YOLOv5分別下降94.8%、94.3%、97.6%與59.1%;計(jì)算量相較Faster R-CNN、SDD與YOLOv3分別下降95.8%、93.8%與89.0%,僅略高于YOLOv5;參數(shù)量與Faster R-CNN、SDD、YOLOv3、YOLOv5相比下降98.7%、92.4%、97.1%、74.6%。
表4 經(jīng)典算法對(duì)比Tab.4 Comparison of classical algorithms
與部分先進(jìn)算法的對(duì)比結(jié)果如表5所示,LUSS-YOLO對(duì)比其他先進(jìn)算法,在容量與平均檢測(cè)精度上都具有明顯優(yōu)勢(shì)。平均檢測(cè)精度僅對(duì)比0.75通道剪枝的YOLOv4-MSENet下降0.4%,模型容量則下降65.6%。對(duì)比輸入大小為604的HRCP在0.5通道剪枝與0.9通道剪枝情況下,平均檢測(cè)精度分別上升10.9%與15.3%,容量分別下降95.8%與80.7%。對(duì)比mSODANet與STDnet-ST++,平均檢測(cè)精度分別上升7.8%與18.9%。
表5 部分先進(jìn)算法對(duì)比Tab.5 Comparison of selected advanced algorithms
由上述數(shù)據(jù)可知,LUSS-YOLO在模型體積上改進(jìn)幅度顯著,在平均檢測(cè)精度上提升明顯,且在計(jì)算量與參數(shù)量上大大減少,可滿足多種無(wú)人機(jī)遙感圖像在檢測(cè)小目標(biāo)時(shí)的輕量化需求。
本文選取了部分難度較大的數(shù)據(jù)集內(nèi)圖片進(jìn)行檢測(cè),并與基準(zhǔn)模型YOLOv5s算法進(jìn)行對(duì)比,對(duì)比結(jié)果如圖4所示。
(a)基準(zhǔn)模型密集場(chǎng)所檢測(cè)效果
(b)改進(jìn)模型密集場(chǎng)所檢測(cè)效果
(c)基準(zhǔn)模型多人群場(chǎng)所檢測(cè)效果
(d)改進(jìn)模型多人群場(chǎng)所檢測(cè)效果
(e)基準(zhǔn)模型夜間場(chǎng)所檢測(cè)效果
(f)改進(jìn)模型夜間場(chǎng)所檢測(cè)效果
(g)基準(zhǔn)模型較大目標(biāo)檢測(cè)效果
(h)改進(jìn)模型較大目標(biāo)檢測(cè)效果圖4 效果對(duì)比Fig.4 Effect comparison
左側(cè)為YOLOv5s算法檢測(cè)效果,右側(cè)為L(zhǎng)USS-YOLO檢測(cè)效果。由對(duì)比可知,本文提出的算法相較原始算法,在檢測(cè)目標(biāo)密集,且檢測(cè)目標(biāo)特征與背景相近時(shí)可以做到檢測(cè)更加準(zhǔn)確,對(duì)于模糊的遙感圖像也可以檢測(cè)出更多的小目標(biāo)與遠(yuǎn)距目標(biāo)。由于算法在判斷目標(biāo)時(shí)會(huì)更加謹(jǐn)慎,所以以提升部分漏檢率為代價(jià),降低了部分誤檢率。在夜間低光照環(huán)境下,LUSS-YOLO的檢測(cè)準(zhǔn)確率進(jìn)一步提升,誤檢率與漏檢率均有明顯降低。對(duì)于較大目標(biāo)檢測(cè),LUSS-YOLO也并未出現(xiàn)檢測(cè)混淆的情況。通過調(diào)整小感受野、重設(shè)計(jì)特征融合網(wǎng)絡(luò)以及對(duì)特征提取網(wǎng)絡(luò)進(jìn)行符合圖像特點(diǎn)的輕量化處理,LUSS-YOLO可以有效從擁有大量多尺度特征信息的區(qū)域內(nèi)分離出小目標(biāo)特征區(qū)域,因此在不同環(huán)境下都能表現(xiàn)出較強(qiáng)的特征提取能力,并具有顯著的抗干擾能力。
綜上所述,LUSS-YOLO相比YOLOv5s,在其他目標(biāo)檢測(cè)效果對(duì)比平穩(wěn)的前提下,對(duì)于無(wú)人機(jī)遙感圖像中的小目標(biāo)檢測(cè)優(yōu)勢(shì)明顯,尤其在背景復(fù)雜或目標(biāo)密集情況下,具有更強(qiáng)的特征提取能力與檢測(cè)能力。同時(shí),在漏檢率和錯(cuò)檢率上有顯著降低。
針對(duì)無(wú)人機(jī)遙感圖像成像距離遠(yuǎn)、目標(biāo)成像小等特點(diǎn),提出了輕量化無(wú)人機(jī)遙感圖像小目標(biāo)檢測(cè)算法——LUSS-YOLO。LUSS-YOLO分別從多尺度特征融合和感受野兩方面對(duì)特征提取網(wǎng)絡(luò)和特征融合網(wǎng)絡(luò)進(jìn)行重設(shè)計(jì),輕量化處理網(wǎng)絡(luò)結(jié)構(gòu)、突出底層特征圖權(quán)重、深化多尺度融合并增加小感受野,從而實(shí)現(xiàn)底層語(yǔ)義與深層語(yǔ)義融合,實(shí)現(xiàn)模型輕量化并提高精度,滿足無(wú)人機(jī)遙感圖像檢測(cè)算法模型輕量化需求。同時(shí),使用EIoU強(qiáng)調(diào)高質(zhì)量樣本權(quán)重,并引入VariFocal Loss,在損失計(jì)算中強(qiáng)調(diào)底層正例樣本信息特征的重要性,從而實(shí)現(xiàn)加快模型收斂速度并提高精度。在VisDrone2019數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明,LUSS-YOLO算法在檢測(cè)精度上有顯著提高,大幅減少了參數(shù)量,模型容量為基準(zhǔn)模型的一半。對(duì)比其他經(jīng)典目標(biāo)檢測(cè)算法,LUSS-YOLO在模型容量、模型計(jì)算量、算法復(fù)雜度以及參數(shù)量上均大幅降低,且算法檢測(cè)精度有所提高。對(duì)比其他先進(jìn)目標(biāo)檢測(cè)算法,LUSS-YOLO在容量和模型精度上優(yōu)勢(shì)明顯。本文提出的LUSS-YOLO算法在模型精度、模型容量與參數(shù)量上具有先進(jìn)性。