亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于YOLO-v7的無(wú)人機(jī)航拍圖像小目標(biāo)檢測(cè)改進(jìn)算法

        2024-02-21 06:00:38郝紫霄
        軟件導(dǎo)刊 2024年1期
        關(guān)鍵詞:特征實(shí)驗(yàn)檢測(cè)

        郝紫霄,王 琦

        (江蘇科技大學(xué) 計(jì)算機(jī)學(xué)院,江蘇 鎮(zhèn)江 212003)

        0 引言

        目標(biāo)檢測(cè)作為圖像處理與計(jì)算機(jī)視覺(jué)領(lǐng)域的關(guān)鍵問(wèn)題,備受重視。隨著無(wú)人機(jī)、衛(wèi)星遙感、航空航天等技術(shù)的發(fā)展,航拍圖像目標(biāo)檢測(cè)已成為研究熱點(diǎn)。無(wú)人機(jī)航拍圖像是航拍圖像的重要分支,是以無(wú)人機(jī)作為圖像傳感器的空中搭載平臺(tái)所拍攝的圖像。無(wú)人機(jī)具有操控簡(jiǎn)單、飛行靈活、成本低等優(yōu)點(diǎn)。目前,無(wú)人機(jī)航拍圖像目標(biāo)檢測(cè)已廣泛應(yīng)用于城市規(guī)劃、交通監(jiān)測(cè)、生態(tài)保護(hù)、軍事安防等領(lǐng)域,且適用場(chǎng)景不斷拓展[1]。然而,航拍圖像區(qū)別于普通圖像,具有背景信息復(fù)雜、目標(biāo)尺度小、目標(biāo)具有顯著的方向性且分布稀疏不均等特點(diǎn)[2],這使得航拍圖像的目標(biāo)檢測(cè),尤其是小目標(biāo)檢測(cè)充滿挑戰(zhàn)。

        為應(yīng)對(duì)現(xiàn)有算法在無(wú)人機(jī)航拍圖像小目標(biāo)檢測(cè)任務(wù)中存在的誤檢率與漏檢率高、精度較低等問(wèn)題,本文提出一種基于YOLO-v7 的無(wú)人機(jī)航拍圖像小目標(biāo)檢測(cè)改進(jìn)算法FCL-YOLO-v7。在此基礎(chǔ)上,本文作出如下貢獻(xiàn):①將原始的3 個(gè)比例檢測(cè)層擴(kuò)充為4 個(gè)比例檢測(cè)層,增加小目標(biāo)檢測(cè)層;②用FReLU 激活函數(shù)代替YOLO-v7 網(wǎng)絡(luò)中Conv 模塊與RepConv 模塊中的SiLU 激活函數(shù);③在YOLO-v7 的骨干網(wǎng)絡(luò)(backbone)中添加CBAM 注意力機(jī)制模塊;④通過(guò)從公開(kāi)數(shù)據(jù)集中獲取圖片與自主采集圖片,構(gòu)建針對(duì)小目標(biāo)的無(wú)人機(jī)航拍圖像數(shù)據(jù)集。本文通過(guò)對(duì)比實(shí)驗(yàn)與消融實(shí)驗(yàn)驗(yàn)證了改進(jìn)算法在無(wú)人機(jī)航拍圖像小目標(biāo)檢測(cè)任務(wù)中的優(yōu)越性。

        1 相關(guān)研究

        傳統(tǒng)算法在無(wú)人機(jī)航拍圖像目標(biāo)檢測(cè)領(lǐng)域取得了良好效果。韓露[3]基于SIFT 算法與霍夫變換,提出了針對(duì)無(wú)人機(jī)航拍圖像中十字路口目標(biāo)的檢測(cè)方法。Xu 等[4]利用HOG 特征與SVM 分類器,并結(jié)合Viola-Jones 檢測(cè)器,實(shí)現(xiàn)了低空無(wú)人機(jī)圖像中的車(chē)輛目標(biāo)檢測(cè)。然而,傳統(tǒng)算法不適應(yīng)數(shù)據(jù)量龐大的無(wú)人機(jī)航拍數(shù)據(jù)集,且無(wú)法達(dá)到精準(zhǔn)實(shí)時(shí)的檢測(cè)效果。

        基于深度學(xué)習(xí)的目標(biāo)檢測(cè)已成為主流,主要可以分類為一階段的目標(biāo)檢測(cè)算法和二階段的目標(biāo)檢測(cè)算法。二階段目標(biāo)檢測(cè)算法基于區(qū)域建議,先生成一系列樣本候選框,然后通過(guò)卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行樣本分類,常用算法有Fast RCNN[5]、Faster RCNN[6]等。王立春等[7]利用Faster RCNN 算法,并結(jié)合連通區(qū)域顏色面積特征,提高了無(wú)人機(jī)圖像中公路標(biāo)線目標(biāo)檢測(cè)準(zhǔn)確率。二階段算法雖然精度高,但實(shí)時(shí)性較差。一階段目標(biāo)檢測(cè)算法又被稱為基于回歸的目標(biāo)檢測(cè)算法,直接回歸物體的類別概率和位置坐標(biāo),可以更好地兼顧精度與速度,代表算法有SSD(Single Shot Multi-Box Detector)[8]、YOLO(You Only Look Once)[9]系列等。Li 等[10]利用遷移學(xué)習(xí)原理,設(shè)計(jì)了一種多塊SSD算法,提高了鐵路監(jiān)測(cè)場(chǎng)景下無(wú)人機(jī)航拍圖像小目標(biāo)檢測(cè)精度。Zhang 等[11]提出一種改進(jìn)的YOLO-v3 模型,使其具有更深的特征提取網(wǎng)絡(luò)和更多的不同尺度的檢測(cè)層,并通過(guò)實(shí)驗(yàn)驗(yàn)證了其魯棒性與準(zhǔn)確性。Sun 等[12]提出了一種改進(jìn)的YOLO-v5 算法,添加了上采樣應(yīng)對(duì)高采樣和大感受野的問(wèn)題,同時(shí)采用特征融合方法應(yīng)對(duì)淺層特征語(yǔ)義信息不足的問(wèn)題,并用Mobilenet-V2 輕量網(wǎng)絡(luò)提升檢測(cè)速度。

        2 相關(guān)算法與技術(shù)

        2.1 YOLO-v7原理與結(jié)構(gòu)

        2022年提出的YOLO-v7[13]算法,其作為YOLO 系列的新秀,相比之前的YOLO 算法在精度與速度等方面都有所提升,在Microsoft COCO 數(shù)據(jù)集上的驗(yàn)證精度比YOLO-v5s算法高6.4 個(gè)百分點(diǎn),每秒處理的圖像幀數(shù)目多39 幀。在先前版本算法基礎(chǔ)上,YOLO-v7 作出的改進(jìn)主要有:①設(shè)計(jì)了幾種可訓(xùn)練的bag-of-freebies 免費(fèi)包方法,包括重參數(shù)化、引導(dǎo)頭(lead head)、輔助頭(auxiliary head),使得實(shí)時(shí)目標(biāo)檢測(cè)可以在不增加推理成本的前提下,大幅度提高檢測(cè)精度;②在PlainNet 和ResNet 中設(shè)計(jì)了有計(jì)劃的重參數(shù)化卷積結(jié)構(gòu),解決了重參數(shù)化的模塊如何取代原始模塊的問(wèn)題,以及使用計(jì)算和優(yōu)化方法生成可靠的軟便簽(Soft Label)并設(shè)計(jì)合理分配機(jī)制,解決了動(dòng)態(tài)標(biāo)簽分配策略如何處理不同輸出層的分配問(wèn)題;③提出了“extend 擴(kuò)展”方法與“復(fù)合縮放”方法,在實(shí)時(shí)目標(biāo)檢測(cè)任務(wù)中能夠更充分地利用參數(shù)與計(jì)算資源。YOLO-v7 相比現(xiàn)有的實(shí)時(shí)目標(biāo)檢測(cè)器,參數(shù)量減少約40%,計(jì)算量減少約50%,推理速度與檢測(cè)精度也得到提升;④YOLO-v7 對(duì)YOLO 的架構(gòu)進(jìn)行了革新,以YOLO-v4、Scaled YOLO v4[14]等為基礎(chǔ),構(gòu)建了基于ELAN 計(jì)算塊的E-ELAN(Extended Efficient Layer Aggregation Network)網(wǎng)絡(luò)架構(gòu),在不破壞原有梯度路徑的條件下,提高了網(wǎng)絡(luò)學(xué)習(xí)能力。ELAN 結(jié)構(gòu)如圖1所示。

        Fig.1 ELAN structure diagram圖1 ELAN結(jié)構(gòu)示意圖

        YOLO-v7 的head 網(wǎng)絡(luò)中的ELAN 模塊與backbone 網(wǎng)絡(luò)中的ELAN 模塊(見(jiàn)圖2)略有不同,進(jìn)行concat 操作的數(shù)量由4個(gè)變?yōu)?個(gè),示意圖如圖2所示。

        Fig.2 Head-ELAN diagram圖2 Head-ELAN示意圖

        通過(guò)上述改進(jìn),YOLO-v7 的速度足以支持其在邊緣設(shè)備上做推理運(yùn)算。YOLO-v7在保持相對(duì)精度(56.8%)下的絕對(duì)的速度優(yōu)勢(shì)(30FPS)使得它在無(wú)人機(jī)集群飛行、無(wú)人機(jī)自主避障、無(wú)人機(jī)輔助降落等應(yīng)用場(chǎng)景中擁有可預(yù)見(jiàn)的廣闊前景。

        2.2 FReLU激活函數(shù)

        YOLO-v7 網(wǎng)絡(luò)中的Conv 模塊中包括卷積操作、批歸一化操作(Batch Normalization)、激活函數(shù)操作。在原始YOLO-v7 算法中使用的是SiLU(Sigmoid Weighted Liner Unit)激活函數(shù)[15],公式如式(1)所示。

        SiLU 函數(shù)的簡(jiǎn)單性及其與ReLU 函數(shù)的相似性使其可以有效替換ReLU 激活函數(shù)。而2020 年提出的FReLU(Funnel Activation)[16]激活函數(shù)在圖像分類、對(duì)象檢測(cè)、語(yǔ)義分割任務(wù)上的表現(xiàn)都優(yōu)于ReLU、SiLU 等激活函數(shù),克服了激活函數(shù)的空間不敏感對(duì)視覺(jué)任務(wù)的阻礙。作為專門(mén)為視覺(jué)任務(wù)設(shè)計(jì)的激活函數(shù),F(xiàn)ReLU 使用簡(jiǎn)單的二維條件代替激活函數(shù)中人工設(shè)計(jì)的條件,二維空間條件可以實(shí)現(xiàn)像素級(jí)的建模能力,用規(guī)則卷積捕捉復(fù)雜的視覺(jué)布局。FReLU 的公式如式(2)、式(3)所示。

        其中,T(xc,i,j)代表定義的漏斗式條件;代表第c通道上,以2D 位置(i,j)為中心的窗口代表此窗口在同一通道中的共享參數(shù)。FReLU 以微不足道的計(jì)算開(kāi)銷(xiāo)與空間條件開(kāi)銷(xiāo)為代價(jià),在一定程度上提升了目標(biāo)檢測(cè),特別是小目標(biāo)檢測(cè)的精度。

        2.3 CBAM注意力機(jī)制

        即添即用的注意力機(jī)制模塊可以讓目標(biāo)檢測(cè)網(wǎng)絡(luò)自適應(yīng)地關(guān)注到值得注意的區(qū)域與特征,而不是不加區(qū)分地關(guān)注所有區(qū)域與特征。注意力機(jī)制可分為通道注意力機(jī)制、空間注意力機(jī)制、結(jié)合通道與空間的注意力機(jī)制。卷積注意力機(jī)制模塊(Convolutional Block Attention Module,CBAM)[17]是通道注意力機(jī)制與空間注意力機(jī)制結(jié)合的典型實(shí)現(xiàn),可以關(guān)注每個(gè)通道的比重與每個(gè)像素點(diǎn)的比重。CBAM 的示意圖如圖3所示。

        Fig.3 CBAM diagram圖3 CBAM示意圖

        圖3 中通道注意力機(jī)制模塊的公式如式(4)、式(5)、式(6)所示。

        其中,uc是第c個(gè)通道大小為(H,W)的特征圖;zcm是全局最大池化處理后的結(jié)果;zca是全局平均池化操作后的結(jié)果;Fmlp是共享全連接層處理;將兩個(gè)處理結(jié)果相加再取Simoid函數(shù)值,得到權(quán)重Mc,最后,將權(quán)重與輸入特征層相乘。

        圖3中空間注意力機(jī)制模塊的公式如式(7)所示。

        其中,Ms(F)是對(duì)特征圖F處理得到的權(quán)重值;AP是平均池化操作;MP是最大池化操作;Conv表示對(duì)堆疊結(jié)果進(jìn)行卷積操作;σ是Simoid函數(shù)操作。

        CBAM 可以提高目標(biāo)檢測(cè)網(wǎng)絡(luò)性能,節(jié)省參數(shù)與計(jì)算力,但在實(shí)際使用時(shí)要根據(jù)自身數(shù)據(jù)與網(wǎng)絡(luò)特點(diǎn)綜合決定插入與否以及具體插入位置,否則會(huì)得不償失。

        3 改進(jìn)的YOLO-v7算法

        3.1 FCL-YOLO-v7

        隨著無(wú)人機(jī)飛行高度的變化,目標(biāo)的成像尺寸也會(huì)隨之變化,因此目標(biāo)檢測(cè)模型要適應(yīng)多種尺度。為使網(wǎng)絡(luò)盡可能多地獲取小目標(biāo)的特征信息,從而提升小目標(biāo)的檢測(cè)效率,本文對(duì)YOLO-v7 的網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行了改進(jìn)。YOLOv7 中,backbone 網(wǎng)絡(luò)對(duì)輸入圖像的寬高進(jìn)行壓縮,同時(shí)擴(kuò)張通道數(shù);經(jīng)backbone 對(duì)特征點(diǎn)進(jìn)行連續(xù)下采樣后,會(huì)產(chǎn)生具有高語(yǔ)義內(nèi)容的特征層,然后加強(qiáng)特征提取網(wǎng)絡(luò)會(huì)重新進(jìn)行上采樣,使得特征層的尺度重新變大,利用大尺度的特征去檢測(cè)小目標(biāo)。原始YOLO-v7 算法的加強(qiáng)特征提取網(wǎng)絡(luò)會(huì)進(jìn)行兩次上采樣,而FCL-YOLO-v7 添加了第3次上采樣,繼續(xù)處理特征圖,并將第3 次上采樣之后的特征圖與骨干網(wǎng)絡(luò)中經(jīng)過(guò)Stem 模塊、第一個(gè)Conv-ELAN 模塊后生成的特征層進(jìn)行拼接操作,實(shí)現(xiàn)特征融合,從而生成寬高為160 的第4 個(gè)輸出檢測(cè)層。此外,由于上采樣次數(shù)增加為3,下采樣的次數(shù)也改為3 次,反映到網(wǎng)絡(luò)結(jié)構(gòu)上的變化為:加強(qiáng)特征提取網(wǎng)絡(luò)中添加了一組“下采樣模塊-ElAN 模塊”。因此,相比原始YOLO-v7 生成的3 個(gè)檢測(cè)層,改進(jìn)算法中對(duì)應(yīng)尺度的檢測(cè)層中由加強(qiáng)特征提取網(wǎng)絡(luò)生成的部分在進(jìn)行RepConv 操作前多進(jìn)行了一組上采樣與一組下采樣操作,檢測(cè)層包含的小目標(biāo)信息量得到提升。經(jīng)過(guò)改進(jìn),YOLO-v7 的特征金字塔結(jié)構(gòu)得到了拓展[18],在一定程度上解決了淺層特征語(yǔ)義信息不足的問(wèn)題;改進(jìn)算法還考慮到新增的上采樣結(jié)果可能會(huì)對(duì)小目標(biāo)特征不明確,因此將之前下采樣中生成的特征層與上采樣中尺度相同的特征圖進(jìn)行堆疊,不僅盡可能多地保留了小目標(biāo)信息,而且有利于充分利用深層特征與淺層特征,有利于融合紋理特征與語(yǔ)義特征。

        為改進(jìn)小尺度目標(biāo)檢測(cè)效果,F(xiàn)CL-YOLO-v7 對(duì)錨框(Anchor)進(jìn)行了調(diào)整。錨框機(jī)制的原理是遍歷輸入圖像上所有可能存在目標(biāo)的像素框,然后選出實(shí)際存在目標(biāo)的像素框,并對(duì)像素框的尺寸與位置進(jìn)行調(diào)整從而完成目標(biāo)檢測(cè)任務(wù)。在實(shí)際任務(wù)中,錨框設(shè)置為多種不同尺度,以使網(wǎng)絡(luò)檢測(cè)范圍盡可能多地覆蓋面積與區(qū)域,同時(shí)方便后續(xù)錨框調(diào)整到與真實(shí)框基本接近。錨框機(jī)制的引入不僅可以降低模型訓(xùn)練復(fù)雜度、提高運(yùn)行速度,還能有效預(yù)測(cè)不同寬高比的物體。錨框是檢測(cè)的起點(diǎn),需要將設(shè)計(jì)好的錨框分配給不同尺度的物體,然而物體的尺度是連續(xù)的,錨框的尺度是離散的,如果沒(méi)有設(shè)計(jì)好錨框尺寸,容易造成小目標(biāo)漏檢。在原始YOLO-v7 算法中,Anchor 參數(shù)為[12,16,19,36,40,28];[36,75,76,55,72,146];[142,110,192,243,459,401],每一組Anchor 參數(shù)代表在不同的特征圖上的錨框,一般在含有更多小目標(biāo)信息的大的特征圖上去檢測(cè)小目標(biāo)。改進(jìn)后的網(wǎng)絡(luò)Anchor 參數(shù)為[12,16,30,15,15,30];[56,20,28,43,93,30];[46,95,167,48,110,155];[383,136,286,354,609,255],解決了之前的3組錨框配置無(wú)法滿足4個(gè)檢測(cè)層的問(wèn)題。

        激活函數(shù)作為非線性因素,具有去線性化,即克服線性模型局限性的作用。因此,目標(biāo)檢測(cè)模型中激活函數(shù)的選擇對(duì)其性能的影響不容忽視。在YOLO-v7 網(wǎng)絡(luò)中,Conv 模塊是其結(jié)構(gòu)的關(guān)鍵組成部分。Conv 模塊中封裝了3 個(gè)功能,分別是卷積、批歸一化、激活函數(shù)。改進(jìn)算法將原網(wǎng)絡(luò)中的Conv 模塊包含的激活函數(shù)由SiLU 替換為FRe-LU,原網(wǎng)絡(luò)中RepConv 模塊包含的激活函數(shù)也使用FReLU函數(shù)替換SiLU 函數(shù)。YOLO-v7 中的RepConv 借鑒了RepVGG[19]的架構(gòu),延續(xù)了其推理速度快、記憶效率高的性能,而RepVGG 的提出是為了解決ResNet 等復(fù)雜多分支設(shè)計(jì)的模塊難以實(shí)現(xiàn)且特質(zhì)化困難的問(wèn)題。

        YOLO-v7 網(wǎng)絡(luò)中的backbone 部分首先是Stem 結(jié)構(gòu),它由堆疊的3 層Conv 模塊構(gòu)成。第1 個(gè)Conv 模塊的卷積核設(shè)置1,步長(zhǎng)設(shè)置為1;第2 個(gè)的卷積核設(shè)置為3,步長(zhǎng)為2;第3 個(gè)的卷積核設(shè)置為3,步長(zhǎng)為1,以實(shí)現(xiàn)寬高分別減半、通道數(shù)變?yōu)?4 的效果(針對(duì)三通道彩色圖片的處理效果)。改進(jìn)算法將YOLO-v7 的Stem 結(jié)構(gòu)的第一個(gè)Conv 模塊替換為CBAM 注意力機(jī)制模塊。CBAM 是一種輕量型的通道—空間注意力機(jī)制,適合無(wú)人機(jī)的實(shí)時(shí)目標(biāo)檢測(cè)任務(wù)。

        經(jīng)過(guò)上述改進(jìn),F(xiàn)CL-YOLO-v7 算法的網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示。

        3.2 PCUS-DataSets

        無(wú)人機(jī)航拍圖像小微目標(biāo)數(shù)據(jù)集較缺乏,因此本文構(gòu)建自定義數(shù)據(jù)集進(jìn)行后續(xù)實(shí)驗(yàn)。自定義數(shù)據(jù)集PCUS-DataSets 的圖片由公開(kāi)數(shù)據(jù)集DTB70[20]、Visdrone[21]、Det-Fly[22]、NPS-Drones 以及自采集數(shù)據(jù)集中的相關(guān)圖片所構(gòu)成,其中,自采集圖像由大疆Mavic Air 2 無(wú)人機(jī)通過(guò)實(shí)際飛行進(jìn)行采集,分辨率為8 000×6 000。PCUS-DataSets 的圖片總量為718 張,隨機(jī)劃分為訓(xùn)練集圖片588 張,驗(yàn)證集圖片65 張,測(cè)試集圖片65 張。為定量定性地測(cè)試本文算法針對(duì)無(wú)人機(jī)航拍圖像中小目標(biāo)的檢測(cè)性能,PCUS-Data-Sets 中的目標(biāo)尺度均微小,在整張圖片中的像素?cái)?shù)占比可低至1/50 000。數(shù)據(jù)集還包含大量稠密分布、遮擋分布、邊角分布、前景與背景難以區(qū)分等檢測(cè)較為困難的小目標(biāo),分別如圖5(a)(b)(c)(d)所示(彩圖掃OSID 碼可見(jiàn),下同)。

        Fig.5 Diagram of some targets圖5 部分目標(biāo)示意圖

        PCUS-DataSets 中的目標(biāo)被標(biāo)記為Pedestrian、Cyclist、UAV、Sheep 4 類:Pedestrian 類標(biāo)記行人目標(biāo),共1 122 個(gè);Cyclist 類標(biāo)記騎行者目標(biāo),標(biāo)記框覆蓋騎行者及其代步非機(jī)動(dòng)車(chē)機(jī)身,共616 個(gè);UAV 標(biāo)記同伴無(wú)人機(jī)目標(biāo),使算法的應(yīng)用場(chǎng)景從單個(gè)無(wú)人機(jī)飛行擴(kuò)展為無(wú)人機(jī)集群飛行,共325 個(gè);Sheep 標(biāo)記羊目標(biāo),共583 個(gè)。PCUS-DataSets 的拍攝場(chǎng)景多樣,包含公園、商業(yè)街區(qū)、廣場(chǎng)、公路、校園、水庫(kù)、草地、天空、海濱等,且涵蓋各時(shí)間維度。

        4 實(shí)驗(yàn)與分析

        實(shí)驗(yàn)條件為:本文實(shí)驗(yàn)是在Windows10 操作系統(tǒng)下進(jìn)行;使用單塊GPU,型號(hào)為NVIDIA GeForce RTX 3060 Laptop GPU;處理器為AMD Ryzen 75800H;訓(xùn)練時(shí)采用帶預(yù)熱的余弦退火算法;網(wǎng)絡(luò)輸入尺寸為640×640;實(shí)驗(yàn)數(shù)據(jù)集為自主構(gòu)建的PCUS-DataSets 數(shù)據(jù)集。實(shí)驗(yàn)參數(shù)設(shè)置如表1所示。

        Table 1 Partial experimental parameters表1 部分實(shí)驗(yàn)參數(shù)

        為評(píng)價(jià)改進(jìn)算法性能,引入指標(biāo):精確率(Precision)、召回率(Recall)、測(cè)試所用非極大值抑制時(shí)間(NMS_time),公式如式(8)、式(9)所示。

        其中,TP代表將正類預(yù)測(cè)為正類數(shù),F(xiàn)P代表將負(fù)類預(yù)測(cè)為正類數(shù),F(xiàn)N代表將負(fù)類預(yù)測(cè)為正類數(shù)。

        本文以計(jì)算量,即模型運(yùn)算次數(shù)衡量模型時(shí)間復(fù)雜度;以訪存量,即模型參數(shù)數(shù)量衡量模型空間復(fù)雜度。輸入圖像尺度為640×640 時(shí),F(xiàn)CL-YOLO-v7 模型計(jì)算量為121.2 GFLOPS,參數(shù)量為35.58M。

        4.1 對(duì)比實(shí)驗(yàn)及結(jié)果分析

        為檢測(cè)本文改進(jìn)算法的效果,將其與同類算法進(jìn)行對(duì)比實(shí)驗(yàn),結(jié)果如表2 所示。本文涉及的對(duì)比實(shí)驗(yàn)中,網(wǎng)絡(luò)的深度(depth_multiple)均設(shè)置為1.0,寬度(width_multiple)均設(shè)置為1.0。

        Table 2 Comparison of detection results of different algorithms表2 不同算法檢測(cè)結(jié)果比較

        由表2 可知,F(xiàn)CL-YOLO-v7 算法在精確率上比YOLO-v3 高7.3 個(gè)百分點(diǎn),比YOLO-v5 高6.5 個(gè)百分點(diǎn),比原始YOLO-v7 算法高6.7 個(gè)百分點(diǎn);在召回率上比YOLO-v3高1.9 個(gè)百分點(diǎn),比YOLO-v5 高3.3 個(gè)百分點(diǎn),比原始YOLO-v7 算法高0.2 個(gè)百分點(diǎn)。經(jīng)過(guò)改進(jìn),算法性能得到提升,與無(wú)人機(jī)航拍圖像小目標(biāo)檢測(cè)任務(wù)的適配性得到提高。

        為直觀展示本文算法改進(jìn)效果,圖6(a)(b)分別為用YOLO-v7、FCL-YOLO-v7 在PCUS-DataSets 數(shù)據(jù)集上訓(xùn)練得到的權(quán)重檢測(cè)無(wú)人機(jī)圖像目標(biāo)所得到的效果圖。

        Fig.6 Experimental processed image圖6 實(shí)驗(yàn)處理圖像

        YOLO-v7 算法處理的圖6(a)中出現(xiàn)了將斑馬線誤檢為Cyclist 目標(biāo)、將汽車(chē)輪胎誤檢為Pedestrian 目標(biāo)的情況,正確目標(biāo)的置信度較低,如右下角Cyclist 目標(biāo)的置信度為0.78。而FCL-YOLO-v7 算法處理的圖6(b)中則沒(méi)有誤檢,且右下角Cyclist 目標(biāo)的置信度為0.94。由此可見(jiàn),改進(jìn)算法能有效解決小目標(biāo)檢測(cè)難題。

        4.2 消融實(shí)驗(yàn)及結(jié)果分析

        為了進(jìn)一步驗(yàn)證本文提出的各項(xiàng)改進(jìn)對(duì)算法性能的影響,本文進(jìn)行了消融實(shí)驗(yàn)。消融實(shí)驗(yàn)設(shè)置如表3 所示,對(duì)每個(gè)實(shí)驗(yàn)進(jìn)行編號(hào),表格中的“加號(hào)”表示“進(jìn)行此項(xiàng)改進(jìn)”,實(shí)驗(yàn)結(jié)果如表4 所示。實(shí)驗(yàn)1-4 在訓(xùn)練時(shí)應(yīng)用了遷移學(xué)習(xí)原理,均使用了YOLO-v7 在Microsoft COCO 數(shù)據(jù)集上的預(yù)訓(xùn)練權(quán)重[23],利用預(yù)訓(xùn)練權(quán)重,可以使模型從較高的起點(diǎn)開(kāi)始訓(xùn)練,從而以較短的耗時(shí)得到更精確的模型。Microsoft COCO 數(shù)據(jù)集由123 287 張圖片構(gòu)成,包含80 個(gè)目標(biāo)類,且含有海量的小目標(biāo),因此預(yù)訓(xùn)練權(quán)重的使用可以解決無(wú)人機(jī)航拍圖像樣本較少的問(wèn)題。

        Table 3 Ablation experiment design表3 消融實(shí)驗(yàn)設(shè)置

        Table 4 Results of ablation experiment表4 消融實(shí)驗(yàn)結(jié)果

        消融實(shí)驗(yàn)證明本文提出的改進(jìn)方法確實(shí)在不影響用時(shí)的條件下有效地提高了算法精度,且改進(jìn)算法中的各項(xiàng)改進(jìn)均產(chǎn)生了積極影響。

        5 結(jié)語(yǔ)

        本文提出一種基于YOLO-v7 的無(wú)人機(jī)航拍小目標(biāo)檢測(cè)改進(jìn)算法FCL-YOLO-v7,增加了小目標(biāo)檢測(cè)層并改進(jìn)錨框數(shù)量與尺度設(shè)置,添加CBAM 注意力機(jī)制,使用FRe-LU 作為激活函數(shù)。在自主構(gòu)建的無(wú)人機(jī)航拍圖像小目標(biāo)數(shù)據(jù)集PCUS-DataSets 上進(jìn)行對(duì)比實(shí)驗(yàn)及消融實(shí)驗(yàn),結(jié)果證明本文改進(jìn)算法的性能優(yōu)于YOLO-v3、YOLO-v5、原始YOLO-v7 算法,精確率較YOLO-v7 提升6.7%。但本文算法也存在不足,如改進(jìn)方法會(huì)提高網(wǎng)絡(luò)復(fù)雜度,增加參數(shù)量。下一步工作可改進(jìn)如下:在保證高檢測(cè)精度的前提下,將模型輕量化,降低模型參數(shù)量與網(wǎng)絡(luò)復(fù)雜度;改進(jìn)正負(fù)樣本劃分與采樣策略,以實(shí)現(xiàn)召回率的有效提升;在不同自然環(huán)境狀況下,繼續(xù)進(jìn)行無(wú)人機(jī)實(shí)飛作業(yè),擴(kuò)充數(shù)據(jù)集。

        猜你喜歡
        特征實(shí)驗(yàn)檢測(cè)
        記一次有趣的實(shí)驗(yàn)
        “不等式”檢測(cè)題
        “一元一次不等式”檢測(cè)題
        “一元一次不等式組”檢測(cè)題
        如何表達(dá)“特征”
        做個(gè)怪怪長(zhǎng)實(shí)驗(yàn)
        不忠誠(chéng)的四個(gè)特征
        抓住特征巧觀察
        NO與NO2相互轉(zhuǎn)化實(shí)驗(yàn)的改進(jìn)
        實(shí)踐十號(hào)上的19項(xiàng)實(shí)驗(yàn)
        太空探索(2016年5期)2016-07-12 15:17:55
        久久精品国产亚洲av精东| 国产欧美亚洲精品第二区首页 | 日韩av一区二区三区激情在线| 东京热无码av一区二区| 色老汉免费网站免费视频| 国产精品不卡无码AV在线播放| 久久91精品国产一区二区| 无码aⅴ精品一区二区三区浪潮 | 日韩AV无码中文无码AV| 亚洲av日韩综合一区尤物| 天堂中文а√在线| 精品一区二区久久久久久久网站| 国产品精品久久久久中文| 有码视频一区二区三区| 亚洲色欲久久久综合网东京热| 亚洲精品一区二区三区大桥未久| 国产av色| 日韩国产精品一区二区三区| 无遮挡18禁啪啪羞羞漫画| 久久婷婷综合色丁香五月| 一区二区三区婷婷中文字幕| 国产精品国产av一区二区三区| 久久国产精品99精品国产| 日本欧美在线播放| 国产精品丝袜美腿诱惑| 不卡视频在线观看网站| 黑人巨茎大战俄罗斯美女| 丰满多毛少妇做爰视频| 日本二区视频在线观看| 亚洲中文字幕精品乱码2021| 看全色黄大色大片免费久久| 一本大道久久东京热无码av| 青草草视频在线观看华人免费| 亚洲人成电影网站色| 色拍拍在线精品视频| 丰满少妇高潮在线观看| 久久精品色福利熟妇丰满人妻91| 亚洲日韩成人av无码网站| 午夜福利影院不卡影院| 五月婷婷开心五月激情| 各种少妇正面着bbw撒尿视频|