亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進YOLOv4的遙感影像飛機目標檢測

        2023-01-14 05:58:20張?zhí)祢E劉玉懷李蘇晨
        電光與控制 2022年12期
        關(guān)鍵詞:飛機檢測模型

        張?zhí)祢E, 劉玉懷, 李蘇晨

        (鄭州大學(xué),a.計算機與人工智能學(xué)院; b.信息工程學(xué)院; c.電氣工程學(xué)院,鄭州 450000)

        0 引言

        遙感影像中飛機目標的檢測是遙感影像智能化信息提取的核心,在海情監(jiān)控和應(yīng)急救災(zāi)等軍事與民用方面均有重要且廣泛的應(yīng)用。國內(nèi)外學(xué)者針對遙感圖像的目標檢測做了大量研究,YI等[1]提出了一種基于隨機區(qū)域提出的概率快速R-CNN遙感圖像目標檢測算法,將概率區(qū)域提出網(wǎng)絡(luò)、圖像分類網(wǎng)絡(luò)和目標檢測網(wǎng)絡(luò)進行融合來檢測目標;VHARKATE等[2]集成了降維(DR)、特征提取(FE)、損失函數(shù)優(yōu)化、匹配過程和相關(guān)反饋(RF)機制,提出了一種利用混合VGGNet與紅鹿RDA的遙感圖像檢索算法;董永峰等[3]針對不同類型飛機的尺寸比例不固定等特點,提出以Mask R-CNN為基礎(chǔ)框架的目標檢測方法。以上方法均采用基于候選區(qū)的兩階段卷積神經(jīng)網(wǎng)絡(luò)算法,雖然具有較高的精度,但檢測效率低且不適用于移動端。

        基于回歸的單階段目標檢測算法通過縮減人工預(yù)處理增加模型契合度,在檢測精度、速度及魯棒性方面均有良好表現(xiàn)。WU等[4]以YOLOv3作為檢測框架,采用多粒度網(wǎng)絡(luò)(MGN)提取豐富的目標外觀信息;張欣等[5]對YOLOv4-tiny進行改進,引入Mish激活函數(shù)與空間金字塔池化模塊,緩解網(wǎng)絡(luò)對飛機目標尺度的敏感程度,使模型具有更好的泛化能力。受以上模型啟發(fā),本文提出了一種改進YOLOv4算法對遙感圖像飛機目標進行識別,采用K-means++獲取與目標擬合度更高的先驗框參數(shù);改進損失函數(shù),解決正負樣本的非平衡性;使用雙向剪枝對模型進行輕量化處理。實驗表明,改進后的算法能夠在保證識別精度的同時提高檢測效率,有效解決了模型不易部署在衛(wèi)星和嵌入式設(shè)備等硬件資源受限平臺的問題。

        1 YOLOv4算法

        YOLOv4算法[6]的網(wǎng)絡(luò)架構(gòu)由Input,Backbone,Neck(SPP+PANet)和Head組成。Input通過自對抗訓(xùn)練策略使神經(jīng)網(wǎng)絡(luò)反向更新圖像,在添加擾動后的圖像上訓(xùn)練,實現(xiàn)數(shù)據(jù)擴充。Backbone以CSPDarknet-53作為網(wǎng)絡(luò)框架,其中,CSP-ResNet 殘差連接結(jié)構(gòu)消除網(wǎng)絡(luò)反向優(yōu)化時梯度信息冗余現(xiàn)象;以Mish激活函數(shù)代替Leaky ReLU函數(shù),保證函數(shù)在負值的情況下允許較小的負梯度流入。Neck通過空間池化結(jié)構(gòu)SPP對特征層進行4種尺度的最大池化提取上下文特征。為避免在傳遞過程中出現(xiàn)淺層信息丟失的問題,采用實例分割框架下的路徑聚合網(wǎng)絡(luò)結(jié)構(gòu)PANet融合深層與淺層的特征信息,使得Neck能夠生成3個更有效的目標檢測特征圖。Head的功能是回歸與分類,沿用YOLOv3的多尺度預(yù)測方式,將生成的3個特征圖分別用于小、中、大目標的檢測和預(yù)測解碼,圖1分別是52像素×52像素,26像素×26像素,13像素×13像素飛機目標特征圖。

        圖1 多尺度特征圖Fig.1 Multi-scale feature map

        2 改進YOLOv4的遙感飛機檢測

        YOLOv4在檢測精度與速度之間取得了較好的平衡,是目標檢測的首選模型,但由于原始算法的先驗框不符合遙感飛機數(shù)據(jù)集中檢測目標的尺寸,且高額的計算成本使模型的部署變得困難,因此需要重新擬合先驗框參數(shù)、簡化網(wǎng)絡(luò)結(jié)構(gòu)并降低參數(shù)量,在不影響精度的前提下提高模型檢測速度。

        2.1 先驗框計算的改進

        YOLOv4在劃分網(wǎng)格后的圖像上設(shè)置先驗框,通過預(yù)測先驗框與真實框之間的距離,確定最終的邊界框回歸。由于遙感影像背景復(fù)雜造成算法原始先驗框數(shù)據(jù)與飛機目標的尺寸無法較好地耦合,因此,本文采用K-means++算法穩(wěn)定初始化聚類中心選擇,使模型獲得最優(yōu)的先驗框參數(shù),提高檢測精度。

        K-means++算法[7]先隨機選取數(shù)據(jù)集中某一個樣本的目標框區(qū)域作為初始聚類中心,再計算各個樣本到已有的聚類中心的距離D(x)以及每個樣本成為下一個聚類中心的概率P(x),即

        (1)

        選取概率最大的樣本目標框區(qū)域作為新的聚類中心,重復(fù)上述步驟直至選出K個聚類中心;重新計算每個樣本到各個聚類中心的距離,把樣本點劃分到與之距離最近的簇中,更新各個簇中所有類的聚類中心,最后迭代至聚類中心不再變化時結(jié)束。按照上述步驟對數(shù)據(jù)集聚類分析,結(jié)果如圖2所示。

        圖2 K-means++聚類算法結(jié)果Fig.2 Results of K-means++ clustering algorithm

        由圖2可知,平均交并比IoU與候選框的數(shù)量呈正相關(guān),為同時兼顧計算精度與耗時,以9作為聚類中心數(shù),聚類效果如圖3所示,其尺寸如表1所示。

        圖3 K-means++聚類效果圖Fig.3 K-means++ clustering diagram

        表1 優(yōu)化聚類后先驗框尺寸Table 1 Priori frame sizes after optimization

        2.2 損失函數(shù)的改進

        在進行遙感圖像的目標檢測時,由于背景復(fù)雜,一張圖像中真實目標包圍框的數(shù)量往往會遠小于預(yù)測包圍框,造成正負樣本比例失衡的問題。因此,本文在標準交叉熵損失函數(shù)的基礎(chǔ)上增加調(diào)節(jié)因子,以focal loss[8]作為改進的YOLOv4的損失函數(shù),該函數(shù)表示為

        (2)

        圖4 不同模型的PR曲線Fig.4 PR curves of different models

        由圖4可以看出,focal loss的引入有效降低了簡單負樣本在訓(xùn)練過程中所占的權(quán)重,解決了標準交叉熵損失函數(shù)中存在的正樣本輸出概率越大損失越小、負樣本輸出概率越小損失越小的問題,從而提升模型的檢測精度。

        2.3 剪枝壓縮

        由于YOLOv4高額的計算成本使模型部署變得困難,本文在保證檢測精度的前提下,采用融合卷積核剪枝與層間剪枝的剪枝方法[9]對YOLOv4進行壓縮。模型需要通過基礎(chǔ)訓(xùn)練、稀疏訓(xùn)練、雙向剪枝以及微調(diào)得到合適的壓縮尺度?;A(chǔ)訓(xùn)練以改進的損失函數(shù)Lft作為優(yōu)化目標,對數(shù)據(jù)集進行迭代訓(xùn)練,直至0

        (3)

        3 實驗結(jié)果與分析

        3.1 實驗數(shù)據(jù)及環(huán)境

        為了對本文提出的聯(lián)合聚類優(yōu)化、focal loss與融合剪枝的YOLOv4-nl算法進行評估,采用UCAS-AOD和RSOD數(shù)據(jù)集共計1886張飛機遙感圖像進行實驗,其中包含飛機8203架,按照8∶2的比例將圖像分配至訓(xùn)練集和測試集,樣本標簽示例見圖5。為了提高模型的泛化能力與魯棒性,算法采用Mosaic數(shù)據(jù)增強方式提高數(shù)據(jù)集目標豐富度,隨機選取數(shù)據(jù)集中的4張圖片,通過隨機縮放、隨機裁減、隨機排布的方式將其拼接成一張完整的圖像送入檢測模型。

        本模型在PC端上完成網(wǎng)絡(luò)訓(xùn)練和剪枝模型壓縮實驗,采用以Tensorflow框架為后端的Keras構(gòu)建遙感影像的飛機檢測模型,詳細實驗平臺配置如表2所示。

        3.2 模型訓(xùn)練

        本文對遙感影像飛機目標的檢測網(wǎng)絡(luò)如圖6所示,將人工標注的飛機數(shù)據(jù)輸入模型中進行訓(xùn)練和微調(diào)實現(xiàn)模型對目標的快速識別。

        權(quán)值按照大小排序,通過控制縮放因子的大小對冗余通道進行篩選,將貢獻率較低的通道剪掉,如圖6中紅線所示,將貢獻率高的通道進行保留,如圖6中藍線所示,修剪后的模型結(jié)構(gòu)更加緊湊。

        圖6 飛機目標的檢測網(wǎng)絡(luò)Fig.6 Aircraft target detection network

        為加速訓(xùn)練,將輸入圖像的分辨率大小統(tǒng)一調(diào)整為608像素×608像素,batch大小設(shè)為64,動量設(shè)為0.000 5,迭代次數(shù)設(shè)為9000,初始學(xué)習率設(shè)為0.001,在迭代至6000次時,將學(xué)習率降低1/10,權(quán)值衰減率設(shè)為0.000 6,稀疏訓(xùn)練的迭代次數(shù)設(shè)為1000,λ設(shè)為0.005,α取0.5,γ取1,τn設(shè)為0.1,τl設(shè)為0.5。訓(xùn)練完成后繪制模型的損失函數(shù)變化曲線,如圖7所示。

        圖7 模型的損失函數(shù)變化曲線Fig.7 Loss function curve of model

        模型在經(jīng)過1000次迭代后損失值大幅下降,5000次迭代后穩(wěn)定收斂在0.16左右,改進后模型的損失值明顯低于原模型,因此所提的YOLOv4-nl模型超參數(shù)設(shè)置合理,學(xué)習效果較為理想。

        3.3 算法對比

        為了評估YOLOv4-nl算法的性能,從測試集中選取3張具有代表性的遙感飛機圖片,分別是沙塵天氣圖像、部分目標重疊圖像以及小尺度密集分布圖像。通過兩階段Faster R-CNN[10],YOLOv3,YOLOv4,卷積核剪枝模型YOLOv4-n,層間剪枝模型YOLOv4-l與本文算法YOLOv4-nl進行對比分析,實驗結(jié)果如圖8所示。圖8中,第1行圖像是受沙塵天氣影響的成像質(zhì)量較差、目標較為模糊的圖像,各個算法均有一定程度上的漏檢,YOLOv4與YOLOv4-nl算法漏檢數(shù)量最少。第2行圖像中目標飛機有重疊部分且方向各異,與背景環(huán)境的顏色較為相近,由于YOLOv4-nl算法引入了focal loss,更加關(guān)注難分類的目標,因此其目標框更接近于飛機真實輪廓大小。第3行圖像中,YOLOv3,YOLOv4-n與YOLOv4-l對于小尺度密集分布圖像的語義丟失嚴重,YOLOv4-nl算法幾乎檢測到了所有目標,優(yōu)勢更為明顯。

        圖8 算法對比結(jié)果Fig.8 Algorithm comparison results

        為了進一步評估YOLOv4-nl算法的性能,以準確率P、召回率R、平均準確率(mAP)、模型存儲空間V與檢測速度作為性能評價依據(jù)對模型優(yōu)劣進行客觀對比分析,結(jié)果如表3所示。

        表3 模型性能對比Table 3 Model performance comparison

        其中,

        (4)

        式中:PT為將正類預(yù)測為正類的數(shù)量;PF為將負類預(yù)測為正類的數(shù)量;NF為將正類預(yù)測為負類的數(shù)量;NT為將負類預(yù)測為負類的數(shù)量。準確率P是指對于預(yù)測結(jié)果中確實為正類的樣本占被預(yù)測為正類的樣本的比例。召回率R是指被正確預(yù)測的正類樣本占原樣本的比例。

        由表3可知,F(xiàn)aster R-CNN以RPN代替窮舉法Selective Search生成候選框,精度相對較高,但檢測速度仍遠低于單階段檢測算法。對YOLOv4模型進行多種剪枝壓縮處理后,存儲空間得到明顯壓縮,運算速度均有所提升,并且微調(diào)后的精度與剪枝前模型差距不大,YOLOv4-nl算法的mAP僅比YOLOv4原始模型下降了0.11%,而較Faster R-CNN,YOLOv3,YOLOv4-n和YOLOv4-l分別高出2.19%,5.84%,4.62%和3.81%;存儲空間壓縮至14.3 MiB,運算速度也有所提升。實驗證明,該模型識別準確率高、檢測速度快,能夠為遙感影像中的飛機目標檢測任務(wù)提供技術(shù)支持。

        4 結(jié)論

        針對遙感影像中飛機目標尺寸偏小、檢測精度較低且無法實現(xiàn)輕量化應(yīng)用的問題,本文提出了一種改進的YOLOv4-nl檢測模型。采用K-means++聚類算法優(yōu)化錨框數(shù)據(jù)以適應(yīng)數(shù)據(jù)集中目標尺寸,使模型預(yù)測性能與網(wǎng)絡(luò)訓(xùn)練收斂速度得到有效提升。以focal loss作為本文算法的損失函數(shù),緩解由于數(shù)據(jù)樣本失衡造成的交叉熵損失函數(shù)向多樣本類別傾斜的問題。為了在保證檢測精度的同時節(jié)省存儲空間并加快運算速度,提出一種融合卷積核剪枝與層間剪枝的壓縮算法對模型剪枝壓縮,以簡化模型結(jié)構(gòu),節(jié)省計算成本。實驗結(jié)果表明,相較于原始YOLOv4模型,本文算法在保證平均準確率的同時,模型存儲空間減少了94.4%,運算速度提高了15.76 幀/s,基本滿足遙感影像目標檢測的實時處理需求,為后續(xù)的移動平臺部署提供依據(jù)。

        猜你喜歡
        飛機檢測模型
        一半模型
        飛機失蹤
        “不等式”檢測題
        “一元一次不等式”檢測題
        “一元一次不等式組”檢測題
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
        “拼座飛機”迎風飛揚
        當代陜西(2019年11期)2019-06-24 03:40:28
        乘坐飛機
        3D打印中的模型分割與打包
        亚洲精品国产综合一线久久| 四虎影视在线影院在线观看| 久久成人国产精品一区二区| 中文字幕日韩欧美一区二区三区 | 亚洲男人的天堂网站| 国产亚洲精品日韩综合网| 女人被躁到高潮嗷嗷叫| 女同性恋看女女av吗| 中文字幕亚洲视频一区| 欧美伦费免费全部午夜最新| 色avav色av爱avav亚洲色拍 | 亚洲中文字幕无码爆乳app| 亚洲国产精品ⅴa在线观看| 国产亚洲蜜芽精品久久| 日本一极品久久99精品| 亚洲成熟中老妇女视频| 亚洲精品粉嫩美女一区| 亚洲熟女www一区二区三区| 亚洲av日韩av综合| 日韩在线看片| 国产熟女av一区二区三区四季| 白色白色白色在线观看视频| 日韩少妇人妻中文视频| 色婷婷亚洲一区二区三区| 老熟女高潮一区二区三区| 日韩在线观看你懂的| 白白青青视频在线免费观看| 夜夜高潮夜夜爽免费观看| 四虎国产成人永久精品免费| 麻豆精品久久久久久久99蜜桃 | 色猫咪免费人成网站在线观看| 亚州无线国产2021| 一本久道久久综合狠狠操 | 国产女主播精品大秀系列| 四虎影视在线观看2413| 精品无吗国产一区二区三区av| 在线精品亚洲一区二区三区| 免费av日韩一区二区| 免费无遮挡禁18污污网站| 无码精品一区二区免费AV| 亚洲老女人区一区二视频|