亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于卷積神經(jīng)網(wǎng)絡(luò)的典型偵察目標(biāo)檢測方法研究

        2023-01-11 15:24:36袁建虎徐顯海
        現(xiàn)代計(jì)算機(jī) 2022年20期
        關(guān)鍵詞:注意力精度特征

        岳 磊,袁建虎,徐顯海

        (1.陸軍工程大學(xué)野戰(zhàn)工程學(xué)院,南京 210001;2.95979部隊(duì),泰安 271000)

        0 引言

        偵察巡邏是確保地區(qū)安全穩(wěn)定的重要行動,是確保社會經(jīng)濟(jì)健康發(fā)展的重要保障,但是巡邏偵察環(huán)境復(fù)雜多樣、巡邏地點(diǎn)交通不便、檢測目標(biāo)多樣等問題增加了任務(wù)執(zhí)行難度。傳統(tǒng)巡邏偵察通過低近偵察,拍攝圖像視頻資料觀察判斷可疑區(qū)域,但視野十分有限且檢測效率低,檢測效果較差。現(xiàn)代巡邏偵察行動要求節(jié)奏迅速、反應(yīng)快,減少非必要時間損失帶來的影響。伴隨計(jì)算機(jī)視覺在軍事應(yīng)用上的發(fā)展,傳統(tǒng)檢測精度低、檢測難度大、實(shí)時性差等問題也隨之突出。因此研究智能目標(biāo)檢測在軍事偵察、邊境治理、引導(dǎo)打擊和反恐維穩(wěn)等領(lǐng)域的應(yīng)用具有重要意義。

        執(zhí)行偵察巡邏任務(wù)時,主要面臨以下困難:①任務(wù)場景復(fù)雜:山岳叢林、村落、高寒山地、荒漠草原。②檢測方式多樣:采用抵近偵觀察設(shè)備、無人機(jī)航拍和視頻監(jiān)控進(jìn)行偵察圖像采集。③檢測目標(biāo)種類多樣:行人、車輛、牲畜、建筑等。

        上述巡邏偵察任務(wù)中面臨的問題十分具有挑戰(zhàn)性,使得眾多學(xué)者進(jìn)行深入研究。近年來隨著神經(jīng)網(wǎng)絡(luò)的深入研究,計(jì)算機(jī)計(jì)算性能和存儲能力提升,采用深度學(xué)習(xí)進(jìn)行目標(biāo)檢測已經(jīng)廣泛用于各個領(lǐng)域,在國家安全、軍事、交通、醫(yī)療和生活等都是重要研究方向[1-2]。通過深度卷積神經(jīng)網(wǎng)絡(luò)能夠有效改善傳統(tǒng)檢測算法深層特征提取不充分、泛化性差、受自然和人工干擾因素多的問題,同時提升檢測精度及效率。

        目前根據(jù)網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)方式不同,現(xiàn)有的深度學(xué)習(xí)檢測算法可以分為兩類:一類是基于區(qū)域的兩階段(Two-Stage)檢測算法,代表算法有R-CNN[3]、Faster R-CNN[4]、Mask R-CNN[5]等,兩階段算法主要是依據(jù)圖像中被檢測實(shí)際位置,提前選取候選區(qū)的方式進(jìn)行訓(xùn)練。另一類是一階段(One-Stage)檢測算法,該類算法采用端到端檢測網(wǎng)絡(luò),代表算法有YOLO(You Only Look Once, YOLO)[6-7]、 SSD(Single Shot Multibox Detector, SSD)[8]等。

        一階段算法使用回歸思想,用回歸的方式得出檢測框類別及偏移量,并得出最接近真實(shí)值的檢測框。郝旭政等[9]對行人特征進(jìn)行加強(qiáng)表達(dá)。通對圖像中的行人表達(dá)和分布進(jìn)行分析,在保證檢測算法檢測速度的前提下,對網(wǎng)絡(luò)中的殘差模塊進(jìn)行了改進(jìn),使得YOLO算法獲得了更強(qiáng)的表達(dá)能力。裴偉等[10]針對目標(biāo)重復(fù)多次漏檢以及小目標(biāo)漏檢的情況,以SSD為基準(zhǔn)模型進(jìn)行改進(jìn),將不同特征融合機(jī)制進(jìn)行了融合,且通過實(shí)驗(yàn)證明了此方法具備較好的準(zhǔn)確性和實(shí)驗(yàn)性。

        針對偵察巡邏任務(wù)背景下被檢測圖像檢測圖像模糊、自然環(huán)境干擾造成檢測困難的問題,本文在YOLOv5的基礎(chǔ)上對原始標(biāo)準(zhǔn)網(wǎng)絡(luò)進(jìn)行改進(jìn),收集、標(biāo)注、擴(kuò)充相關(guān)實(shí)驗(yàn)數(shù)據(jù)集;在YOLOv5的骨干網(wǎng)絡(luò)(Backbone)中引入雙通道注意力機(jī)制[11](Convolutional Block Attention Mod?ule,CBAM)模塊。

        1 檢測模型

        1.1 YOLOv5算法結(jié)構(gòu)

        YOLOv5檢測模型基本框架主要包括Input、Backbone、Neck、Prediction等四部分。輸入部分:主要將圖像調(diào)整為640×640的比例,并進(jìn)行縮放、增強(qiáng)等處理;Backbone模塊主要進(jìn)行切片處理操作:將輸入圖像進(jìn)行切片處理,便于模型的訓(xùn)練以及多種尺度的特征的提??;Neck模塊完成多個尺度特征信息融合的功能,在這個部分將不同深度的特征信息進(jìn)行融合,可以減少因特征提取而丟失的語義信息,從而能夠使模型訓(xùn)練獲得更多的訓(xùn)練信息,有利于算法精度的提升;Prediction部分由3個檢測頭組成,Bounding Box損失函數(shù)使用GIOU函數(shù),如式(1)所示,類概率分類采用交叉熵?fù)p失函數(shù)。

        1.2 雙通道注意力機(jī)制模塊

        為了解決被檢測目標(biāo)與背景分離性較差、目標(biāo)顯著度低的問題,本文在YOLOv5網(wǎng)絡(luò)模型中的殘差塊與卷積塊中引入通道注意力和空間卷積塊注意力模型[12-13]。

        圖1 雙通道注意力機(jī)制模塊

        在CBAM模塊中的通道注意力機(jī)制,采用Maxpool和Avgpool對特征信息進(jìn)行增強(qiáng),計(jì)算公式如下:

        Mc表示CBAM模塊中的通道注意力模塊,MS表示空間注意力模塊;H×W表示為特征圖大??;特征圖表示為F∈RC×H×W,σ為Sigmoid非線性激活函數(shù);MLP(Multilayer Perceptron)為共享感知器;W0和W1

        分別表示MLP中多層感知器中的隱藏層權(quán)重和輸出層權(quán)重;Fcavg和Fcmax分別表示通道注意力機(jī)制的全局平均池化操作和最大池化操作。

        因?yàn)樘砑油ǖ雷⒁饬C(jī)制后的網(wǎng)絡(luò)會使圖像位置信息產(chǎn)生損失值,因此在此基礎(chǔ)上再添加空間注意力模塊。將特征圖F∈RC×H×W輸入空間注意力模塊后,在通道維度對特征圖進(jìn)行平均池化和最大池化操作。進(jìn)行信息增強(qiáng),得到兩個H×W× 1通道,并將這兩個通道拼接在一起,然后完成卷積操作和Sigmoid激活函數(shù)操作,得到權(quán)重系數(shù)MS;最后,將權(quán)重系數(shù)與前一步的縮放特征進(jìn)行特征相乘,就可以得到空間注意力特征。相關(guān)的計(jì)算公式如下:

        2 算法改進(jìn)

        2.1 基于YOLOv5的改進(jìn)模型

        將樣本數(shù)據(jù)集進(jìn)行數(shù)據(jù)增強(qiáng)后,輸入到網(wǎng)絡(luò)中進(jìn)行訓(xùn)練;在網(wǎng)絡(luò)中增加雙通道注意力機(jī)制部分,能夠有效提取深層次語義信息,形成模型偏好特征,找到興趣點(diǎn)。本文所提出檢測算法如圖2所示。

        圖2 改進(jìn)檢測算法框架

        2.2 數(shù)據(jù)增強(qiáng)策略

        在執(zhí)行偵察巡邏任務(wù)時,由于環(huán)境多樣常會出現(xiàn)自然因素導(dǎo)致的采集數(shù)據(jù)質(zhì)量低的情況,這就要求檢測模型具備較高的魯棒性和泛化性。為解決這一問題,對檢測數(shù)據(jù)集進(jìn)行數(shù)據(jù)增強(qiáng),采用Mixup方法模擬檢測目標(biāo)被遮擋的場景,即從訓(xùn)練集中隨機(jī)抽取兩張圖像,對像素和標(biāo)簽進(jìn)行加權(quán);此外結(jié)合任務(wù)場景采用隨機(jī)縮放、旋轉(zhuǎn)、裁剪、高斯噪聲、平移等方式進(jìn)行樣本擴(kuò)充,改善了過擬合和樣本數(shù)據(jù)量少的問題,如圖3所示。

        圖3 對樣本數(shù)據(jù)集進(jìn)行擴(kuò)充

        3 模型訓(xùn)練及結(jié)果分析

        本文實(shí)驗(yàn)所使用的軟硬件環(huán)境如表1所示。

        翻轉(zhuǎn)課堂的教學(xué)效率提高,課堂富余時間較多,使我們可以根據(jù)教學(xué)內(nèi)容多設(shè)計(jì)一些練習(xí)放到課內(nèi).作業(yè)設(shè)計(jì)一般要求在25分鐘左右,以近年來的高考真題與模擬試題為主,有一定的坡度.

        表1 實(shí)驗(yàn)算法訓(xùn)練環(huán)境配置

        本文共整理了1800張典型偵察巡邏目標(biāo)數(shù)據(jù)集,包含不同場景的行人和車輛。對原有樣本進(jìn)行增強(qiáng)后,將數(shù)據(jù)集擴(kuò)充至6500張;使用la?bellmg工具對數(shù)據(jù)集進(jìn)行標(biāo)注,并按照8:1:1的比例區(qū)分訓(xùn)練集、驗(yàn)證集、測試集進(jìn)行模型訓(xùn)練。

        3.1 模型訓(xùn)練

        模型訓(xùn)練過程:為防止過擬合和跳過最優(yōu)解,將動量因子設(shè)置為0.937,并采用隨機(jī)梯度下降法進(jìn)行參數(shù)調(diào)整。Batchsize設(shè)置為32,Epoch訓(xùn)練500輪次,初始學(xué)習(xí)率為0.01,權(quán)重衰減0.0005,Mixup的重疊系數(shù)設(shè)置為0.7。待損失函數(shù)和精度都逐漸穩(wěn)定時,得到算法最優(yōu)權(quán)重。在圖像預(yù)處理過程中,將圖像大小調(diào)整為640×640后再輸入網(wǎng)絡(luò)中進(jìn)行訓(xùn)練。

        3.2 模型評價指標(biāo)

        為了驗(yàn)證本文所提算法改進(jìn)的有效性,使用平均精度均值mAP(mean AP)和平均精度AP(Average Precision)作為衡量指標(biāo)。相關(guān)表達(dá)式如下:

        上式中:TP、FP和FN分別表示不同的意思。其中TP表示本身屬于該類目標(biāo),并且能夠被模型準(zhǔn)確檢測的實(shí)例數(shù)量;FP則表示本身不屬于該類目標(biāo),但由于模型性能不足而被誤判為該類目標(biāo)的實(shí)例數(shù)量;FN表示負(fù)樣本被錯誤檢測為正樣本的數(shù)量。AP為PR曲線積分,N為檢測種類數(shù)量,mAP表示為多類別平均精度。IOU取0.5時mAP為mAP@0.5,IOU取不同取值的mAP為mAP@0.5:0.95。

        3.3 實(shí)驗(yàn)分析

        為了驗(yàn)證本文所提模型的有效性,在數(shù)據(jù)集上進(jìn)行了訓(xùn)練和測試,訓(xùn)練結(jié)果如圖4所示。

        圖4 改進(jìn)mAP@0.5比較曲線

        從實(shí)驗(yàn)結(jié)果可以看出,本文改進(jìn)算法和原始標(biāo)準(zhǔn)算法在此數(shù)據(jù)集上都有較好的檢測性能。相較而言,本文算法在Epoch至150輪次左右時,準(zhǔn)確率上升至0.579,并最終在350輪左右時穩(wěn)定在0.675;標(biāo)準(zhǔn)YOLOv5算法訓(xùn)練迭代Epoch至180輪次左右時,準(zhǔn)確率上升到0.585,最終穩(wěn)定0.643。為了檢驗(yàn)本文算法的檢測效果,將改進(jìn)算法和原始標(biāo)準(zhǔn)算法進(jìn)行了檢測對比實(shí)驗(yàn),相關(guān)檢測結(jié)果如圖5所示。

        圖5 各算法檢測對比結(jié)果

        第一組圖像為原始標(biāo)準(zhǔn)YOLOv5網(wǎng)絡(luò)模型的檢測結(jié)果,由實(shí)驗(yàn)數(shù)據(jù)可知涉及行人、車輛,背景環(huán)境有叢林、荒漠,被檢測物體尺度大小不一,且存在部分目標(biāo)被遮擋或與背景高度相似的情況。但從結(jié)果可得,YOLOv5檢測算法用于不同場景下的典型巡邏目標(biāo)具有良好的檢測效果。

        第二組數(shù)據(jù)為本文改進(jìn)算法檢測結(jié)果。由結(jié)果可知被檢測行人目標(biāo)在復(fù)雜環(huán)境下特征表達(dá)能力得到提高,相較于原始檢測算法,模型檢測精度提高了3.25%。雖然被檢測目標(biāo)存在遮擋模糊且目標(biāo)較小的情況,但本文算法仍能以較高準(zhǔn)確率、較少的損失值,更接近于真實(shí)框。

        4 結(jié)語

        為解決在不同場景下典型偵察巡邏目標(biāo)檢測效果差,檢測效率低的問題,本文引入了基于卷積神經(jīng)網(wǎng)絡(luò)的一階段目標(biāo)檢測算法YO?LOv5。通過實(shí)驗(yàn)證明了:相較于其他檢測算法,YOLOv5能夠有較高的準(zhǔn)確性和較低的漏檢率,更適用于巡邏偵察任務(wù)。此外,本文以YOLOv5為基準(zhǔn)模型,分析應(yīng)用場景及目標(biāo)會使檢測算法存在因目標(biāo)尺度不一、背景復(fù)雜、自然天氣影響導(dǎo)致的較多漏檢誤檢問題。針對這些問題,我們?nèi)诤想p通道注意力機(jī)制模塊,使檢測模型更專注有效特征;對數(shù)據(jù)樣本進(jìn)行了增強(qiáng),增強(qiáng)了算法的魯棒性。實(shí)驗(yàn)結(jié)果表明,本文算法在多種復(fù)雜環(huán)境下的測試,具有更好的檢測以及實(shí)時性,較好降低了因目標(biāo)多樣、遮擋等情況造成的漏檢和誤檢情況。但本文算法在檢測車輛目標(biāo)時檢測精度較低,且因數(shù)據(jù)集限制,檢測精度及召回率還需提升。隨著后期研究增加和檢測樣本不斷擴(kuò)充,模型精度和泛化能力將進(jìn)一步提升。

        猜你喜歡
        注意力精度特征
        讓注意力“飛”回來
        如何表達(dá)“特征”
        不忠誠的四個特征
        基于DSPIC33F微處理器的采集精度的提高
        電子制作(2018年11期)2018-08-04 03:25:38
        抓住特征巧觀察
        “揚(yáng)眼”APP:讓注意力“變現(xiàn)”
        傳媒評論(2017年3期)2017-06-13 09:18:10
        A Beautiful Way Of Looking At Things
        GPS/GLONASS/BDS組合PPP精度分析
        改進(jìn)的Goldschmidt雙精度浮點(diǎn)除法器
        線性代數(shù)的應(yīng)用特征
        河南科技(2014年23期)2014-02-27 14:19:15
        久久久久中文字幕无码少妇| 波多野结衣av一区二区全免费观看 | 中文字幕无码无码专区| 日韩在线视频不卡一区二区三区| 亚洲av天堂在线免费观看| 激情内射亚洲一区二区三区| 3d动漫精品一区二区三区| 日韩一区二区不卡av| 91久久大香伊蕉在人线国产| 国产精品久久国产精麻豆99网站| 日本在线综合一区二区| 欧美v国产v亚洲v日韩九九| 国产va在线观看免费| 国产精品每日更新在线观看 | 在线免费观看亚洲天堂av| 国产精品熟女一区二区三区| 久久无码av一区二区三区| 精品国产看高清国产毛片| 久99久精品视频免费观看v| 蜜桃视频一区二区三区| 日韩大片高清播放器大全| 激情 人妻 制服 丝袜| 国产精品久久这里只有精品| 精品精品国产三级av在线| 激情伊人五月天久久综合| 一级免费毛片| 青青草伊人视频在线观看| 中国一级特黄真人片久久| 亚洲欧美一区二区三区| 久久99精品波多结衣一区| 亚洲中文字幕高清av| 久久久久久国产精品免费免费| 欧美三级免费网站| 日本视频一区二区这里只有精品| 精品国产天堂综合一区在线| 人妻少妇av无码一区二区| 亚洲午夜福利精品久久| 日韩在线精品免费观看| 久久精品aⅴ无码中文字字幕| 久久韩国漫画无删减漫画歪歪漫画| 丝袜美腿一区二区在线观看|