亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        圖像自尋的彈藥目標檢測方法綜述

        2022-12-01 11:52:06楊傳棟錢立志薛松陳棟凌沖
        兵工學(xué)報 2022年10期
        關(guān)鍵詞:特征提取特征檢測

        楊傳棟,錢立志,薛松,陳棟,凌沖

        (陸軍炮兵防空兵學(xué)院 高過載彈藥制導(dǎo)控制與信息感知實驗室,安徽 合肥 230031)

        0 引言

        圖像自尋的是利用裝在彈藥圖像導(dǎo)引頭上的彈載攝像機獲取目標區(qū)域圖像,經(jīng)彈載圖像處理器實時檢測并跟蹤目標進而生成彈體姿態(tài)控制指令,以控制彈藥自動命中目標的制導(dǎo)技術(shù)。圖像自尋的彈藥獲取的圖像信息直觀豐富,具備抗干擾能力強、成本低等優(yōu)勢[1],受到國內(nèi)外高度重視。2016年美國提出導(dǎo)引頭成本轉(zhuǎn)換項目,旨在開發(fā)低成本圖像制導(dǎo)彈藥[2]。在圖像導(dǎo)引頭設(shè)計中,彈載圖像目標檢測實現(xiàn)對戰(zhàn)場環(huán)境中的目標可靠實時分類和定位,是確保彈藥精確命中目標的關(guān)鍵。

        傳統(tǒng)目標檢測方法大多采取人工設(shè)計目標特征或模板匹配的方式,對不同目標設(shè)計特征的工作量大,且易受光照、噪聲、目標特征變化等因素干擾,實際應(yīng)用中魯棒性差、準確度低。2014年首次提出基于深度學(xué)習(xí)的目標檢測方法R-CNN[3]在VOC通用數(shù)據(jù)集上的平均檢測精度均值(mAP)達到66%,超出此前最優(yōu)的傳統(tǒng)目標檢測方法可形變部件模型(DPM)[4]31.7%,在應(yīng)對復(fù)雜環(huán)境下目標特征多樣性、背景多樣性問題上體現(xiàn)了更強的魯棒性和適用性。同時,結(jié)合模型壓縮加速方法設(shè)計的硬件友好型輕量化神經(jīng)網(wǎng)絡(luò)模型可部署于CPU、FPGA、ASIC等嵌入式平臺,在實時性與檢測精度上優(yōu)勢明顯,已成為自動駕駛、安防監(jiān)控、軍事等領(lǐng)域主流檢測方法[5]。在圖像制導(dǎo)類導(dǎo)彈、航空炸彈、炮彈等彈載圖像目標檢測領(lǐng)域,基于深度學(xué)習(xí)的方法得到了重視和初步應(yīng)用。2019年 美國薩維奇公司推出的小型反無人機導(dǎo)彈“SAVAGE”使用Movidius AI處理器實現(xiàn)目標檢測和跟蹤。2019年和2021年以色列拉斐爾公司研制的SPICE250精確制導(dǎo)炸彈和“Sea Breaker”巡航導(dǎo)彈使用深度學(xué)習(xí)技術(shù)提高了復(fù)雜背景下彈藥目標檢測能力。文獻[6]研究了深度學(xué)習(xí)在彈載圖像上的應(yīng)用。文獻[7]提出了一種針對彈載圖像目標檢測模型的壓縮方法。文獻[8-9]研究了目標檢測模型在彈載處理器上的部署。

        圖像自尋的彈藥獲取的彈載圖像(見圖1,其中d為彈目距離,v為彈丸飛行速度)與彈體運動高度耦合,有著顯著特點,增加了目標檢測難度。

        彈載圖像目標檢測目前具體存在以下問題:

        1)圖像制導(dǎo)彈藥成像環(huán)境惡劣,導(dǎo)致對目標檢測模型特征提取能力要求更高。受載體運動特性(彈體連續(xù)旋轉(zhuǎn)、捷聯(lián)式彈藥打舵引起的彈軸抖動)與不同天候天時(云霧、照度等)影響,進行自動曝光、白平衡、圖像糾旋、穩(wěn)像、增強[10]等處理后,彈載圖像仍會存在圖像旋轉(zhuǎn)、抖動、畸變、遮擋、像素運動模糊、噪聲干擾、目標進出視場等特征,加之目標自身運動,使目標的輪廓、紋理、角度、色彩等特征難以全面反映,需提取更準確更具表達性的圖像特征;

        2)目標尺度特性隨彈丸飛行變化大,且小目標占比高,容易造成漏檢、錯檢。在提取特征后需對用于預(yù)測的多尺度特征圖進行增強;

        3)軍事打擊任務(wù)中戰(zhàn)場背景復(fù)雜、目標種類多樣,導(dǎo)致目標數(shù)據(jù)集中樣本不均衡問題顯著,為保證目標檢測模型在多戰(zhàn)場背景、多目標、末段彈道全過程中均能實時可靠,需要對樣本進行均衡處理;

        4)彈載處理器對目標檢測模型參數(shù)量、計算量、速度要求苛刻。因彈上空間有限,彈載處理器功耗低、算力小、對內(nèi)存、數(shù)據(jù)帶寬約束強,在部署目標檢測方法時需進行輕量化設(shè)計及壓縮加速。

        對上述難點問題的解決成為提升圖像自尋的彈藥精確打擊能力的重要環(huán)節(jié)。本文回顧基于深度學(xué)習(xí)的目標檢測方法,梳理了彈載目標檢測模型部署中的關(guān)鍵技術(shù),對比了目標檢測方法在主要數(shù)據(jù)集上的性能,并對未來發(fā)展進行展望。

        1 基于深度學(xué)習(xí)的圖像目標檢測方法綜述

        基于深度學(xué)習(xí)的圖像目標檢測方法通常由目標檢測模型、模型訓(xùn)練及推理過程組成,模型包含多個處理層,使用特征提取網(wǎng)絡(luò)對輸入圖像特征自動提取,經(jīng)過特征圖增強模塊后在一個或多個預(yù)測特征圖上使用預(yù)測分支完成目標分類和坐標回歸,最后使用后處理方法剔除冗余檢測。模型結(jié)構(gòu)如圖2所示。

        1.1 目標檢測模型基本結(jié)構(gòu)

        在卷積層使用卷積核參數(shù)weightl-1∈RNkx×Nky×Nif×Nof對輸入特征圖xl-1∈RNix×Niy×Nif進行卷積操作?,實現(xiàn)特征提取得到輸出特征圖xl∈RNox×Noy×Nof(見圖3)。其中,t為卷積層數(shù),(Nky,Nkx)、s分別為卷積核大小(k表示卷積核)與步長,下標y、x表示對應(yīng)特征圖的長、寬,(Niy,Nix)、(Noy,Nox)、Nif、Nof分別為輸入和輸出特征圖長、寬及層數(shù)(通道數(shù)),f為特征圖層數(shù)。卷積核參數(shù)量為Ws=NkyNkxNifNof,計算量為Os=NkyNkxNiyNixNifNof。

        設(shè)bl為卷第l層卷積核的偏置參數(shù)。積核偏置參數(shù),對給定第l層輸入特征圖,輸出特征圖中的像素值為卷積核空間和通道區(qū)域中像素值的加權(quán)平均值,權(quán)重即為卷積核參數(shù),計算公式為

        (1)

        式中:nof、nif分別為Nof、Nif組輸出和輸入特征圖中的第of個和第if個。

        批歸一化(BN)層通常位于卷積層后,通過將卷積層的每個輸出特征圖像素做如(2)式的線性變換,能夠讓復(fù)雜網(wǎng)絡(luò)收斂加速訓(xùn)練。

        (2)

        式中:BN(x)為輸入為x時批歸一化層的輸出;γ、μ、σ、β均為訓(xùn)練完成后常數(shù);A、B為一層特征圖共用的BN層參數(shù)。但推理階段增加一層運算將影響模型速度,占用內(nèi)存。因此在部署中多將其與對應(yīng)的卷積計算融合,得到第l層卷積層融合后的權(quán)重weight′l和偏置b′l為

        (3)

        式中:Al、Bl分別為第l層的BN層參數(shù)。

        通過該方式針對Resnet50特征提取網(wǎng)絡(luò)合并后,經(jīng)測試CPU提速10%,GPU達到50%。

        激活函數(shù)通常位于卷積層和BN層后,通過引入非線性緩解神經(jīng)網(wǎng)絡(luò)過擬合問題。以不同激活函數(shù)組成6層訓(xùn)練網(wǎng)絡(luò),對cifar10圖像分類任務(wù)測試,均訓(xùn)練3個回合,每回合50 000張圖片,訓(xùn)練運行時間和達到精度見圖3。其中修正線性單元(ReLU)函數(shù)將正值保留,負值設(shè)為0,即ReLU(x)=max(x,0),能加速網(wǎng)絡(luò)訓(xùn)練速度,達到較高的精度,同時計算效率高,適合硬件部署。不同激活函數(shù)對比結(jié)果如圖4所示。

        池化層對特征圖進行降采樣,無需權(quán)重參數(shù),起到降低特征圖大小,減低計算量的作用,且對于平移、旋轉(zhuǎn)、伸縮等具有良好的魯棒性。主要有最大值池化和平均池化,其中最大值池化對局部區(qū)域返回最大值,易于硬件實現(xiàn)。

        目標檢測模型在訓(xùn)練階段使用反向傳播算法在大規(guī)模數(shù)據(jù)集上對模型參數(shù)進行學(xué)習(xí),以適應(yīng)目標和環(huán)境的各類變化;在推理階段通過一次加載前期訓(xùn)練好的模型參數(shù),模型可實時輸出針對輸入圖像序列的預(yù)測結(jié)果。根據(jù)在提取預(yù)測特征后是否基于預(yù)設(shè)候選框進行檢測,目標檢測模型可分為基于候選框和無候選框的目標檢測模型。

        1.2 基于候選框的目標檢測模型

        針對在預(yù)測特征圖上直接預(yù)測坐標面臨訓(xùn)練難以收斂問題,基于候選框的目標檢測模型根據(jù)數(shù)據(jù)集統(tǒng)計特性,在預(yù)測特征圖上人工預(yù)設(shè)不同尺度和長寬比的候選框(px,py,pw,ph),作為可能出現(xiàn)目標的區(qū)域參考,如圖5所示。

        在訓(xùn)練階段學(xué)習(xí)候選框與真值框的坐標偏移關(guān)系,在推理階段加載訓(xùn)練得到的參數(shù),得到N個預(yù)測候選框偏移量后,通過線性變換得到預(yù)測框坐標

        (4)

        根據(jù)在目標檢測過程中是否首先進行前景和背景候選框初步篩選,可分為基于區(qū)域建議網(wǎng)絡(luò)(RPN)的兩階段方法和基于密集檢測的單階段方法。

        1.2.1 兩階段方法

        兩階段方法首先使用區(qū)域建議網(wǎng)絡(luò)初步篩選前景和背景候選框,得到稀疏的正樣本,然后在稀疏正樣本中進行目標類別概率預(yù)測和坐標微調(diào)。2015年Ren提出的Faster R-卷積神經(jīng)網(wǎng)絡(luò)(CNN)[11]是第一個實現(xiàn)端到端訓(xùn)練和檢測的兩階段方法,模型框架如圖6所示。

        候選區(qū)域網(wǎng)絡(luò)使用前景概率排序和非極大值抑制(NMS)兩次篩選,提取N個前景概率最高的候選框(pxi,pyi,pwi,phi),i=1,2,…,N,作為正樣本輸出,克服了利用傳統(tǒng)候選框提取方法帶來的大量計算消耗,同時改進了候選區(qū)域的質(zhì)量。而后感興趣區(qū)域池化層將N個候選框映射到特征圖中,并采樣成固定尺寸。最后通過兩個全連接層對ROI池化層輸出特征降維到4 096,分別輸入由兩個全連接層組成的預(yù)測分支,得到目標類別概率和位置坐標。由于分兩階段進行檢測存在運行速度慢的缺點,檢測速度為4.5幀/s;相關(guān)改進算法提高了檢測速度,但區(qū)域建議網(wǎng)絡(luò)帶來的內(nèi)存消耗無法忽略,因此兩階段方法不適合彈載處理器的部署。

        1.2.2 單階段方法

        單階段方法將目標檢測過程簡化成端到端回歸問題,利用CNN提取特征并通過均勻地在預(yù)測特征圖上的不同位置進行密集抽樣,使用卷積層替代全連接層,對得到的候選框直接進行分類與回歸。因為沒有使用區(qū)域建議網(wǎng)絡(luò)提取正樣本,而是通過增加置信度預(yù)測判斷該候選框是前景或是背景,所以目標檢測速度得到極大提高,更加適合彈載處理器的部署。代表方法有YOLO、SSD等。

        2016年Liu等[12]提出的SSD算法使用候選框的方法并在多分辨率特征圖上進行多尺度預(yù)測,針對不同尺度特征圖對候選框尺寸和長寬比進行了設(shè)計,在保證單階段方法速度優(yōu)勢的同時提高了定位精度:

        (5)

        2017年Redmod等[13]提出YOLOv2方法。該方法使用k-Means算法對訓(xùn)練集進行聚類得到候選框尺寸,并利用Sigmoid激活函數(shù)σ將偏移量預(yù)測值約束在[0,1]范圍,即每個候選框僅負責(zé)當(dāng)前網(wǎng)格處的目標,并在輸入層和卷積層后增加BN層對數(shù)據(jù)進行歸一化處理,提高了訓(xùn)練收斂速度和模型泛化能力。在檢測特征圖選擇上將大尺度特征圖重組合后與小尺度特征圖合并,提高了小目標檢測效果。2018年,Redmod等[14]優(yōu)化了YOLOv2方法。該方法借鑒特征金字塔FPN方法,使用上采樣和融合的方式在3個尺度特征圖上進行檢測,并且每個通道設(shè)置3個候選框,在保持實時性的同時提高了目標檢測效果。文獻[15]通過加入SPP模塊提高感受野,并使用PANet[16]使預(yù)測特征圖具有更豐富的特征信息等,在訓(xùn)練過程中使用了改進位置損失、數(shù)據(jù)增強、類別標簽平滑等訓(xùn)練策略,實現(xiàn)了同等速度下更優(yōu)的檢測效果。2020年,美國Ultralytics LLC公司開源了新的目標檢測網(wǎng)絡(luò)框架并命名為YOLOv5,通過融合多種改進手段使算法性能進一步提升,在工業(yè)界得到廣泛應(yīng)用。

        文獻[17]指出單階段方法精度低的根本原因在于,單階段方法產(chǎn)生過量的背景類候選框,引起類別不平衡。通過設(shè)計新的損失函數(shù),在訓(xùn)練過程中能有效削弱背景候選框的損失值,進而提高檢測精度,在VOC2007數(shù)據(jù)集上檢測精度達到75.1%,速度達到58幀/s。

        單階段方法速度快、適用性好、易于部署,因此在彈載目標檢測中得到廣泛應(yīng)用。

        1.3 無候選框的目標檢測模型

        基于候選框的檢測算法是目標檢測領(lǐng)域的主流方法,但也有其局限性,例如:預(yù)設(shè)候選框大小、寬高比和數(shù)量等超參數(shù)通常需人工設(shè)置,難以包含形狀特殊的目標;對數(shù)據(jù)集敏感,換用場景需要調(diào)節(jié)候選框參數(shù);通過密集采樣方式得到數(shù)量眾多的候選框,交并比(IoU)計算及后處理篩選計算冗余和內(nèi)存開銷大;大多數(shù)候選框為負樣本,在訓(xùn)練過程中大量負樣本會造成正負樣本比例失衡。近年來,為解決上述問題,候選框的檢測模型被提出,該類模型可分為基于錨點的方法和基于關(guān)鍵點的方法。

        1.3.1 基于錨點的方法

        基于錨點的方法將預(yù)測特征圖上的每個像素點作為錨點,通常使用錨點到邊界的距離表示預(yù)測框。

        2015年提出的YOLO[18]、DenseBox[19]是最早無候選框的方法之一。YOLO方法將預(yù)測特征圖劃分為s×s網(wǎng)格,將每個網(wǎng)格中心作為錨點,每個錨點處預(yù)測向量包含2組預(yù)測框坐標、目標置信度和C類目標的概率,其中預(yù)測框坐標用網(wǎng)格中心點坐標和預(yù)測框長寬表示,目標置信度表示預(yù)測框是目標的概率。YOLO模型框架如圖7所示。

        DenseBox方法將預(yù)測特征圖上的每個像素點作為錨點,錨點處的輸出預(yù)測向量包含4個坐標值和單類目標概率,為5維,最后均使用NMS篩選預(yù)測框。但該類方法難以應(yīng)對重疊的邊界框,且查全率較低。

        2019年Tian等[20]提出FCOS方法。該方法以預(yù)測特征圖上像素點為錨點,輸出預(yù)測向量包含C類目標分類概率、中心度分數(shù)及該錨點到邊界框4條邊的距離(l*,r*,t*,b*),通過增加中心度分數(shù)預(yù)測分支并使用交叉熵損失訓(xùn)練,抑制了距離目標中心較遠的預(yù)測框。中心度分數(shù)計算公式為

        (6)

        通過在不同尺度的預(yù)測特征圖上預(yù)測特定大小范圍的目標,解決了真實邊框重疊帶來的模糊性和低召回率。

        同年,文獻[21]在高分辨率預(yù)測特征圖上將每個像素點作為錨點,輸出預(yù)測向量維度為C類目標的熱圖、中心點坐標、修正量??紤]到中心點附近點為難樣本,為加速訓(xùn)練收斂,通常在訓(xùn)練中將中心點真值(x,y)映射到熱圖中的某一高斯散射核區(qū)域Yxyc內(nèi):

        (7)

        式中:σx、σy為二維高斯核半徑參數(shù)。在推理階段取消NMS,對每類熱圖篩選前100個局部峰值點作為輸出目標,減少了后處理的時間消耗,在精度上與RetinaNet方法相近并達到了實時。

        1.3.2 基于關(guān)鍵點的方法

        基于關(guān)鍵點的方法通過預(yù)測目標角點、中心點或極點,對關(guān)鍵點分組構(gòu)成預(yù)測框。2018年Law等[22]提出CornerNet方法。該方法使用人體姿態(tài)估計中常用的沙漏網(wǎng)絡(luò)Hourglass作為特征提取網(wǎng)絡(luò)提取高分辨率的預(yù)測特征圖,而后用兩個檢測模塊分別預(yù)測左上和右下角點,輸出類位置熱圖、嵌入向量和取整修正量,最后對兩組角點篩選、分組并修正位置?;谕繕私屈c的嵌入向量接近、不同目標角點的嵌入向量遠離的先驗原則進行訓(xùn)練,損失函數(shù)設(shè)計為

        (8)

        式中:N為訓(xùn)練樣本數(shù)量;ec為第c個角點所對應(yīng)的嵌入向量etc、ebc的平均值。該方法缺點是難以達到實時,且角點匹配時容易產(chǎn)生分組錯誤,導(dǎo)致定位不夠準確,錯檢率高。文獻[23]、文獻[24]分別從中心點約束與角點匹配原則方面進行改進,提高了檢測精度,但均無法達到實時。文獻[25]提出一種輕量化特征提取網(wǎng)絡(luò)的方法。針對使用角點檢測缺乏外觀特征的問題,2019年Zhou等[26]提出ExtremeNet方法,使用沙漏網(wǎng)絡(luò)對目標5個關(guān)鍵點(4個極值點和1個中心點)進行檢測,但該方法對大目標中心點響應(yīng)不夠準確,容易造成漏檢且效率較低。

        基于關(guān)鍵點的檢測方法依賴于復(fù)雜的特征提取網(wǎng)絡(luò)和高分辨率的預(yù)測特征圖,需要更大的內(nèi)存成本和計算量,速度較低,因此不利于彈載處理器部署?;阱^點的檢測方法可以使用更簡單的特征提取網(wǎng)絡(luò),速度更快,但在對打擊過程中可能出現(xiàn)的密集目標和彈道末端大尺度目標檢測效果較差,影響打擊精度。

        1.4 基于Transformer的目標檢測模型

        2017年美國谷歌公司首次提出了一種基于編解碼器的序列預(yù)測結(jié)構(gòu)Transformer,并應(yīng)用于機器翻譯任務(wù),改進了循環(huán)神經(jīng)網(wǎng)絡(luò)訓(xùn)練慢、全局語義考慮不足的缺點,在編碼器和解碼器中利用自注意力層能夠獲得更豐富的全局語義信息。自注意力層包括查詢矩陣Wqry∈RDm×Dk、關(guān)鍵詞矩陣Wkey∈RDm×Dk、值矩陣Wval∈RDin×Dout3個需要訓(xùn)練學(xué)習(xí)的共享參數(shù),輸入為X∈RT×DmT個Din維的像素序列,其中Din為特征圖長乘寬。則自注意力層輸出可以表示為

        (9)

        式中:softmax函數(shù)將輸入歸一化為概率分布。

        2020年美國Facebook公司[27]首次將transformer結(jié)構(gòu)應(yīng)用到目標檢測領(lǐng)域,提出DETR目標檢測模型,成為近兩年熱點方向。該模型首先使用CNN提取特征,融合位置消息后將特征展開為X∈RT×Dm的序列,送入transformer的編碼器中得到T個物體編碼序列。非自回歸解碼器以編碼器輸入和N個目標序列為輸入,并行解碼得到N個目標序列,經(jīng)過全連接層直接輸出N個預(yù)測結(jié)果。文獻[28]使用基于transformer的特征提取網(wǎng)絡(luò)并借鑒DETR方法輸出檢測結(jié)果,提出一種基于全transformer結(jié)構(gòu)的目標檢測方法YOLOS。2021年文獻[29]采用Swin-Transformer[30]模型作為特征提取網(wǎng)絡(luò),并提出一種多注意力感知結(jié)合的預(yù)測分支,在COCO數(shù)據(jù)集上取得了最高的mAP。該類方法對于超大規(guī)模數(shù)據(jù)集有更好的性能,但計算開銷更大,經(jīng)輕量化后在效果上不具備明顯優(yōu)勢,距離模型實際部署應(yīng)用仍有待發(fā)展和驗證。

        綜上,通用目標檢測模型中基于候選框的單階段方法和基于錨點的方法更適用于彈載處理器平臺的目標檢測模型部署。

        2 彈載目標檢測模型部署中的關(guān)鍵技術(shù)

        為實現(xiàn)目標檢測方法在彈載處理器上部署并提高應(yīng)用效果,當(dāng)前可從特征提取網(wǎng)絡(luò)設(shè)計、預(yù)測特征圖增強模塊設(shè)計、訓(xùn)練中樣本均衡、NMS后處理算法設(shè)計及模型壓縮5個方面入手。

        2.1 特征提取網(wǎng)絡(luò)設(shè)計

        2.1.1 典型特征提取網(wǎng)絡(luò)設(shè)計

        目標檢測模型的特征提取網(wǎng)絡(luò)計算量通常超過模型總計算量的60%,因此特征提取網(wǎng)絡(luò)設(shè)計選擇決定了彈載目標檢測模型的基準性能,影響著模型對復(fù)雜背景的戰(zhàn)場環(huán)境和對多類目標特征的提取能力。2012年文獻[31]使用5×5、7×7大卷積核及5層卷積層構(gòu)成特征提取網(wǎng)絡(luò)AlexNet,在圖像分類領(lǐng)域達到超越人的表現(xiàn),表明了基于深度學(xué)習(xí)的方法在特征提取上的巨大優(yōu)勢。2014年文獻[32]從增加網(wǎng)絡(luò)深度的角度提出了卷積塊概念,將多個小卷積核卷積層堆疊組成卷積塊,設(shè)計了VGG結(jié)構(gòu),提高了特征提取能力和泛化能力。2014年Szegedy等[33]從增加網(wǎng)絡(luò)寬度角度提出由多個小尺寸卷積核構(gòu)成增寬的Inception卷積塊,并指出小卷積核組合能夠保持感受野并降低參數(shù)量,因此3×3和1×1小卷積核級聯(lián)被當(dāng)前大多數(shù)網(wǎng)絡(luò)[34]采用。通常隨著網(wǎng)絡(luò)加深特征圖包含的圖像信息會減少,為解決深度神經(jīng)網(wǎng)絡(luò)帶來的梯度爆炸和梯度消失問題,2015年He等[33]提出包含殘差模塊的特征提取網(wǎng)絡(luò)ResNet,該網(wǎng)絡(luò)中任意兩層之間的函數(shù)關(guān)系可由連續(xù)兩層公式通過遞歸關(guān)系得到:

        (10)

        式中:xL為殘差模塊的輸出層;F表示殘差模塊中處理層的集合,跳躍連接保證了第L層網(wǎng)絡(luò)一定比淺層第l層包含了更多圖像信息。由(11)式梯度計算公式可以看到梯度不會消失,跳躍連接成為后續(xù)更深網(wǎng)絡(luò)設(shè)計中通用的方法[36]。

        (11)

        式中:ε為網(wǎng)絡(luò)的輸出。

        特征融合是提高特征提取能力的有效手段。Huang等[37]提出DenseNet網(wǎng)絡(luò)結(jié)構(gòu),該結(jié)構(gòu)通過密集連接進行特征融合,獲得了更高的精度,但由于每層都聚合前面層的特征導(dǎo)致存在信息冗余,造成高內(nèi)存訪問成本和能耗。2018年,針對DenseNet的特征復(fù)用冗余,文獻[38]提出一種由可學(xué)習(xí)分組卷積組成的CondenseNet結(jié)構(gòu)來裁剪掉冗余連接。2019年Lee等[39]提出OSA模塊,該模塊最后一層聚合前面所有層的特征,緩解了密集連接帶來的信息冗余問題。2021年文獻[40]通過稀疏特征重激活的方式設(shè)計了CondenseNetV2結(jié)構(gòu),對冗余特征同時進行裁剪和更新,有效提升了密集連接網(wǎng)絡(luò)的特征復(fù)用效率。

        加入注意力機制的卷積模塊是提高特征提取能力的一個有效方向。通過設(shè)計一系列神經(jīng)網(wǎng)絡(luò)層操作,可以使網(wǎng)絡(luò)關(guān)注重要信息,抑制無關(guān)信息。2017年Hu等[41]提出SE模塊在通道維度進行注意力生成,在訓(xùn)練中根據(jù)每個通道特征的重要程度和關(guān)聯(lián)程度進行加權(quán),提高特征表征能力。SE模塊可嵌入到通用特征提取網(wǎng)絡(luò)模塊中,也可嵌入在輕量化網(wǎng)絡(luò)中,能以較小的計算成本達到較大的精度提升。

        2018年文獻[42]提出一種同時在通道和空間兩個維度使用注意力機制的特征增強結(jié)構(gòu)CBAM,該結(jié)構(gòu)使用平均池化AvgPool()和最大值池化MaxPool()提升了關(guān)鍵區(qū)域的特征表達,可表示為

        (12)

        式中:mlp為共享卷積層;Mc、Ms分別為通道、空間注意力增強操作;Xl為經(jīng)過注意力機制增強的特征圖。圖8所示為利用Grad-CAM[43]方法對使用CBAM的YOLOv4檢測方法的特征圖特征可視化,其中圖8(a)為彈目距離5 km處的艦船目標圖像。

        對比圖8(b)、圖8(c)可知,增加了CBAM注意力機制的特征提取網(wǎng)絡(luò)對海雜波環(huán)境下的彈載圖像目標特征定位更加敏感,進而可提高檢測方法的準確性。

        2.1.2 特征提取網(wǎng)絡(luò)輕量化設(shè)計

        針對深度特征提取網(wǎng)絡(luò)在部署于彈載處理器等嵌入式設(shè)備上面臨硬件存儲空間不足、功耗高、復(fù)雜的計算單元延遲長、在硬件上支持不足等實際問題,對特征提取網(wǎng)絡(luò)進行輕量化設(shè)計是當(dāng)前主要的解決方法。

        2016年文獻[44]設(shè)計了Fire卷積塊,該結(jié)構(gòu)使用多個1×1卷積核替代3×3卷積核,并通過多個Fire卷積塊結(jié)合跳躍連接構(gòu)建了SqueezeNet網(wǎng)絡(luò)結(jié)構(gòu),降低了所需內(nèi)存帶寬并能保持較高的精度。2016年文獻[45]提出深度可分離卷積模塊,將卷積操作分解為分別學(xué)習(xí)空間特征和通道特征的深度卷積和逐點卷積,縮減了參數(shù)量和每秒浮點數(shù)計算量(FLOPs),并引入通道和輸入尺寸壓縮比作為超參數(shù),進一步控制模型大小。2017年Howard等[34]將其應(yīng)用于MobileNet,取得了良好的效果。為彌補精度的下降,2018年Sandler等[46]在MobileNet基礎(chǔ)上提出MobileNetv2網(wǎng)絡(luò)結(jié)構(gòu)。該網(wǎng)絡(luò)在深度卷積操作前增加一層逐點卷積升維以在更高維度提取特征;隨后使用逐點卷積降維,并去掉了第2個逐點卷積后的激活函數(shù)以保持低維特征;最后增加跳躍連接,提高了網(wǎng)絡(luò)的特征表征能力。但該網(wǎng)絡(luò)結(jié)構(gòu)中過多的逐點卷積會增加額外的內(nèi)存讀取,降低了并行計算效率。

        2017年Zhang等[47]提出ShuffleNet網(wǎng)絡(luò)結(jié)構(gòu),其卷積塊由逐點分組卷積結(jié)合深度卷積組成,并在特征通道維度隨機打亂各組特征圖彌補信息交流,參數(shù)量相對原始卷積操作可縮減組數(shù)倍。2018年Ma等[48]進一步改進了ShuffeNet,提出ShuffleNetv2網(wǎng)絡(luò)結(jié)構(gòu),該結(jié)構(gòu)首先在通道維度上將輸入特征圖拆分成兩個分支,使用逐點卷積代替組卷積,用級聯(lián)操作合并特征圖,保持卷積塊輸入輸出特征維度相同,可獲得更低的計算量。2020年Han等[49]設(shè)計了Ghost模塊[49],該模塊采用逐點卷積縮減輸出特征圖通道數(shù),然后利用深度卷積模擬線性操作,生成具有相似信息的中間特征圖,能成倍縮小計算量。使用該模塊替換MobileNetv3[50]網(wǎng)絡(luò)中的基本模塊獲得了更優(yōu)性能。2021年文獻[51]對逐點卷積和深度卷積進行低秩近似減少輸入輸出的連接數(shù),并使用動態(tài)最大偏移函數(shù)作為激活函數(shù),設(shè)計得到的MicroNet網(wǎng)絡(luò)彌補了網(wǎng)絡(luò)深度減少帶來的性能降低。部分輕量化網(wǎng)絡(luò)基本模塊如圖9所示,其中DWConv表示深度卷積操作。

        手工設(shè)計高效模塊和網(wǎng)絡(luò)架構(gòu)屬于高維空間的最優(yōu)參數(shù)搜索問題,可選擇的設(shè)計數(shù)量增加會加大輕量化網(wǎng)絡(luò)最優(yōu)化設(shè)計的難度。近年來神經(jīng)架構(gòu)搜索(NAS)成為解決設(shè)計難題的一個解決方案。該方法依托大規(guī)模GPU資源,通過在定義的搜索空間內(nèi)使用一定的搜索策略找出候選網(wǎng)絡(luò)結(jié)構(gòu)并評估,得到最優(yōu)的網(wǎng)絡(luò)結(jié)構(gòu)。2018年文獻[52]通過強化學(xué)習(xí)在500塊GPU上搜索得到NASNet網(wǎng)絡(luò)結(jié)構(gòu),但該結(jié)構(gòu)分支碎片化,不利于硬件部署。2019年Wu等[53]基于可微神經(jīng)網(wǎng)絡(luò)搜索方法,在人工設(shè)計好的22層網(wǎng)絡(luò)和9種候選卷積塊組成的搜索空間內(nèi)進行快速搜索,得到FBNet。2020年Wan等[54]針對FBNet搜索空間相對較小問題,提出DMaskingNAS方法,將通道數(shù)和輸入分辨率分別以掩模和采樣的方式加入到搜索空間中,在減少內(nèi)存和計算量同時大幅增大搜索空間。2021年文獻[55]將訓(xùn)練參數(shù)加入搜索空間,搜索得到FBNetV3網(wǎng)絡(luò)結(jié)構(gòu),提高了精度。

        2.2 預(yù)測特征圖增強模塊設(shè)計

        相比于車載、機載圖像目標,彈載圖像目標在彈道末端尺度變化最為劇烈,是影響彈載目標檢測效果的主要因素。以長20 m×寬10 m的面目標為例,彈丸以固定下滑角和視場角對目標區(qū)域成像,圖像分辨率為1 280×1 024,統(tǒng)計彈丸彈道末端圖像目標在長度方向上的像素數(shù)隨彈目距離的變化和當(dāng)前幀相對兩幀前目標尺度的變化率,如圖10所示。

        由圖10可以看到,目標圖像在4~1.5 km范圍內(nèi)時,當(dāng)前幀相對前一幀的尺度變化率不大,以弱小目標特征為主,當(dāng)進入1.5 km范圍內(nèi),尺度變化率快速增加,直至圖像目標充滿整個視場。

        對于此問題,從預(yù)測特征圖增強角度有針對性地提高彈載圖像目標檢測效果。最初檢測方法如YOLO、Faster-RCNN僅使用特征提取網(wǎng)絡(luò)得到的單層卷積特征作為預(yù)測特征圖進行預(yù)測,如圖11(a)所示。

        由于深層特征圖尺度小、感受野大,缺乏小目標特征,造成小目標檢測效果差。SSD方法針對不同尺度的目標設(shè)置不同大小的候選框,在多層特征圖上檢測,如圖11(b)所示。但采用該方法時預(yù)測特征圖之間缺乏信息融合,效果提升有限。

        目前通常有3類增強模塊設(shè)計增強預(yù)測特征圖,一是采用在特征提取網(wǎng)絡(luò)之后加入特征融合及連接模塊增強特征,獲取適應(yīng)不同尺度目標的預(yù)測特征圖;二是使用注意力機制進行融合;三是通過增加視覺感受野提高小目標檢測能力。

        借鑒傳統(tǒng)特征提取算法中圖像金字塔的思想,文獻[56]提出了自上而下的特征融合金字塔結(jié)構(gòu)FPN。高層特征圖上采樣后與相同尺寸的低層特征圖使用像素加法進行特征融合,為消除混疊效應(yīng)使用3×3卷積處理,得到同時包含局部信息和全局信息的預(yù)測層,有效提高了小目標效果。YOLOv3、RetinaNet方法均使用了自下而上的特征融合方式。針對FPN可能導(dǎo)致出現(xiàn)重復(fù)的預(yù)測問題,文獻[16]提出路徑聚合網(wǎng)絡(luò)PANet作為預(yù)測特征圖增加模塊,在FPN融合特征基礎(chǔ)上加入自下而上的雙向融合,提高了多尺度目標的檢測精度,如圖12所示。

        文獻[57]在FPN模塊中重復(fù)使用一個有效的卷積塊,進行復(fù)雜的雙向特征圖融合,提出BiFPN結(jié)構(gòu),如圖13所示。文獻[58]通過NAS方法搜索得到更為復(fù)雜的NAS-FPN預(yù)測特張圖增強模塊,但過于復(fù)雜的融合方式會增大內(nèi)存占用,不利于網(wǎng)絡(luò)輕量化。

        在預(yù)測特征圖中增加注意力機制能夠提高檢測效果。Liu等[59]在YOLOv3方法基礎(chǔ)上采用了注意力機制,將3層不同分辨率的預(yù)測特征圖按權(quán)重融合,設(shè)計了ASFF預(yù)測特征圖增強模塊,如圖14所示。文獻[60]同時使用特征融合和注意力機制增強預(yù)測特征圖特征,在輕量化同時提高了精度。Dynamic Head方法[30]使用3個級聯(lián)注意力機制分別提高預(yù)測特征圖尺度感知、空間感知、任務(wù)感知能力。

        通過增加感受野的方式可以增強預(yù)測特征信息。感受野通常與卷積卷積核大小、空洞卷積大小有關(guān)。Liu等[61]模擬人類視覺感知模式提出RFB模塊,并應(yīng)用于SSD目標檢測方法。該模塊使用不同大小的卷積核分支得到多尺度感受野,隨后使用不同大小的空洞卷積模擬感受野尺度和離心率的關(guān)系,能夠增強預(yù)測特征圖對不同尺度目標的表征能力,有效提升目標檢測方法的性能。2019年Li等[62]提出TridentNet預(yù)測特征圖增強方法,使用3個不同大小的空洞卷積,生成感受野大小不同的預(yù)測分支,分別負責(zé)檢測大中小三類不同尺度目標,如圖15所示。

        文獻[63]使用不同擴展率的多路徑擴張卷積層組成語義提取模塊AC-FPN,從不同的感受野中捕獲豐富的上下文信息,通過密集連接融合多個感受野的信息,解決了特征圖分辨率和感受野之間的矛盾以及多尺寸感受野之間缺乏有效交互的問題。文獻[64]提出一種具有不同空洞卷積大小的空洞編碼模塊作為預(yù)測特征圖增強模塊,通過該模塊實現(xiàn)了在單尺度預(yù)測特征圖上的感受野覆蓋,與使用多尺度預(yù)測特征圖的目標檢測方法具備同樣的檢測精度,且具有更快的速度和更低的內(nèi)存占用。

        2.3 訓(xùn)練中樣本均衡方法

        彈載圖像數(shù)據(jù)訓(xùn)練中的樣本不均衡問題是影響模型效果的重要因素。樣本不均衡問題一是正樣本和負樣本不均衡,二是難樣本和易樣本不均衡,三是不同類樣本不均衡。以艦船目標為例,圖16中真值為艦船目標區(qū)域,通常將與真值IoU小于閾值的區(qū)域視為負樣本。一幀圖像中負樣本數(shù)量占據(jù)大多數(shù),如果大量負樣本參與訓(xùn)練會造成正樣本損失湮滅,使模型失效;在訓(xùn)練過程中難樣本為被錯誤預(yù)測的樣本,數(shù)量相對少,模型難以專注對難樣本學(xué)習(xí);同時,戰(zhàn)場環(huán)境中某些類別目標出現(xiàn)概率低、樣本數(shù)量少,會導(dǎo)致該類預(yù)測準確性差的問題。可從改進訓(xùn)練樣本采樣方法、調(diào)整損失函數(shù)中樣本的權(quán)重及通過研究樣本之間的關(guān)系三個方面解決訓(xùn)練樣本不均衡問題。

        Shrivastava等[65]提出OHEM算法,對每張圖片的感興趣區(qū)域損失進行排序,篩選出損失較大的部分樣本作為難樣本,并對其重新訓(xùn)練,但該方法對噪聲標簽敏感。Cao等[66]提出了一種簡單而有效的采樣策略,首先對樣本進行分組并依次抽取組內(nèi)IoU最高的樣本,得到不同的等級,然后通過重新加權(quán)方式將學(xué)習(xí)的焦點集中在具有高等級的優(yōu)質(zhì)樣本上。Zhang等[67]提出根據(jù)真值的相關(guān)統(tǒng)計特征自適應(yīng)選擇正負樣本的方法ATSS,在不帶來額外計算量和參數(shù)的情況下將FCOS的精度提高到與RetinaNet相同的水平。文獻[64]針對不同尺度正樣本選擇不均衡的問題提出一種均衡匹配策略,使得各個尺度的正樣本在訓(xùn)練中做出同等貢獻,有利于在全尺度預(yù)測上保持結(jié)果一致性。

        Lin等[17]提出Focal Loss損失函數(shù),通過引入兩個加權(quán)因子解決正負樣本不均衡和難易樣本不均衡問題,但是兩個參數(shù)需要根據(jù)數(shù)據(jù)集調(diào)整。Li等[68]提出了一種梯度協(xié)調(diào)機制GHM,把訓(xùn)練過程中存在類別中難易樣本的不平衡歸結(jié)為梯度分布不平衡,通過增加有效難樣本的梯度達到提高訓(xùn)練的有效性和穩(wěn)定性的目的。針對訓(xùn)練和推理階段正負樣本預(yù)測策略不一致和預(yù)測框分布離散的問題,文獻[69]提出廣義焦點損失GFL:

        (13)

        Chen等[70]提出模擬樣本關(guān)系的排序損失作為目標損失,來解決樣本類不平衡問題。Chen等[71]提出完全基于學(xué)習(xí)的殘差機制,將多分類的不平衡轉(zhuǎn)移到目標類相關(guān)模塊,在模塊之間建立殘差連接,用激活函數(shù)計算更新目標分數(shù),通過連續(xù)細化的過程逐步解決樣本不平衡問題。

        2.4 NMS后處理算法設(shè)計

        目標檢測模型的預(yù)測結(jié)果通常包含大量冗余重疊的預(yù)測邊界框,需要NMS后處理方法進行篩除。NMS流程如圖17所示。

        針對原始NMS僅依靠單一經(jīng)驗閾值篩選導(dǎo)致漏檢、使用分類置信度排序并未關(guān)聯(lián)定位準確度等問題,2017年文獻[72]提出的Soft-NMS算法對分類置信度加權(quán)衰減后再進行篩選,在兩階段方法上能更好地改善漏檢問題。2018年文獻[73]提出IoU-Guided NMS算法,該算法在網(wǎng)絡(luò)預(yù)測分支增加定位置信度預(yù)測分支,將預(yù)測框和真值間的IoU作為定位置信度替代分類置信度作為篩選閾值。2019年文獻[74]提出一種自適應(yīng)NMS算法,該算法根據(jù)密集預(yù)測模塊得到的目標密集度可自適應(yīng)選擇閾值大小。2020年文獻[75]將定位置信度與分類置信度相乘作為篩選閾值,在增加少量計算量下提高了精度。2020年文獻[76]指出相鄰預(yù)測候選框中心距離越靠近,則越有可能為冗余框,因此在閾值篩選中增加了中心距離先驗,提高了檢測精度。

        上述提升精度的方法均為順序處理的方式,運算效率較低。而對于彈載處理器等嵌入式設(shè)備后處理時間不可忽略,因此需要針對NMS進行加速。文獻[77]提出Fast NMS算法,針對NMS在IoU計算和順序迭代抑制造成低效問題,按置信度降序排列N個預(yù)測候選框集合B=[B1,B2,…,BN],計算與自身上三角化的IoU矩陣:

        (14)

        按列取最大后使用NMS閾值篩選可一次得到全部計算結(jié)果,并可與提升精度的方法相結(jié)合,但是取最大值的過程會允許冗余框錯誤抑制其他框而導(dǎo)致漏檢。文獻[78]提出Cluster NMS算法,通過更少的迭代計算使Fast NMS保持與NMS相同的精度,能夠并行處理聚類的預(yù)測候選框,最大迭代次數(shù)僅為擁有最多預(yù)測候選框的類的迭代次數(shù),并可以融合得分懲罰機制、中心點距離約束及加權(quán)平均方法,進一步提高篩選精度。近年來出現(xiàn)了無NMS的方法[21],該類方法通過樣本匹配策略可得到少量的預(yù)測框[27],但存在不夠穩(wěn)定的缺點。因此對于彈載目標檢測方法使用NMS算法仍有較大實用價值。

        2.5 模型壓縮方法

        當(dāng)前通用的目標檢測算法通?;贕PU高算力平臺進行訓(xùn)練,受限于彈載處理器體積、功耗、算力制約,在推理端對算法體積速度要求苛刻。不進行壓縮加速的高精度浮點計算神經(jīng)網(wǎng)絡(luò)模型占存儲空間大、計算量高、數(shù)據(jù)傳輸帶寬要求高,難以在彈載處理器上直接使用。

        當(dāng)前彈載圖像處理器通常使用基于CPU+AI芯片的異構(gòu)處理器[8],CPU主要完成處理器初始化、數(shù)據(jù)調(diào)度等控制功能和NMS等后處理,利用AI芯片提供的AI指令集編譯器能夠快速部署加速后的目標檢測算法,實現(xiàn)卷積神經(jīng)網(wǎng)絡(luò)的加速計算。結(jié)合面向深度學(xué)習(xí)的彈載處理器平臺對算法進行針對性壓縮設(shè)計,可實現(xiàn)低內(nèi)存帶寬、低功耗、低計算資源占用以及低模型存儲等。

        從壓縮參數(shù)和壓縮結(jié)構(gòu)兩個角度可以將壓縮方法分成表1所示7類。

        表1 模型壓縮方法分類

        隨著神經(jīng)網(wǎng)絡(luò)模型壓縮方法的發(fā)展,已經(jīng)孕育出一系列承載最新成果的壓縮方法工具包,表2列舉了一些常用的壓縮方法工具包。其中,Distiller、Pocketflow、PaddleSlim均提供多種參數(shù)剪枝、量化、知識蒸餾方法的支持,并且提供自動化模型壓縮算法AMC[79]的實現(xiàn)。

        表2 壓縮方法工具包

        3 典型方法性能對比

        ImageNet是當(dāng)前用于預(yù)訓(xùn)練特征提取網(wǎng)絡(luò)的大規(guī)模圖像分類數(shù)據(jù)集。特征提取網(wǎng)絡(luò)在該數(shù)據(jù)集上的Top1分類精度能夠表征其特征提取能力的高低。將特征提取網(wǎng)絡(luò)區(qū)分為基于手工設(shè)計和通過NAS方法自動搜索得到的特征提取網(wǎng)絡(luò),匯總典型特征提取網(wǎng)絡(luò)在ImageNet圖像分類數(shù)據(jù)集上的Top1分類精度、模型參數(shù)量和乘加累積操作數(shù)(MACS),性能對比如圖18 所示。

        由圖18可以看到,傳統(tǒng)特征提取網(wǎng)絡(luò)模型如ResNet、DenseNet等參數(shù)量通常大于30 MB,MACs在30億次以上,具備相對較高的精度,但大參數(shù)量及高浮點計算量導(dǎo)致難以部署在彈載處理器上。輕量化網(wǎng)絡(luò)模型通過更優(yōu)的網(wǎng)絡(luò)設(shè)計能夠達到較高的精度,同時計算量大幅降低,對于算法部署具有實際應(yīng)用價值。如結(jié)合自動搜索方法得到的輕量化網(wǎng)絡(luò)模型FBNetV3可在FLOPs為5.57億次時達到80.5%的精度[54],且模型參數(shù)量僅為8 MB。

        表3匯總了當(dāng)前典型目標檢測方法在通用目標檢測數(shù)據(jù)集COCO上的性能表現(xiàn),檢測速度均為在TITAN X GPU硬件平臺測試結(jié)果。

        表3 典型目標檢測方法性能對比

        由表3可以看到,基于Transformer的目標檢測算法通過超大規(guī)模數(shù)據(jù)預(yù)訓(xùn)練能獲得更高的檢測精度,代表了當(dāng)前所能達到的最高檢測能力,但目前在速度上難以達到實時。單階段算法如YOLO、Objects as Points能夠達到更高的實時性,其端到端的網(wǎng)絡(luò)結(jié)構(gòu)在彈載處理器部署上具有更好的適應(yīng)性。

        NMS算法用于進一步篩選目標檢測模型的預(yù)測冗余結(jié)果,是影響彈載處理器目標檢測效果的主要算法。表4匯總了典型NMS算法在COCO數(shù)據(jù)集上的性能表現(xiàn),目標檢測模型均采用YOLOv3-SPP結(jié)構(gòu)。平均檢測精度均值(mAP)、IoU閾值為75%時對應(yīng)的平均查準率AP75、檢測結(jié)果上限為100個時對應(yīng)的平均查全率AR100指數(shù)。

        表4 典型NMS算法性能對比

        由表4可以看到,傳統(tǒng)NMS算法經(jīng)過Fast NMS等方法并行加速處理后速度得到較大提升,滿足了實時性要求,在此基礎(chǔ)上通過增加Weighted-NMS、DIoU-NMS等提高精度的方法,能以較小的速度損失得到一定的精度提高。

        彈載處理器能耗和面積消耗與運算數(shù)據(jù)的位寬密切相關(guān)。文獻[80]測試了不同數(shù)據(jù)類型運算操作的占硬件面積及能耗對比,如表5所示。

        由表5可以看到,低精度定點數(shù)加操作和乘法操作的硬件面積大小及能耗比高精度浮點數(shù)要少幾個數(shù)量級,使用8 bit定點量化可帶來4倍的模型壓縮、4倍的內(nèi)存帶寬提升,以及更高效的緩存利用(內(nèi)存訪問是主要能耗)。除此之外,計算速度也通常具有2~3倍的提升,且在一定場景下定點量化操作精度損失小,因此使用低比特數(shù)進行模型壓縮具有較大優(yōu)勢。

        表5 不同數(shù)據(jù)類型的運算操作占硬件面積及能耗

        彈載圖像數(shù)據(jù)集中的圖像通過某型旋轉(zhuǎn)炮彈靶場射擊試驗、無人機掛載彈載相機模擬拍攝、軟件仿真等手段獲取,包含港口、海洋、荒漠、草地等作戰(zhàn)場景,具備彈載視角下多種目標類型不同尺度特征的圖像序列。本文基于該數(shù)據(jù)集對典型目標檢測算法進行訓(xùn)練,得到部分檢測結(jié)果如圖19所示。

        圖19(a)~圖19(d)為基于YOLOV4目標檢測方法對在不同彈目距離d和圖像旋轉(zhuǎn)角α獲取的多靶標圖像的識別效果。由圖19可以看到:在遠距離時YOLOV4方法可對靶標區(qū)域及區(qū)域內(nèi)多個靶標進行準確檢測;隨著彈目距離縮小,目標檢測方法能夠保持對打擊的靶標精確定位,表明采用的檢測方法能夠適應(yīng)不同尺度和不同場景下靶標特征,具有較強的魯棒性。圖19(e)、圖19(f)為基于YOLACT方法對模擬彈載視角拍攝的裝甲目標檢測結(jié)果,從中可以看到,該方法在獲取目標輪廓同時可得到旋轉(zhuǎn)檢測框,具有更精確的定位信息。

        4 結(jié)論

        本文結(jié)合彈載圖像目標檢測難點問題,綜述了基于深度學(xué)習(xí)的目標檢測方法,從5個方面闡述了目標檢測模型在彈載處理器部署中的關(guān)鍵技術(shù),為高性能彈載圖像目標檢測實現(xiàn)提供了先進理論基礎(chǔ)和可行方案,一定程度上推動了圖像自尋的彈藥的精確化、智能化。相關(guān)技術(shù)可應(yīng)用于車載、機載等平臺的檢測任務(wù),但目前尚未發(fā)展成熟,仍有如下值得關(guān)注和討論的研究方向:

        1)兼顧模型性能和彈載處理器硬件部署的輕量化檢測模型設(shè)計。當(dāng)前彈載目標檢測通常采用單階段輕量化模型,具有實時性好、硬件部署適應(yīng)性強等優(yōu)點。但在復(fù)雜環(huán)境下檢測精度仍有提升空間;對模型硬件部署效果缺乏理論分析及全面的指標評價。通過強化學(xué)習(xí)自動搜索得到高性能的輕量化網(wǎng)絡(luò),結(jié)合大感受野注意力機制增強特征圖等方法,綜合數(shù)據(jù)讀取、模型計算量、內(nèi)存訪問成本、計算并行度、硬件能耗等指標設(shè)計更優(yōu)的硬件友好型目標檢測模型,是實現(xiàn)高效可靠的彈載圖像目標檢測必須研究的重要課題。

        2)彈載圖像自尋的系統(tǒng)一體化設(shè)計。彈載圖像自尋的系統(tǒng)包含大靶面彈載攝像機圖像采集、彈載目標檢測及跟蹤。在工程上通常采用分治法完成各個任務(wù),簡單清晰,分工明確,但集成度低、丟失了任務(wù)間關(guān)聯(lián)信息。一體化設(shè)計能利用任務(wù)間關(guān)聯(lián)信息,在系統(tǒng)層面緩解模型經(jīng)過壓縮后帶來精度損失的問題,具有重要的實用價值。

        3)模型的可解釋性問題研究。雖然基于深度學(xué)習(xí)的目標檢測方法具備高準確性、高魯棒性的優(yōu)點,但通常被認為是基于數(shù)據(jù)驅(qū)動的“黑箱”模型。當(dāng)前通過可視化、外部擾動、因果解釋等方法仍無法完全解釋其決策依據(jù)和邏輯,導(dǎo)致使用者無法完全信任模型決策結(jié)果。因此,未來在提升模型性能的同時也應(yīng)注意模型的可解釋性。

        4)多目標打擊決策問題研究。圖像自尋的彈藥作為“察打評”一體化閉環(huán)作戰(zhàn)平臺,在目標檢測中增加毀傷判別先驗知識,對實現(xiàn)作戰(zhàn)效能最大化具有重要的實戰(zhàn)意義。

        猜你喜歡
        特征提取特征檢測
        “不等式”檢測題
        “一元一次不等式”檢測題
        “一元一次不等式組”檢測題
        如何表達“特征”
        基于Gazebo仿真環(huán)境的ORB特征提取與比對的研究
        電子制作(2019年15期)2019-08-27 01:12:00
        不忠誠的四個特征
        抓住特征巧觀察
        一種基于LBP 特征提取和稀疏表示的肝病識別算法
        小波變換在PCB缺陷檢測中的應(yīng)用
        基于MED和循環(huán)域解調(diào)的多故障特征提取
        国产片三级视频播放| 日本牲交大片免费观看| 4444亚洲人成无码网在线观看| 中文无码日韩欧免费视频| 男生自撸视频在线观看| 亚洲av片无码久久五月| 日本一卡2卡3卡四卡精品网站| 制服丝袜视频国产一区| 亚洲国产线茬精品成av| 插插射啊爱视频日a级| 欧美精品中文字幕亚洲专区| 一本一本久久久久a久久综合激情| 国产三级精品三级在线| 国产无套内射又大又猛又粗又爽 | 久久国产精品免费一区二区| 国产优质av一区二区三区| 一边做一边说国语对白| 丰满女人又爽又紧又丰满| 成人国产精品免费网站| 蜜桃视频羞羞在线观看| 疯狂添女人下部视频免费| 91久久青青草原免费| 久久免费精品视频老逼| 亚洲国产精品不卡av在线| 无码中文字幕日韩专区视频| 国产高清国内精品福利99久久| 久久影院最新国产精品| 国产综合精品一区二区三区| 国产一起色一起爱| 亚洲av永久久无久之码精| 国内精品少妇高潮视频| 好日子在线观看视频大全免费动漫 | 日韩久久一级毛片| 91国内偷拍一区二区三区| 69国产成人精品午夜福中文| 亚州少妇无套内射激情视频| 99热高清亚洲无码| 日本免费在线一区二区三区| 人妻丰满熟妇av无码区hd| 久久国产成人午夜av影院| 日本高清一区二区不卡|