亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        用于彈載線陣紅外與激光掃描成像引信的輕量化卷積神經(jīng)網(wǎng)絡(luò)目標(biāo)識別方法

        2021-10-08 13:52:10武軍安劉榮忠柯尊貴
        彈道學(xué)報(bào) 2021年3期
        關(guān)鍵詞:分類特征融合

        武軍安,郭 銳,劉榮忠,柯尊貴

        (1.南京理工大學(xué) 智能彈藥技術(shù)國防重點(diǎn)學(xué)科實(shí)驗(yàn)室,江蘇 南京 210094;2.西南技術(shù)物理研究所,四川 成都 610041)

        末敏彈是一種將復(fù)合探測、穩(wěn)態(tài)掃描與爆炸成形彈丸技術(shù)應(yīng)用于子母彈的靈巧化彈藥,其中的復(fù)合探測技術(shù)是其核心技術(shù)??v觀國內(nèi)外已裝備的末敏彈,主要以點(diǎn)元紅外敏感器、主動(dòng)毫米波雷達(dá)和被動(dòng)毫米波輻射計(jì)作為探測器,并將幾種探測器進(jìn)行組合實(shí)現(xiàn)復(fù)合探測體制。探測信號大多是以一維的數(shù)據(jù)形式對掃描區(qū)域進(jìn)行描述,對目標(biāo)的細(xì)節(jié)特征描述有限[1]。然而隨著現(xiàn)代戰(zhàn)場環(huán)境的復(fù)雜化以及干擾、隱身等對抗技術(shù)的發(fā)展,基于點(diǎn)元探測器的末敏彈越來越難以滿足現(xiàn)代戰(zhàn)場環(huán)境下的作戰(zhàn)要求。因此需要對掃描區(qū)域進(jìn)行更為精細(xì)化的成像式探測來提高末敏彈在復(fù)雜戰(zhàn)場環(huán)境下的適應(yīng)能力。線陣紅外與激光雷達(dá)探測器是將像元以線列形式排列的探測器,成像需要結(jié)合掃描運(yùn)動(dòng)才能實(shí)現(xiàn)。而末敏彈工作時(shí)恰好做螺旋穩(wěn)態(tài)掃描運(yùn)動(dòng),因此利用線陣探測器可以很容易地實(shí)現(xiàn)對地面目標(biāo)的掃描成像,將二者進(jìn)行復(fù)合式探測既能獲取較高分辨率的紅外輻射信息,也能獲取對目標(biāo)三維幾何描述的距離信息,對末敏彈的目標(biāo)判斷和場景分析提供了更加全面、完整和豐富的特征信息[2-3]。

        基于卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)的識別算法避免了傳統(tǒng)識別算法中復(fù)雜的目標(biāo)分割、特征提取等過程,是一種將原圖像直接作為輸入的端到端的識別模型。2015年HE等[4]提出的ResNet在ImageNet數(shù)據(jù)集上的分類誤差降低到了3.57%,其性能已經(jīng)遠(yuǎn)遠(yuǎn)超過傳統(tǒng)特征提取的識別算法,由此可見CNN對復(fù)雜環(huán)境下的目標(biāo)識別具有明顯優(yōu)勢,這也為末敏彈在復(fù)雜環(huán)境下的目標(biāo)識別提供了新的研究方向。CNN強(qiáng)大的圖像特征提取能力使其在目標(biāo)識別領(lǐng)域得到了廣泛的運(yùn)用,一些學(xué)者已經(jīng)將CNN運(yùn)用在異源圖像的目標(biāo)識別任務(wù)中。劉峰等[5]在AlexNet基礎(chǔ)上提出了一種CNN融合識別模型,先利用CNN對三波段的可見光圖像、長波紅外圖像和短波紅外圖像分別進(jìn)行特征提取,然后采用基于互信息特征選擇的方法對特征量進(jìn)行壓縮,最后再利用全連接層完成了海上目標(biāo)分類任務(wù)。Gao等[6]同樣利用AlexNet將可見光圖像與激光雷達(dá)上采樣后的距離圖像拼接構(gòu)成4通道的RGB-D數(shù)據(jù),實(shí)現(xiàn)了車輛目標(biāo)分類識別任務(wù)。江澤濤等[7]對可將光圖像與紅外圖像利用加權(quán)融合規(guī)則進(jìn)行融合,將融合后的圖像作為CNN的輸入,實(shí)現(xiàn)了對不同場景的識別,經(jīng)實(shí)驗(yàn)驗(yàn)證,融合后的圖像比單獨(dú)使用源圖像的識別準(zhǔn)確率更高。

        雖然利用CNN對異源圖像進(jìn)行目標(biāo)識別取得了較好的效果,但對紅外像和距離像上的研究較少,同時(shí)還需滿足彈載對實(shí)時(shí)性的要求對CNN網(wǎng)絡(luò)需要輕量化設(shè)計(jì),來減少模型量計(jì)算量。因此,本文根據(jù)彈載應(yīng)用場景以及距離像和紅外像的成像特點(diǎn),提出了一種分布式融合輕量級卷積神經(jīng)網(wǎng)絡(luò)(distributed fusion convolutional neural net,DF-Net),通過圖像融合、分布式卷積和深度可分離卷積實(shí)現(xiàn)了CNN的輕量化設(shè)計(jì),并利用縮比場景的自建數(shù)據(jù)集對本文所提方法及網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行實(shí)驗(yàn)分析與討論。

        1 末敏彈線陣掃描成像模型

        彈載線陣探測器的掃描成像是借助末敏彈的穩(wěn)態(tài)旋轉(zhuǎn)掃描運(yùn)動(dòng)來實(shí)現(xiàn)的,其成像示意圖如圖1所示。圖中,β為末敏彈的掃描角;γ為線陣探測器俯仰方向上的視場角,線陣紅外與線陣激光的視場角相同并且被像元等分;τ為轉(zhuǎn)動(dòng)角,即子彈在一段時(shí)間內(nèi)繞回轉(zhuǎn)軸轉(zhuǎn)過的角度;ρi為視場中線陣探測器第i個(gè)像元光路與鉛錘方向的夾角。

        圖1 線陣掃描成像模型示意圖

        為了保證兩幅圖像的配準(zhǔn),紅外與激光接收端為同視場,并且在同一時(shí)刻采集。線陣激光雷達(dá)通過計(jì)算每個(gè)像元的激光發(fā)射與接收回波之間的時(shí)間差來實(shí)現(xiàn)測距,設(shè)APD的像元數(shù)量為M,當(dāng)掃描線轉(zhuǎn)過τ時(shí)會(huì)在地面形成一個(gè)局部掃描區(qū)域Ω,區(qū)域Ω由N次掃描的掃描線數(shù)據(jù)構(gòu)成,將掃描線數(shù)據(jù)按先后順序進(jìn)行拼接可獲得一個(gè)大小為M×N的二維距離矩陣D′:

        D′=(dij)M×N

        (1)

        式中:i=1,2,…,M;j=1,2,…,N。線陣紅外探測器則直接通過接收熱輻射得到紅外輻射灰度信息R:

        R=(rij)M×N

        (2)

        式中:dij和rij分別為第i個(gè)激光與紅外像元在第j次采樣時(shí)測得的距離值和紅外強(qiáng)度值。

        由于獲得的紅外數(shù)據(jù)R本身就是8 bit量化后的灰度值,因此R可直接作為紅外圖像。而對于掃描得到的距離數(shù)據(jù)則需要進(jìn)行一步處理。首先將距離數(shù)據(jù)轉(zhuǎn)換為激光腳點(diǎn)與子彈的相對高度數(shù)據(jù)H′:

        H′=D′cosρi

        (3)

        然后選擇合適的量化區(qū)間S,對H′進(jìn)行8 bit量化即可作為本文CNN與圖像融合算法所需的距離灰度像D:

        (4)

        式中:“[·]”表示取整,hmax為H′中的最大值,h′ij為H′中的元素。

        2 分布式-融合輕量化卷積神經(jīng)網(wǎng)絡(luò)算法模型

        2.1 基于導(dǎo)向?yàn)V波的紅外像與距離像融合算法

        在本文中將融合圖像作為前級卷積神經(jīng)網(wǎng)絡(luò)的輸入數(shù)據(jù),目的是增加輸入特征的多樣性,提高輕量化CNN對目標(biāo)分類的準(zhǔn)確率,因此對融合圖像,希望能在充分反映互補(bǔ)特征的同時(shí)具有較低的算法復(fù)雜度,以滿足彈載環(huán)境對實(shí)時(shí)性的要求。本文融合算法的具體過程如下。

        ①源圖像分解。

        首先通過高斯濾波對圖像進(jìn)行平滑處理得到圖像的低頻分量LD和LR:

        LD=D*g,LR=R*g

        (5)

        式中:g為高斯平滑核;“*”表示卷積。高斯核參數(shù)的選取應(yīng)保證盡可能濾除細(xì)節(jié)特征。獲得圖像的低頻分量后得到高頻分量HD和HR:

        HD=D-LD,HR=R-LR

        (6)

        對于小尺寸、紋理特征不豐富的圖像經(jīng)一次低通濾波就可以得到很平滑的低頻圖像,因此本文對源圖像只進(jìn)行了一次分解。

        ②低頻融合系數(shù)的構(gòu)建。

        圖像的低頻子圖保留了原圖像的近似特征,對于本文的低頻子圖而言,由于只進(jìn)行了一次非降采樣的分解,直接使用平均融合容易導(dǎo)致圖像邊緣模糊、對比度降低,因此對低頻融合系數(shù)進(jìn)行如下處理:首先建立2個(gè)與源圖像尺寸一致且系數(shù)均為0.5的初始融合系數(shù)矩陣mR和mD;然后將源圖像作為引導(dǎo)圖對初始系數(shù)進(jìn)行導(dǎo)向?yàn)V波,即:

        (7)

        (8)

        根據(jù)導(dǎo)向?yàn)V波的特性可知[12],若圖像中某一區(qū)域的局部方差較小,則認(rèn)為處于引導(dǎo)圖像的平坦區(qū)域,此時(shí)濾波器的輸出即為相鄰像素的平均值;若局部方差較大,此時(shí)只有一邊的權(quán)重會(huì)被平均,從而保證了邊緣不被模糊,因此初始權(quán)重經(jīng)導(dǎo)向?yàn)V波后保證了空間上的連續(xù)性。

        ③高頻融合系數(shù)的構(gòu)建。

        在高頻子圖中主要包含了場景中邊緣特征、目標(biāo)紋理特征、邊界變化特征等灰度值變化較為強(qiáng)烈的區(qū)域,為了在融合圖像中更好地體現(xiàn)上述特征,對于高頻分量通常選用“絕對值取大”的方法進(jìn)行融合,首先構(gòu)建初始融合權(quán)重CR,CD:

        (9)

        CD=1-CR

        (10)

        同理,為了讓融合權(quán)重具有空間連續(xù)性,與低頻分量處理一樣,使用導(dǎo)向?yàn)V波對初始權(quán)重進(jìn)行處理,即:

        (11)

        經(jīng)歸一化后得到高頻融合系數(shù):

        (12)

        ④重建融合圖像。

        利用②和③獲得的融合系數(shù)分別對高頻子圖和低頻子圖進(jìn)行加權(quán)求和,則融合后的高頻圖HF和低頻圖LF分別為

        (13)

        式中:“·”表示矩陣元素點(diǎn)積運(yùn)算。最終的融合圖像F只需將融合高頻圖HF和融合低頻圖LF相加即可獲得,即:

        F=HF+LF

        (14)

        2.2 分布式-融合卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

        本文設(shè)計(jì)的DF-Net網(wǎng)絡(luò)框架從整體上將網(wǎng)絡(luò)分為:前級的分布式特征提取網(wǎng)絡(luò)和后級融合網(wǎng)絡(luò)。在前級網(wǎng)絡(luò)中,距離像、紅外像以及融合像各自擁有獨(dú)立的卷積網(wǎng)絡(luò),同時(shí)卷積操作并未使用傳統(tǒng)卷積加池化下采樣或者直接利用深度可分離卷積進(jìn)行提取,而是由2組步長為2步長(s=2)的3×3卷積(3×3 Conv)和1×1卷積(1×1 Conv)構(gòu)成。這種方式雖然比深度可分離卷積的計(jì)算量大,但學(xué)習(xí)特征能力更強(qiáng);與傳統(tǒng)卷積加池化下采樣的方式相比,省去池化操作(Pool)的同時(shí)進(jìn)一步降低網(wǎng)絡(luò)的計(jì)算復(fù)雜度。圖2是以上3種結(jié)構(gòu)的實(shí)現(xiàn)方式,設(shè)輸入特征圖為M×N×Cin,輸出特征圖均為(M/2)×(N/2)×2Cin,圖中N1為本文卷積結(jié)構(gòu),N2為深度可分離卷積結(jié)構(gòu),N3為帶有池化下采樣的卷積結(jié)構(gòu),所有網(wǎng)絡(luò)均使用了批次歸一化層(batch normalizing,BN)[11],表1為3種網(wǎng)絡(luò)結(jié)構(gòu)的計(jì)算量和參數(shù)量,表中,Cin為輸入的通道數(shù),P為輸入圖像大小。通過表1中計(jì)算量與參數(shù)量的對比,本文結(jié)構(gòu)雖然比N2結(jié)構(gòu)計(jì)算復(fù)雜度高,但相比N3的傳統(tǒng)結(jié)構(gòu)計(jì)算量下降了約79.6%,參數(shù)量下降了37.5%。

        表1 不同卷積結(jié)構(gòu)計(jì)算復(fù)雜度對比

        圖2 3種結(jié)構(gòu)的實(shí)現(xiàn)方式

        網(wǎng)絡(luò)的后級則是對上述特征量進(jìn)行融合、提取與壓縮,并最終給出分類結(jié)果。對前級的特征融合,利用雙尺度卷積核進(jìn)行融合,首先對3個(gè)通道的特征圖進(jìn)行首尾拼接;然后利用3×3卷積核和1×1卷積核分別對拼接后的特征圖進(jìn)行卷積以實(shí)現(xiàn)特征間的融合。最后再將卷積后的特征圖進(jìn)行拼接并送入后續(xù)卷積層中。對融合后的特征圖利用深度可分離卷積模塊進(jìn)行卷積,根據(jù)文獻(xiàn)[11]指出的深層特征對網(wǎng)絡(luò)性能的貢獻(xiàn)高于淺層網(wǎng)絡(luò)特征,因此在融合卷積層后面又增加了多組深度可分離卷積模塊來提高網(wǎng)絡(luò)對特征的學(xué)習(xí)能力。表2給出了本文DF-Net網(wǎng)絡(luò)具體的結(jié)構(gòu)設(shè)計(jì)參數(shù),輸入的距離像、紅外像以及融合圖像先經(jīng)13層CNN卷積得到4×4×528的特征圖,最后利用全局平均池化將特征圖變?yōu)?×528的一維特征向量,并與輸出分類數(shù)量一致的神經(jīng)元構(gòu)成全連接層,并利用SoftMax層得到每種類別的分類概率。網(wǎng)絡(luò)在每個(gè)卷積層和激活層之間增加了批次歸一化層,用于加快網(wǎng)絡(luò)的訓(xùn)練收斂速度和防止過擬合的發(fā)生。每個(gè)卷積層之間選用RL6作為網(wǎng)絡(luò)的激活函數(shù),即:

        RL6=min(max(0,x),6)

        (15)

        表2中,C表示普通卷積;GC表示可分離卷積;B表示批次歸一化操作;RL6為ReLU6激活函數(shù)層,No為最終的分類數(shù)。

        表2 DF-Net 網(wǎng)絡(luò)設(shè)計(jì)參數(shù)及計(jì)算復(fù)雜度

        3 實(shí)驗(yàn)與結(jié)果分析

        實(shí)驗(yàn)所用數(shù)據(jù)集通過實(shí)驗(yàn)室搭建的縮比實(shí)驗(yàn)平臺獲得。在模擬場景搭建時(shí)考慮了裝甲目標(biāo)在真實(shí)戰(zhàn)場環(huán)境下的工作情況,為了讓數(shù)據(jù)更加真實(shí),模擬了在不同坡度、不同地形、不同高度、目標(biāo)存在局部遮擋以及目標(biāo)周圍存在障礙物情況下的實(shí)驗(yàn)場景。裝甲目標(biāo)選取了主戰(zhàn)坦克、裝甲運(yùn)兵車、自行火炮等多種模擬目標(biāo),目標(biāo)縮比比例為1∶24(平均長、寬、高分別約為36 cm,13 cm,10 cm),探測器最大探測高度3 m,同時(shí)為了模擬紅外特征在裝甲目標(biāo)發(fā)熱處內(nèi)部設(shè)計(jì)了電子恒溫加熱裝置,保證與地面溫差大于10 ℃。樣本的獲取首先利用縮比模擬場景共獲取4 000組樣本,樣本中圖像大小為64×64,然后利用翻轉(zhuǎn)、平移、旋轉(zhuǎn)和隨機(jī)裁剪等方法對樣本進(jìn)行增廣,最后將樣本數(shù)據(jù)分為4類裝甲目標(biāo)(坦克目標(biāo)、運(yùn)兵車目標(biāo)、自行火炮和導(dǎo)彈車,每類各11 000)和非裝甲目標(biāo)(由不含裝甲目標(biāo)的背景構(gòu)成共44 000)。對裝甲目標(biāo)樣本進(jìn)行分類后,CNN網(wǎng)絡(luò)不僅可以建立目標(biāo)識別的二分類網(wǎng)絡(luò)(裝甲目標(biāo)44 000和非裝甲目標(biāo)40 000),也可建立目標(biāo)分類的五分類網(wǎng)絡(luò)(4類裝甲目標(biāo)各11 000個(gè),非裝甲目標(biāo)從40 000中隨機(jī)抽取11 000作為樣本),從而驗(yàn)證網(wǎng)絡(luò)對裝甲目標(biāo)分類判別的能力。在數(shù)據(jù)集劃分上,選取總數(shù)據(jù)集的80%作為訓(xùn)練集,剩下的20%作為測試集,分別用于網(wǎng)絡(luò)的訓(xùn)練和測試階段。圖3為數(shù)據(jù)集中部分樣本示例,數(shù)據(jù)集中包含裝甲目標(biāo)的部分紅外圖像、距離圖像和融合圖像。

        圖3 數(shù)據(jù)集中部分樣本示例

        在實(shí)驗(yàn)中所有網(wǎng)絡(luò)均采用了帶動(dòng)量的小批量隨機(jī)梯度下降算法作為網(wǎng)絡(luò)模型訓(xùn)練的優(yōu)化算法,訓(xùn)練一次的樣本量(Batch size)根據(jù)GPU內(nèi)存容量設(shè)置為100,為了保證網(wǎng)絡(luò)訓(xùn)練的穩(wěn)定收斂,學(xué)習(xí)率的調(diào)整策略選用階梯式(STEP)策略,設(shè)初始學(xué)習(xí)率α0=0.01,每經(jīng)過一次階躍步長k新的學(xué)習(xí)率α衰減為

        α=α0×ω?t/k」

        (16)

        式中:ω為衰減系數(shù);“?·」”為向上取整符號;t為當(dāng)前迭代訓(xùn)練次數(shù)。在本文中k=10 000,ω=0.1,即網(wǎng)絡(luò)每進(jìn)行10 000次的迭代訓(xùn)練,學(xué)習(xí)率衰減為原來的10%,總迭代次數(shù)為50 000次。實(shí)驗(yàn)在PC機(jī)上進(jìn)行,主要配置如下:CPU Intel I7-8700k,GPU NVIDIA GeForce GTX1080Ti(顯存8G),內(nèi)存 DDR4 16G,網(wǎng)絡(luò)模型在Caffe開源架構(gòu)上進(jìn)行訓(xùn)練與測試,操作系統(tǒng)運(yùn)行環(huán)境為Ubuntu 16.04。

        實(shí)驗(yàn)結(jié)果如下:

        ①不同網(wǎng)絡(luò)結(jié)構(gòu)對性能的影響。 將本文網(wǎng)絡(luò)與流行的輕量化網(wǎng)絡(luò)Mobilenet128[10]以及將DF-Net中前級分布式卷積改為N3結(jié)構(gòu)的DF-Net(2)進(jìn)行了性能對比,結(jié)果如表3所示,可以看出:雖然DF-Net準(zhǔn)確率較Mobilenet128降低了1.3%,但計(jì)算量僅為Mobilenet128的12%;對本文圖像,前級網(wǎng)絡(luò)使用深度可分離卷積不利于網(wǎng)絡(luò)對特征的學(xué)習(xí),以N1和N3作為網(wǎng)絡(luò)前級效果較好,二者性能相當(dāng),在準(zhǔn)確率上只高了0.3%,但從計(jì)算量和參數(shù)量上來看N1結(jié)構(gòu)更具有優(yōu)勢。

        表3 測試集準(zhǔn)確率與計(jì)算量對比

        ②融合圖像對網(wǎng)絡(luò)性能的影響。 當(dāng)刪除融合圖像時(shí)網(wǎng)絡(luò)在測試集上的準(zhǔn)確率為94%,下降了2.1%,可以看出,引入融合圖像可以提高網(wǎng)絡(luò)對特征的提取能力。

        ③DF-Net在復(fù)雜環(huán)境下的網(wǎng)絡(luò)性能。 利用模擬場景采集背景環(huán)境較為復(fù)雜的距離圖像和紅外圖像樣本,并利用樣本增強(qiáng)方法將數(shù)據(jù)擴(kuò)充到400組(包含4類裝甲目標(biāo)的樣本每類50組,其余為不含裝甲目標(biāo)的樣本),來驗(yàn)證網(wǎng)絡(luò)模型的泛化能力以及對復(fù)雜背景環(huán)境下的目標(biāo)識別能力,并用混淆矩陣對性能進(jìn)行評估。圖4(a)是五分類預(yù)測的混淆矩陣(TANK坦克,APC運(yùn)兵車,SPG自行火炮,MV導(dǎo)彈車),圖4(b)是二分類混淆矩陣(T裝甲目標(biāo),N無目標(biāo)),混淆矩陣中縱坐標(biāo)表示真實(shí)樣本分類,橫坐標(biāo)表示預(yù)測樣本分類,矩陣中數(shù)字均為百分比。

        圖4 DF-Net網(wǎng)絡(luò)模型目標(biāo)分類混淆矩陣

        從混淆矩陣可以看出,五分類的總體準(zhǔn)確率為86.8%,二分類為90.5%,相比之前在測試集上的實(shí)驗(yàn)結(jié)果有所降低,但總體上看,DF-Net模型依然具有較強(qiáng)的目標(biāo)識別和分類能力。在圖4(a)中可以發(fā)現(xiàn),五分類任務(wù)的準(zhǔn)確率要低于二分類任務(wù),而且在對4類裝甲進(jìn)行預(yù)測時(shí)均出現(xiàn)了少部分目標(biāo)被誤判為非目標(biāo)的情況,同時(shí)裝甲運(yùn)兵車(APC)和反坦克導(dǎo)彈車(MV)之間還出現(xiàn)了一定程度的混淆。出現(xiàn)上述情況主要有以下兩方面原因:①實(shí)驗(yàn)環(huán)境的局限使得訓(xùn)練樣本無法包括所有可能性,導(dǎo)致模型訓(xùn)練不夠充分;②不同類裝甲目標(biāo)的車身主體存在相似的情況(例如裝甲運(yùn)兵車和反坦克導(dǎo)彈車),當(dāng)只掃描到目標(biāo)局部或者目標(biāo)遮擋較為嚴(yán)重時(shí),模型無法得到準(zhǔn)確的判定信息從而造成分類混淆,或者探測高度較高時(shí)目標(biāo)在低分辨的圖像上特征丟失嚴(yán)重也可能造成分類混淆。

        圖5是從數(shù)據(jù)集中選取的8組實(shí)驗(yàn)樣本并利用DF-Net分別進(jìn)行2分類和5分類的結(jié)果,圖5(a)為假目標(biāo)樣本,圖5(b)~圖5(d)為目標(biāo)四周有障礙物或者局部遮擋的情況,圖5(e)、圖5(f)為目標(biāo)局部掃描樣本,圖5(g)為在高處探測時(shí)目標(biāo)四周有大量干擾的樣本,圖5(h)為目標(biāo)超過50%被遮擋的樣本。

        圖5 部分樣本識別結(jié)果

        從實(shí)驗(yàn)結(jié)果上可以看出:網(wǎng)絡(luò)在樣本a~e中均準(zhǔn)確識別出了目標(biāo),樣本a是長寬高與裝甲目標(biāo)相似的矩形偽目標(biāo),由于在訓(xùn)練樣本中加入了此類偽目標(biāo),因而未產(chǎn)生虛警,樣本b~d是目標(biāo)周圍有障礙物或者存在局部遮擋的情況,此時(shí)網(wǎng)絡(luò)也做出了正確識別;樣本e和f是車體相似的兩類不同的目標(biāo),由于是局部圖像,兩個(gè)目標(biāo)的特征較為相似,因此在五分類任務(wù)中將反坦克導(dǎo)彈車錯(cuò)誤分類成了運(yùn)兵車,但是在二分類的裝甲目標(biāo)識別任務(wù)中被準(zhǔn)確分類;對樣本e進(jìn)行分類時(shí),雖然此時(shí)目標(biāo)在視場中比例較小,周圍還存在熱源與障礙物干擾,但DF-Net依然給出了正確分類;對于樣本h,由于此時(shí)目標(biāo)被大面積遮擋,其特征不能被充分描述,從而導(dǎo)致目標(biāo)分類錯(cuò)誤。

        4 結(jié)束語

        本文為了提高末敏彈在復(fù)雜背景環(huán)境下對裝甲目標(biāo)的識別能力,利用CNN在圖像處理上的優(yōu)勢,提出了一種適用于低分辨距離像和紅外圖像的融合-分布式輕量化卷積神經(jīng)網(wǎng)絡(luò)模型DF-Net。通過實(shí)驗(yàn)表明:

        ①融合圖像的引入可以提高網(wǎng)絡(luò)對特征的提取能力,在相同網(wǎng)絡(luò)層數(shù)下能夠獲得更好的識別精度,對于低分辨的紅外圖像和距離像應(yīng)盡可能選取計(jì)算量小、更好保留邊緣紋理特征的算法來提高系統(tǒng)的實(shí)時(shí)性;

        ②DF-Net通過前級N1結(jié)構(gòu)的分布式卷積處理和后級的深度可分離卷積,讓網(wǎng)絡(luò)具有更少計(jì)算量,同時(shí)也具有優(yōu)異的目標(biāo)識別性能;

        ③CNN具有強(qiáng)大的特征提取能力,因此本文方法適用于背景環(huán)境復(fù)雜以及對抗環(huán)境干擾要求較高的戰(zhàn)場環(huán)境。

        猜你喜歡
        分類特征融合
        村企黨建聯(lián)建融合共贏
        融合菜
        分類算一算
        從創(chuàng)新出發(fā),與高考數(shù)列相遇、融合
        《融合》
        如何表達(dá)“特征”
        不忠誠的四個(gè)特征
        分類討論求坐標(biāo)
        數(shù)據(jù)分析中的分類討論
        教你一招:數(shù)的分類
        亚洲精品无码不卡在线播he| 高清高速无码一区二区| 被驯服人妻中文字幕日本 | 在线免费观看蜜桃视频| 少妇人妻中文字幕hd| 国产成人亚洲日韩欧美| 国产情侣一区在线| 老司机在线免费视频亚洲| 精品无码av无码专区| 夜夜未满十八勿进的爽爽影院| 亚洲AV永久青草无码性色av| 亚洲av中文字字幕乱码| 手机免费在线观看av网址| 久久99精品九九九久久婷婷| 欧美色精品91av| 久久精品国产亚洲一级二级| 亚洲av五月天一区二区| 中文字幕av免费专区| 四虎精品影视| 18禁成人免费av大片一区| 人妻少妇精品中文字幕专区| 无码人妻久久一区二区三区不卡| 亚洲国产精品自产拍久久蜜AV| 日韩精品自拍一区二区| 久久婷婷色香五月综合缴缴情| 精品久久久久久中文字幕| 亚洲精品乱码久久久久99| 成人一区二区三区国产| 国产精品免费_区二区三区观看| 亚洲AV永久无码制服河南实里 | 亚洲色偷拍一区二区三区| 国产美女遭强高潮网站| 无码熟妇人妻av在线c0930| 亚洲av熟女中文字幕| 亚洲中字慕日产2020| 国产成人精品三级麻豆| 国产av大片久久中文字幕| 亚洲国产精品久久久久秋霞小说| 狠狠色狠狠色综合日日不卡| 青青草免费激情自拍视频| 久久精品女人av一区二区|