亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于特征匹配的艦載對(duì)陸導(dǎo)彈目標(biāo)識(shí)別模型

        2021-07-27 07:42:12謝春思劉志贏
        關(guān)鍵詞:導(dǎo)引頭煙霧導(dǎo)彈

        謝春思, 劉志贏, 桑 雨

        (1.海軍大連艦艇學(xué)院導(dǎo)彈與艦炮系, 遼寧 大連 116018; 2.海軍大連艦艇學(xué)院學(xué)員五大隊(duì), 遼寧 大連116018;3.中國人民解放軍91991部隊(duì), 浙江 舟山 316001; 4.中國人民解放軍91278部隊(duì), 遼寧 大連 116041)

        0 引 言

        艦載對(duì)陸攻擊巡航導(dǎo)彈具備非接觸打擊陸地縱深目標(biāo)的能力,是當(dāng)今世界軍事海洋強(qiáng)國廣泛列裝的武器,可用于打擊具有特殊政治意義或軍事價(jià)值的目標(biāo),對(duì)導(dǎo)彈武器系統(tǒng)打擊精度提出了較高要求。對(duì)陸導(dǎo)彈末端常采用基于圖像的尋的制導(dǎo),核心技術(shù)包括自動(dòng)目標(biāo)識(shí)別(automatic target recognition, ATR)和抗遮擋干擾。

        長(zhǎng)期以來,人們?yōu)閷?shí)現(xiàn)導(dǎo)彈的自動(dòng)目標(biāo)識(shí)別提出了兩類算法[1-7],一類是基于模板匹配[8],即采集和制作目標(biāo)基準(zhǔn)圖并以模板形式儲(chǔ)存在彈載計(jì)算機(jī)中,當(dāng)導(dǎo)彈飛臨目標(biāo)上空時(shí),將導(dǎo)引頭實(shí)時(shí)拍攝的目標(biāo)區(qū)域信息與目標(biāo)模板匹配進(jìn)行導(dǎo)彈和目標(biāo)相對(duì)位置的確定;另一類是基于目標(biāo)特征匹配[9-11],直接利用提取的目標(biāo)結(jié)構(gòu)特征實(shí)現(xiàn)分類和定位。二者在自動(dòng)目標(biāo)識(shí)別方面各有優(yōu)勢(shì),前者對(duì)復(fù)雜背景的適應(yīng)能力更強(qiáng),后者理論上具備目標(biāo)識(shí)別和跟蹤一體化的能力,但對(duì)背景純度要求較高??紤]到復(fù)雜的戰(zhàn)場(chǎng)環(huán)境、彈載計(jì)算機(jī)性能受限和打擊目標(biāo)時(shí)可能存在多樣化干擾等因素,目前國外已列裝的艦載對(duì)陸巡航導(dǎo)彈大多采用基于前視模板匹配的目標(biāo)識(shí)別技術(shù)[12]。同時(shí),對(duì)陸導(dǎo)彈在作戰(zhàn)過程中易受煙霧遮擋干擾而影響圖像制導(dǎo)效果,如何提高系統(tǒng)煙霧遮擋抗干擾能力成為一個(gè)亟待解決的課題。對(duì)此,學(xué)界提出串行法和并行法兩類抗干擾方案,其核心都是煙霧區(qū)域檢測(cè)技術(shù)[13]。目前工程應(yīng)用中大多通過模式識(shí)別法實(shí)現(xiàn)煙霧區(qū)域檢測(cè),對(duì)先驗(yàn)知識(shí)依賴程度較高。

        近年來深度學(xué)習(xí)技術(shù)取得突破性進(jìn)展,為對(duì)陸導(dǎo)彈目標(biāo)識(shí)別提供了新的技術(shù)支持。深度學(xué)習(xí)檢測(cè)技術(shù)利用深層次的神經(jīng)網(wǎng)絡(luò)提取目標(biāo)的多尺度特征信息,與傳統(tǒng)目標(biāo)特征提取算法相比具有魯棒性強(qiáng)、復(fù)雜背景適應(yīng)能力強(qiáng)等特點(diǎn),為基于目標(biāo)特征的對(duì)陸導(dǎo)彈目標(biāo)識(shí)別技術(shù)提供了新的技術(shù)途徑。如通過深度學(xué)習(xí)目標(biāo)檢測(cè)算法框架,利用目標(biāo)情報(bào)數(shù)據(jù)訓(xùn)練深度學(xué)習(xí)網(wǎng)絡(luò),實(shí)現(xiàn)對(duì)戰(zhàn)時(shí)導(dǎo)引頭獲取的圖像目標(biāo)進(jìn)行分類識(shí)別和定位[5,14-18];針對(duì)煙霧遮擋干擾,可通過深度學(xué)習(xí)語義分割算法對(duì)導(dǎo)彈目標(biāo)區(qū)內(nèi)存在的煙霧精準(zhǔn)檢測(cè),為進(jìn)一步排除煙霧干擾奠定基礎(chǔ)[19-23]。

        基于以上分析,本文提出了一種基于深度學(xué)習(xí)的對(duì)陸導(dǎo)彈目標(biāo)識(shí)別模型,該模型包括預(yù)處理、識(shí)別、抗煙霧干擾、判別分析等4個(gè)模塊,通過并行法實(shí)現(xiàn)目標(biāo)識(shí)別和煙霧區(qū)域檢測(cè)。仿真實(shí)驗(yàn)表明,該模型能快速準(zhǔn)確識(shí)別復(fù)雜背景下的陸上典型固定目標(biāo),具備一定的抗煙霧干擾能力,驗(yàn)證了基于目標(biāo)特征的深度學(xué)習(xí)目標(biāo)檢測(cè)技術(shù)在對(duì)陸導(dǎo)彈目標(biāo)識(shí)別任務(wù)中的可行性和有效性。

        1 問題提出

        當(dāng)前國外已列裝的艦載對(duì)陸巡航導(dǎo)彈普遍使用基于前視模板匹配的圖像識(shí)別技術(shù),如首款裝配ATR系統(tǒng)的美軍AGM-84E SLAM-ER導(dǎo)彈[24],其末端導(dǎo)引頭工作機(jī)制如圖1所示。當(dāng)導(dǎo)彈飛臨目標(biāo)區(qū)域上空,成像探頭拍攝實(shí)時(shí)視頻,經(jīng)RS422串行總線傳輸?shù)讲东@模塊并獲取實(shí)時(shí)圖;彈載計(jì)算機(jī)根據(jù)預(yù)先儲(chǔ)存的前視模板和成像探頭與彈體之間的位置關(guān)系,制作修正的基準(zhǔn)模板;將圖中提取的特征和修正基準(zhǔn)模板實(shí)時(shí)傳入匹配模塊進(jìn)行相關(guān)性計(jì)算,完成對(duì)導(dǎo)彈的飛行導(dǎo)航。

        圖1 SLAM-ER導(dǎo)彈ATR系統(tǒng)工作機(jī)制

        然而,基于前視模板匹配的ATR技術(shù)存在固有缺陷。該方法提取的導(dǎo)引頭圖像中包含角點(diǎn)信息,通過與彈載計(jì)算機(jī)存儲(chǔ)的目標(biāo)區(qū)模板匹配實(shí)現(xiàn)對(duì)導(dǎo)彈當(dāng)前時(shí)刻的定位,并對(duì)比基準(zhǔn)面計(jì)算導(dǎo)彈位置偏移后導(dǎo)引導(dǎo)彈飛向空間中某一點(diǎn),而不是直接定位識(shí)別和跟蹤陸上目標(biāo),因此在航路規(guī)劃中就存在位置誤差,該方法在打擊機(jī)場(chǎng)、跑道等目標(biāo)任務(wù)中尚能滿足精度要求,但對(duì)建筑物、小型島嶼等固定目標(biāo)就顯得不夠了。

        基于目標(biāo)特征的ATR技術(shù)通過提取和分析圖像特征信息對(duì)目標(biāo)直接分類識(shí)別,標(biāo)定目標(biāo)在圖像中的位置。建筑等小幅員目標(biāo)在圖像中具有“識(shí)別即定位”的特點(diǎn),無需選取定位基準(zhǔn)面,為基于目標(biāo)特征的ATR技術(shù)在對(duì)陸導(dǎo)彈目標(biāo)識(shí)別任務(wù)中的應(yīng)用提供了理論依據(jù)。然而,傳統(tǒng)方法提取的特征形態(tài)有限,難以滿足導(dǎo)彈打擊任務(wù)的精度和復(fù)雜背景適應(yīng)的能力要求。近年來,基于深度卷積神經(jīng)網(wǎng)絡(luò)的特征提取與目標(biāo)檢測(cè)技術(shù)取得較大進(jìn)展,具有魯棒性強(qiáng)、復(fù)雜背景適應(yīng)能力強(qiáng)等特點(diǎn)。由此提出基于深度學(xué)習(xí)特征匹配的對(duì)陸導(dǎo)彈目標(biāo)識(shí)別模型,探討相關(guān)技術(shù)的可行性。

        2 模型設(shè)計(jì)

        2.1 導(dǎo)彈目標(biāo)識(shí)別模型總體架構(gòu)

        設(shè)計(jì)的對(duì)陸導(dǎo)彈導(dǎo)引控制系統(tǒng)結(jié)構(gòu)如圖2所示,飛行姿態(tài)控制主要涉及導(dǎo)引頭、控制系統(tǒng)和彈體3部分。導(dǎo)引頭獲取目標(biāo)圖像,經(jīng)導(dǎo)彈目標(biāo)識(shí)別模型解算后生成彈體導(dǎo)引指令,控制導(dǎo)彈的飛行姿態(tài)。并設(shè)計(jì)反饋結(jié)構(gòu),使彈載計(jì)算機(jī)接收來自操縱面感受元器件和彈體姿態(tài)感受元器件的反饋信息,同時(shí)成像傳感器實(shí)時(shí)捕捉目標(biāo)圖像,實(shí)現(xiàn)對(duì)彈體姿態(tài)的實(shí)時(shí)精確控制。經(jīng)以上分析可知,該系統(tǒng)的核心為導(dǎo)彈目標(biāo)識(shí)別模型。

        圖2 對(duì)陸導(dǎo)彈導(dǎo)引控制系統(tǒng)結(jié)構(gòu)

        基于深度學(xué)習(xí)的對(duì)陸導(dǎo)彈目標(biāo)識(shí)別模型架構(gòu)如圖3所示,對(duì)陸巡航導(dǎo)彈末制導(dǎo)雷達(dá)導(dǎo)引頭獲取目標(biāo)區(qū)域圖像后,將圖像輸入預(yù)處理模塊提高影像質(zhì)量;接著分別傳入識(shí)別模塊和抗干擾模塊,以并行模式處理后將輸出結(jié)果傳入判別分析模塊進(jìn)行綜合判定,最終輸出識(shí)別結(jié)果,生成導(dǎo)引指令對(duì)導(dǎo)彈姿態(tài)控制,并返回導(dǎo)引頭搜索指令調(diào)整雷達(dá)導(dǎo)引頭下次搜索參數(shù)。

        圖3 對(duì)陸導(dǎo)彈目標(biāo)識(shí)別模型架構(gòu)

        對(duì)陸導(dǎo)彈目標(biāo)識(shí)別模型主要包括預(yù)處理、識(shí)別、抗干擾和判別分析4個(gè)模塊。預(yù)處理模塊具備實(shí)現(xiàn)圖像增強(qiáng)和降噪濾波兩功能,用于改善圖像清晰度,提高圖像分析率,為進(jìn)一步處理奠定基礎(chǔ);識(shí)別模塊和抗干擾模塊分別由YOLOv3改進(jìn)算法和Deeplabv3+改進(jìn)算法為核心組成,用于識(shí)別目標(biāo)和排除煙霧干擾;判別分析模塊首先基于目標(biāo)識(shí)別和煙霧區(qū)域分割結(jié)果聯(lián)合目標(biāo)判定,然后分析目標(biāo)位置判別中心誤差,提高末端目標(biāo)識(shí)別的準(zhǔn)確度。

        2.2 預(yù)處理模塊原理

        戰(zhàn)場(chǎng)環(huán)境下影響導(dǎo)引頭成像效果的因素主要有兩類,一類是導(dǎo)引頭的系統(tǒng)噪聲,另一類是導(dǎo)彈相對(duì)目標(biāo)高速運(yùn)動(dòng)帶來的運(yùn)動(dòng)模糊。該模塊利用改進(jìn)順序統(tǒng)計(jì)濾波(improved sequential statistical filtering, ISSF)算法和LR算法改善圖像質(zhì)量。

        2.2.1 ISSF算法

        導(dǎo)引頭系統(tǒng)在干擾條件下產(chǎn)生的噪聲通常為復(fù)合噪聲,包括高斯白噪聲、椒鹽噪聲、1/f噪聲等。當(dāng)前常用濾波算法大多對(duì)單一噪聲有效,但對(duì)復(fù)合噪聲收效甚微。對(duì)此提出ISSF算法,以適應(yīng)任務(wù)需求,其實(shí)現(xiàn)過程[25]如下。

        步驟 1使用5×5的像素提取窗口,計(jì)算窗口中像素灰度最大值Rmax和最小值Rmin。

        步驟 2判斷窗口中心點(diǎn)灰度值Rx,y的大小是否在Rmin和Rmax之間,輸出值為

        (1)

        式中:

        (2Rx-1,y-Rx-2,y)+(2Rx+1,y-Rx+2,y)]

        (2)

        步驟 3輸出像素值Rxyout代替原像素值Rxy。

        式(1)在計(jì)算Rxyout時(shí)進(jìn)行了判斷:當(dāng)Rxy介于Rmin和Rmax之間時(shí),認(rèn)為該點(diǎn)不是噪聲點(diǎn)并輸出原值;否則認(rèn)為該點(diǎn)是噪聲點(diǎn)并輸出Rnew。在計(jì)算Rnew時(shí)假設(shè)鄰域各向梯度具有一致性,以降低將非噪聲極值點(diǎn)誤判為噪聲點(diǎn)造成的過度平滑,最大程度上保留了圖像的細(xì)節(jié)信息。

        2.2.2 LR算法

        運(yùn)動(dòng)模糊圖像可通過基于貝葉斯理論的LR算法得到復(fù)原[26-27],核心原理如下:

        (3)

        式中:g(x,y)表示原始模糊圖像;fn(x,y)表示第n次迭代后圖像;h(x,y)表示退化系統(tǒng)。若退化系統(tǒng)已知,則在LR算法中經(jīng)有限次迭代,即可實(shí)現(xiàn)圖像空間域的復(fù)原,因此解決運(yùn)動(dòng)模糊問題的關(guān)鍵是對(duì)退化系統(tǒng)準(zhǔn)確估計(jì)。假設(shè)圖像為線性模糊,則需對(duì)運(yùn)動(dòng)模糊方向和尺度進(jìn)行準(zhǔn)確估計(jì)。

        文獻(xiàn)[24]指出運(yùn)動(dòng)模糊中高頻成分在運(yùn)動(dòng)方向下降較多,而在其他方向影響較小,可利用該特性在頻域內(nèi)對(duì)運(yùn)動(dòng)模糊方向求解。倒譜法求解運(yùn)動(dòng)方向參數(shù)過程如圖4所示,首先對(duì)退化圖像進(jìn)行快速傅里葉變換(fast Fourier transform, FFT),取對(duì)數(shù)后再逆向FFT(inverse FFT, IFFT),得到倒頻譜后,經(jīng)閾值處理并通過Canny算子對(duì)頻譜二值化,最后利用Radon變換求出模糊矩陣,選取最大值后估算運(yùn)動(dòng)方向角度。

        圖4 倒譜法運(yùn)動(dòng)方向參數(shù)估計(jì)

        聯(lián)合圖像頻率域和空間域的信息實(shí)現(xiàn)運(yùn)動(dòng)尺度參數(shù)估計(jì)。首先將退化圖像FFT操作后轉(zhuǎn)移零頻點(diǎn)至頻譜中心,然后求頻域矩陣各點(diǎn)絕對(duì)值的對(duì)數(shù),按行或列求對(duì)數(shù)和;以圖像空間域中心為起點(diǎn),分別計(jì)算兩側(cè)對(duì)數(shù)和最小值出現(xiàn)的行數(shù)或列數(shù),經(jīng)倍數(shù)轉(zhuǎn)化即可求出運(yùn)動(dòng)尺度估計(jì)。

        對(duì)導(dǎo)引頭圖像首先利用ISSF降噪濾波處理,計(jì)算運(yùn)動(dòng)模糊參數(shù)估計(jì)后使用LR算法進(jìn)行抑制模糊,實(shí)現(xiàn)增強(qiáng)圖像成像效果的目的。

        2.3 識(shí)別模塊原理

        目前深度學(xué)習(xí)目標(biāo)檢測(cè)框架有兩類:檢測(cè)精度較高的雙步法和檢測(cè)效率較好的單步法??紤]到檢測(cè)效率對(duì)導(dǎo)彈打擊精度影響更大,以綜合性能較優(yōu)的YOLOv3單步檢測(cè)神經(jīng)網(wǎng)絡(luò)為基礎(chǔ),通過改進(jìn)網(wǎng)絡(luò)結(jié)構(gòu),提出更適合導(dǎo)彈識(shí)別任務(wù)的目標(biāo)識(shí)別算法。

        對(duì)陸導(dǎo)彈目標(biāo)打擊任務(wù)下達(dá)后,每枚導(dǎo)彈打擊目標(biāo)基本明確,僅需對(duì)單一目標(biāo)網(wǎng)絡(luò)訓(xùn)練,與常規(guī)識(shí)別任務(wù)相比,泛化能力要求不高。但隨著彈目距離減小,導(dǎo)彈識(shí)別全過程中目標(biāo)的尺度差異較大,需增強(qiáng)尺度變化適應(yīng)能力。因此,采用特征金字塔網(wǎng)絡(luò)(feature pyramid networks, FPN)思想,擴(kuò)展多尺度檢測(cè)結(jié)構(gòu),增強(qiáng)網(wǎng)絡(luò)魯棒性[28]。可以通過大量采用深度分離卷積代替普通卷積,降低網(wǎng)絡(luò)參數(shù)量和計(jì)算量以滿足彈載計(jì)算機(jī)的性能。使用k-means聚類算法式(4),距離函數(shù)指標(biāo)為

        (4)

        式中:hmin和hmax分別為縱向最小距離和最大距離;wmin和wmax分別為橫向最小距離和最大距離。預(yù)設(shè)錨框尺寸,進(jìn)一步提高識(shí)別精度。

        基于以上分析,通過精簡(jiǎn)特征提取網(wǎng)絡(luò)、改進(jìn)多尺度特征融合、引入深度分離卷積、錨框尺寸優(yōu)化等措施,設(shè)計(jì)改進(jìn)YOLOv3導(dǎo)彈目標(biāo)識(shí)別網(wǎng)絡(luò)如圖5所示[5]。

        圖5 改進(jìn)YOLOv3網(wǎng)絡(luò)結(jié)構(gòu)

        2.4 抗干擾模塊原理

        深度學(xué)習(xí)語義分割算法可實(shí)現(xiàn)像素級(jí)目標(biāo)分類,適合煙霧等非標(biāo)準(zhǔn)形態(tài)的目標(biāo)檢測(cè)??垢蓴_模塊使用近年來綜合性能優(yōu)異的Deeplabv3+網(wǎng)絡(luò)作為煙霧檢測(cè)基本算法,其網(wǎng)絡(luò)結(jié)構(gòu)如圖6所示。

        圖6 Deeplabv3+算法的網(wǎng)絡(luò)結(jié)構(gòu)

        Deeplabv3+使用Xception 65網(wǎng)絡(luò)提取目標(biāo)特征,由輸入流、中間流和輸出流串聯(lián),生成分辨率為原始圖像1/16的特征張量;將提取的特征張量傳入基于空洞卷積的特征金字塔(atrous spatial pyramid pooling, ASPP)結(jié)構(gòu)。該結(jié)構(gòu)使用3種不同擴(kuò)張率的并行空洞卷積層增大核感受野,經(jīng)拼接處理后通過1×1卷積通道壓縮。解碼器結(jié)構(gòu)中,對(duì)來自ASPP結(jié)構(gòu)的特征張量通過雙線性插值4倍上采樣,然后與來自骨干網(wǎng)絡(luò)的同分辨率特征圖拼接,再次經(jīng)3×3卷積和4倍上采樣操作后輸出分割結(jié)果。

        由于煙霧這類非剛性目標(biāo)空間形態(tài)的尺度變化較大,基礎(chǔ)網(wǎng)絡(luò)難以適應(yīng)煙霧形變??梢詮?個(gè)方面改進(jìn)[29]:首先,通過異感受野融合的方式改進(jìn)ASPP結(jié)構(gòu),提高信息利用率;其次,優(yōu)化骨干網(wǎng)絡(luò)中間流結(jié)構(gòu),將多尺度特征張量拼接傳入Decoder模塊;最后,特征融合中融入通道注意力模塊(channel attention module, CAM),優(yōu)化網(wǎng)絡(luò)通道權(quán)重配置。改進(jìn)后Deeplabv3+算法的網(wǎng)絡(luò)結(jié)構(gòu)如圖7所示。

        圖7 改進(jìn)Deeplabv3+算法的網(wǎng)絡(luò)結(jié)構(gòu)

        2.5 判別分析模塊原理

        判別分析模塊包括目標(biāo)判定和目標(biāo)位置判別中心分析兩個(gè)環(huán)節(jié),其作用是對(duì)來自識(shí)別模塊和抗干擾模塊的輸出結(jié)果聯(lián)合分析,判定識(shí)別目標(biāo)是否成功,并計(jì)算目標(biāo)位置判別中心的位置?;趫?chǎng)景階梯式分析思想[30],將識(shí)別模塊輸出的預(yù)測(cè)框類別進(jìn)行標(biāo)記分級(jí),模型對(duì)上級(jí)大尺度場(chǎng)景成功識(shí)別后,只有在大部分下級(jí)較小尺度場(chǎng)景預(yù)測(cè)框位于上級(jí)場(chǎng)景預(yù)測(cè)框內(nèi)時(shí),才會(huì)進(jìn)行進(jìn)一步的目標(biāo)判定和目標(biāo)位置判別中心分析,否則直接判定為干擾目標(biāo)予以排除。

        目標(biāo)判定環(huán)節(jié)使用閾值法判斷是否識(shí)別目標(biāo)成功。圖像傳入目標(biāo)識(shí)別模塊和抗干擾模塊后,YOLOv3改進(jìn)算法輸出一個(gè)矩形框?qū)崿F(xiàn)目標(biāo)分類和定位,Deeplabv3+改進(jìn)算法輸出煙霧的分割區(qū)域。判斷煙霧區(qū)域是否位于矩形框內(nèi),若不在則認(rèn)為目標(biāo)未被煙霧遮擋,目標(biāo)識(shí)別成功;反之,則通過判斷框得分閾值G0與利用抗干擾式(5)的得分GX:

        (5)

        大小關(guān)系確定目標(biāo)是否識(shí)別成功,若GX≥G0則認(rèn)為識(shí)別成功,否則識(shí)別失敗,需重新識(shí)別。其中,Ssmoke和Sbox分別表示矩形框中煙霧分割區(qū)域的面積和矩形框的面積;scoreX表示輸出該矩形框的得分。

        由于煙霧遮擋干擾,目標(biāo)可能被煙霧貫穿分割成若干個(gè)子區(qū)域,YOLOv3改進(jìn)算法識(shí)別時(shí)將針對(duì)子區(qū)域輸出多個(gè)預(yù)測(cè)框,破壞預(yù)測(cè)框的完整性。對(duì)此提出預(yù)測(cè)框合并規(guī)則,如圖8所示。計(jì)算預(yù)測(cè)框X1和X2相鄰邊界圍成的框間區(qū)域內(nèi)煙霧填充率FX1,X2,若FX1,X2小于預(yù)設(shè)閾值F0則認(rèn)為兩個(gè)預(yù)測(cè)框的分離不是煙霧貫穿分割造成的,不能合并預(yù)測(cè)框;否則,將兩個(gè)預(yù)測(cè)框的外接矩形視為合并框,作為目標(biāo)的輸出。

        圖8 預(yù)測(cè)框的合并規(guī)則

        煙霧填充率的計(jì)算如下:

        (6)

        式中:h和w表示框間區(qū)域的尺寸。

        目標(biāo)位置判別中心分析環(huán)節(jié)使用矩平衡法計(jì)算矩平衡點(diǎn)作為目標(biāo)位置判別中心。煙霧區(qū)域與目標(biāo)預(yù)測(cè)框有3種空間關(guān)系:相離、相交未貫穿和相交且貫穿。假定目標(biāo)矩形區(qū)域服從均一分布特性,則相離情況下幾何中心即為矩平衡點(diǎn);相交未貫穿時(shí)計(jì)算矩平衡點(diǎn):

        (7)

        相交且貫穿時(shí),被分離矩形框中歸一化面積低于設(shè)定閾值S0的分塊則不參與矩計(jì)算,排除小區(qū)域引入的定位誤差,然后利用式(7)計(jì)算矩平衡點(diǎn)。

        3 模型仿真與性能測(cè)試

        在Tensorflow環(huán)境下,使用Python編輯器對(duì)模型實(shí)現(xiàn)進(jìn)行仿真,檢測(cè)模型性能。

        3.1 導(dǎo)引頭成像仿真

        導(dǎo)彈打擊想定目標(biāo)如圖9所示,該圖像為無人機(jī)通過可見光成像實(shí)拍的建筑物。在導(dǎo)彈目標(biāo)識(shí)別模型正式測(cè)試前,運(yùn)用密集匹配與重建技術(shù)構(gòu)建該建筑的3D模型并訓(xùn)練好改進(jìn)的YOLOv3識(shí)別網(wǎng)絡(luò),同時(shí)通過煙霧數(shù)據(jù)集訓(xùn)練好改進(jìn)的Deeplabv3+煙霧區(qū)域分割網(wǎng)絡(luò)。運(yùn)用圖像處理技術(shù)進(jìn)行導(dǎo)引頭成像仿真,如圖10所示。圖10(a)為原始圖像,圖10(b)為加入了煙霧遮擋干擾的模擬圖像,圖10(c)是在圖10(b)的基礎(chǔ)上加入運(yùn)動(dòng)方向參數(shù)為127°、尺度參數(shù)為55的運(yùn)動(dòng)模糊,以及由方差為5.67×10-3的白噪聲和密度為5.64×10-3的椒鹽噪聲合成的混合噪聲后生成的導(dǎo)引頭模擬圖像。導(dǎo)引頭模擬圖像樣本集包括220張480×320的單通道灰度圖像,可以測(cè)試導(dǎo)彈目標(biāo)識(shí)別模型的性能。

        圖9 想定目標(biāo)實(shí)拍圖像

        圖10 導(dǎo)引頭成像仿真

        3.2 模型實(shí)現(xiàn)與性能測(cè)試

        預(yù)處理模塊依次通過ISSF算法和LR算法實(shí)現(xiàn)降低噪聲強(qiáng)度和運(yùn)動(dòng)模糊。對(duì)于圖10(c)所示的導(dǎo)引頭模擬圖像,ISSF算法處理后效果如圖11(a)所示;然后FFT求得其頻譜圖如圖11(b)所示;取對(duì)數(shù)后再進(jìn)行IFFT得到倒頻譜,壓縮居中后其頻譜圖如圖11(c)所示;利用Canny邊緣檢測(cè)算法實(shí)現(xiàn)倒譜圖二值化后其頻譜圖如圖11(d)所示;對(duì)二值化圖做θ∈[0,180]的Radon變換后其頻譜圖如圖11(e)所示,對(duì)函數(shù)極大值對(duì)應(yīng)的橫坐標(biāo)加減90°,取計(jì)算后位于區(qū)間[0,180]的計(jì)算結(jié)果即為估計(jì)運(yùn)動(dòng)方向,圖示計(jì)算結(jié)果為125°。對(duì)圖10(c)取計(jì)算運(yùn)動(dòng)尺度大小為65,將運(yùn)動(dòng)方向和尺度參數(shù)傳入LR算法,運(yùn)動(dòng)模糊復(fù)原效果如圖11(f)所示,至此完成預(yù)處理。

        圖11 預(yù)處理過程

        以每秒檢測(cè)幀數(shù)(frames per second, FPS)為效率評(píng)價(jià)指標(biāo),以皮爾遜積矩相關(guān)系數(shù)(pearson product-moment correlation coefficient, PPMCC)測(cè)定預(yù)處理前后圖像的空間相關(guān)性,并作為預(yù)處理效果評(píng)價(jià)指標(biāo)。計(jì)算方法如下:

        (8)

        利用模擬圖像樣本集,考察預(yù)處理模塊復(fù)原性能與LR算法迭代次數(shù)的關(guān)系,結(jié)果如表1所示。綜合考慮導(dǎo)彈目標(biāo)識(shí)別任務(wù)要求,將LR算法的迭代次數(shù)設(shè)置為16,此時(shí)PPMCC為0.941,FPS為47,同時(shí)具備較高的復(fù)原精度和效率。閾值法判定識(shí)別結(jié)果如圖12所示。

        表1 預(yù)處理模塊復(fù)原性能測(cè)試

        圖12 煙霧區(qū)目標(biāo)識(shí)別結(jié)果

        圖12(a)為預(yù)處理后的導(dǎo)引頭模擬圖像,圖12(b)為訓(xùn)練好的識(shí)別模塊對(duì)目標(biāo)識(shí)別結(jié)果,圖12(c)為訓(xùn)練好的抗干擾模塊檢測(cè)到的煙霧區(qū)域。設(shè)置判定閾值G0=0.1,目標(biāo)預(yù)測(cè)框得分為0.12,經(jīng)測(cè)算預(yù)測(cè)框內(nèi)煙霧區(qū)域面積占比為50.11%,利用式(5)計(jì)算該圖抗干擾得分為GX=0.06,小于設(shè)定的閾值,因此認(rèn)為本幀圖像識(shí)別失敗。由本例可知,閾值法判定規(guī)則通過將抗干擾得分低的識(shí)別結(jié)果認(rèn)定為識(shí)別失敗,排除了較差識(shí)別結(jié)果對(duì)模型識(shí)別性能的影響,有利于提高模型識(shí)別穩(wěn)定性。

        預(yù)測(cè)框合并處理結(jié)果如圖13所示。設(shè)置煙霧填充率閾值F0=0.5,圖13(a)為某張預(yù)處理后的圖像,圖13(b)為識(shí)別模塊識(shí)別結(jié)果,圖13(c)為煙霧檢測(cè)結(jié)果。經(jīng)測(cè)算,圖13(b)兩框間煙霧填充率為FX1,X2=0.631,滿足FX1,X2>F0,因此將兩預(yù)測(cè)框的外接矩形作為新的目標(biāo)預(yù)測(cè)框,如圖13(d)所示。由本例可知,合并框具有比單一框更好的目標(biāo)覆蓋效果,有效排除了煙霧貫穿目標(biāo)區(qū)造成的單一框目標(biāo)位置判別精度差等問題,有利于提高算法識(shí)別定位精度。

        圖13 預(yù)測(cè)框合并規(guī)則處理結(jié)果

        目標(biāo)定位精度分析如圖14所示。A為標(biāo)注框中心,認(rèn)為該點(diǎn)為目標(biāo)位置基準(zhǔn)點(diǎn);B為矩平衡法計(jì)算的輸出框目標(biāo)位置判別中心,二者間的相對(duì)定位偏差由γ表示,由圖14可知滿足:

        圖14 定位精度分析示意圖

        γ=max[m,n]

        (9)

        γ≤1則說明導(dǎo)引點(diǎn)位于目標(biāo)區(qū)域,模型能正確捕捉到目標(biāo);反之則說明丟失目標(biāo)。

        以目標(biāo)識(shí)別準(zhǔn)確率P、召回率R、相對(duì)定位偏差γ、γ>1比率和每秒檢測(cè)幀數(shù)FPS為指標(biāo),導(dǎo)彈目標(biāo)識(shí)別模型和基于灰度的歸一化積相關(guān)(normalizated product correlation, NProd)算法經(jīng)典模板匹配算法對(duì)建筑樣本集的整體識(shí)別性能量化分析如表2所示。由表2可知,在存在煙霧遮擋和多種類型干擾條件的情況下,本文導(dǎo)彈目標(biāo)識(shí)別模型P和R均高于基于NProd的模板匹配算法,具備較好的識(shí)別能力;相對(duì)定位偏差γ相近,且γ>1比率均為0,說明模型在滿足判別分析模塊判定準(zhǔn)則的條件下正確標(biāo)記目標(biāo)區(qū)域概率為100%,具備識(shí)別即捕捉的能力和良好的定位精度。但是每秒檢測(cè)幀數(shù)和模型內(nèi)存與基于模板的識(shí)別算法有一定差距,說明本文模型的檢測(cè)效率和工程實(shí)用性存在進(jìn)一步改進(jìn)的空間。

        表2 導(dǎo)彈目標(biāo)識(shí)別模型對(duì)樣本集識(shí)別結(jié)果

        3.3 模型導(dǎo)引精度分析

        本文模型通過分析目標(biāo)在獲取圖像中的位置,解算導(dǎo)彈當(dāng)前位置與目標(biāo)打擊位置的偏差,生成彈體姿態(tài)控制指令,引導(dǎo)導(dǎo)彈飛向目標(biāo)區(qū),因此模型的識(shí)別精度、定位精度和檢測(cè)效率都將對(duì)目標(biāo)位置判別精度產(chǎn)生影響。不考慮導(dǎo)彈其他系統(tǒng)誤差和工程制造精度誤差的前提下,下面分析本文模型的位置判別精度對(duì)導(dǎo)引精度的影響。

        以某型海射對(duì)陸攻擊導(dǎo)彈及相關(guān)參數(shù)為藍(lán)本,設(shè)置仿真參數(shù)如下:導(dǎo)彈在距離目標(biāo)6~12 km時(shí)導(dǎo)引頭首次開機(jī)確定導(dǎo)彈導(dǎo)引方位,導(dǎo)彈在距離目標(biāo)2~6 km時(shí)二次開機(jī)識(shí)別目標(biāo)最佳命中區(qū)。導(dǎo)彈末端馬赫數(shù)M=0.62 Ma,成像系統(tǒng)光學(xué)視場(chǎng)角為4.8°×3.2°,輸出像元數(shù)480×320,每個(gè)像素對(duì)應(yīng)視角為0.01°×0.01°,典型建筑目標(biāo)尺寸為50 m×50 m×30 m,最佳命中區(qū)為3 m×3 m×3 m。依據(jù)前文識(shí)別結(jié)果,目標(biāo)識(shí)別算法正確輸出的最小識(shí)別框?yàn)?1×13像素、煙霧條件下目標(biāo)位置判別中心平均偏移為27.4%、檢測(cè)效率為 9.73 FPS,設(shè)定模型能夠識(shí)別目標(biāo)最小視角為0.21°×0.13°,γ=0.274,檢測(cè)周期τ=0.103 s。

        目標(biāo)識(shí)別模型引起的視線角誤差如圖15所示。

        圖15 目標(biāo)識(shí)別模型引起的視線角誤差

        假設(shè)導(dǎo)彈沿虛線A′A飛行,T0時(shí)刻導(dǎo)彈位于點(diǎn)A,目標(biāo)最佳導(dǎo)引點(diǎn)位于點(diǎn)B,彈目距離為d,真實(shí)視線角大小為θ。目標(biāo)識(shí)別模型檢測(cè)效率并非無限大,導(dǎo)彈在A點(diǎn)時(shí)控制模型接收到的導(dǎo)引指令,乃是上一周期目標(biāo)識(shí)別時(shí)導(dǎo)彈在A′點(diǎn)的模型輸出視線角θ′解算后得到的,由于存在目標(biāo)位置判別中心偏移,在A′點(diǎn)時(shí)模型輸出的目標(biāo)位置判別中心點(diǎn)位于B′。記目標(biāo)位置判別中心偏移引起的視線角誤差為Δθ1(偏移遠(yuǎn)離航路為正),檢測(cè)周期引起的視線角誤差為Δθ2(導(dǎo)彈接近目標(biāo)時(shí)為正),在A點(diǎn)模型引起的視線角誤差為

        Δθ=|θ-θ′|=|Δθ1-Δθ2|

        (10)

        由幾何關(guān)系得

        (11)

        (12)

        設(shè)定音速為us,BB′方向上目標(biāo)的尺度為r,聯(lián)立式(10)~式(12)可得

        (13)

        圖16 初次開機(jī)后導(dǎo)引頭視線角誤差

        圖17 導(dǎo)引頭二次開機(jī)對(duì)最佳命中區(qū)的識(shí)別

        文獻(xiàn)[20]指出,使用提供區(qū)分服務(wù)的信道接入?yún)f(xié)議系統(tǒng)的某型巡航導(dǎo)彈對(duì)陸上目標(biāo)的識(shí)別理論精度為6~10 m,實(shí)戰(zhàn)精度為15~18 m。本文模型在仿真實(shí)驗(yàn)中,導(dǎo)引頭初次開機(jī)目標(biāo)識(shí)別時(shí)視線角導(dǎo)引誤差不大于0.3°,在二次開機(jī)識(shí)別最佳命中區(qū)時(shí)空間誤差不大于1.42 m,具備更好的導(dǎo)引精度,驗(yàn)證了基于深度學(xué)習(xí)的對(duì)陸導(dǎo)彈目標(biāo)識(shí)別模型的可行性和有效性。

        4 結(jié) 論

        在艦載對(duì)陸攻擊巡航導(dǎo)彈末制導(dǎo)自動(dòng)目標(biāo)識(shí)別技術(shù)中,針對(duì)傳統(tǒng)的基于前視模板匹配算法難以直接識(shí)別和跟蹤建筑等小型固定目標(biāo)的問題,提出基于深度學(xué)習(xí)的對(duì)陸導(dǎo)彈目標(biāo)識(shí)別模型。該模型對(duì)導(dǎo)引頭圖像預(yù)處理后,利用訓(xùn)練好的深度學(xué)習(xí)網(wǎng)絡(luò)識(shí)別目標(biāo),并通過并行識(shí)別方案排除煙霧遮擋干擾,經(jīng)判斷識(shí)別成功后直接輸出導(dǎo)引中心位置。仿真實(shí)驗(yàn)證明,該模型對(duì)陸上建筑目標(biāo)有更好的識(shí)別精度,為對(duì)陸導(dǎo)彈自動(dòng)目標(biāo)識(shí)別提供了新的技術(shù)手段,對(duì)提高對(duì)陸導(dǎo)彈的作戰(zhàn)能力具有較高的實(shí)際意義。

        猜你喜歡
        導(dǎo)引頭煙霧導(dǎo)彈
        薄如蟬翼輕若煙霧
        導(dǎo)彈燃料知多少
        軍事文摘(2020年14期)2020-12-17 06:27:16
        影視劇“煙霧繚繞”就該取消評(píng)優(yōu)
        正在發(fā)射的岸艦導(dǎo)彈
        攔截那枚導(dǎo)彈
        咸陽鎖緊煙霧與塵土
        導(dǎo)彈轉(zhuǎn)運(yùn)
        全極化雷達(dá)導(dǎo)引頭抗干擾技術(shù)
        半捷聯(lián)雷達(dá)導(dǎo)引頭視線角速度提取
        一種捷聯(lián)式圖像導(dǎo)引頭的解耦算法
        久久精品国产亚洲av超清| 91青草久久久久久清纯 | 国产香蕉尹人综合在线观| 欧美综合图区亚洲综合图区| 国产人妖赵恩静在线视频| 国产一区二区三区在线影院| 国产一区二区三区免费精品视频| 国产激情久久久久久熟女老人| 午夜视频在线在免费| 在线观看国产精品日韩av| 999国产精品视频| 久久这里只有精品黄色| 男女打扑克视频在线看| 日本久久伊人特级黄色| 日本19禁啪啪吃奶大尺度| av无码久久久久久不卡网站| av天堂精品久久久久| 免费观看视频在线播放| 一区二区三区在线乱码| 蜜臀av在线观看| 欧美日韩一区二区三区自拍| 国产高清a| 澳门精品一区二区三区| 水蜜桃在线精品视频网| 日本熟妇hdsex视频| 欧美理论在线| 国产伦精品一区二区三区在线| 青青草手机在线观看视频在线观看| 寂寞少妇做spa按摩无码| 99re6热在线精品视频播放6| 99国产综合精品-久久久久 | 日本一区二区三级免费| 免费a级毛片在线播放| 无码人妻精品一区二区三区下载| 日本精品一区二区三本中文| 国产一级一片内射视频在线| 国产激情久久久久影院小草| 久久久精品人妻一区二区三区蜜桃 | 一区一级三级在线观看| 网友自拍人妻一区二区三区三州| 国产成人综合精品一区二区|