亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于F-CNN的雷達(dá)目標(biāo)辨識算法

        2019-03-22 05:41:34,,
        關(guān)鍵詞:精簡識別率雷達(dá)

        , , ,

        (1.國防科技大學(xué)電子對抗學(xué)院, 安徽合肥 230031;2.空軍研究院戰(zhàn)略預(yù)警研究所, 北京 100089)

        0 引 言

        近年來,隨著電子戰(zhàn)的重要性日益凸顯,敵我雙方對電磁頻譜的爭奪逐漸加劇,雷達(dá)干擾技術(shù)迅速發(fā)展且相關(guān)新興技術(shù)被廣泛應(yīng)用[1]。同時,雷達(dá)抗干擾技術(shù)也獲得相應(yīng)的發(fā)展。但是,這些抗干擾措施[2-4]更多依賴人工判斷和設(shè)定,缺乏客觀性和精確性,這也成為制約雷達(dá)抗干擾技術(shù)發(fā)展的關(guān)鍵因素之一[5]。

        近些年,深度學(xué)習(xí)算法研究發(fā)展迅速,將相關(guān)算法應(yīng)用到電子戰(zhàn)中正逐漸成為雷達(dá)抗干擾研究的新趨勢[6]。姚毅等將卷積神經(jīng)網(wǎng)絡(luò)(Convolu-tional Neural Network, CNN)運(yùn)用到雷達(dá)反欺騙干擾領(lǐng)域[7],不依賴設(shè)計者的經(jīng)驗,采用數(shù)據(jù)訓(xùn)練,取得了98.83%的識別率。但是,姚毅等搭建的卷積神經(jīng)網(wǎng)絡(luò)存在識別參數(shù)龐大的問題,不利于實(shí)時處理。

        本文提出了一種基于分解卷積神經(jīng)網(wǎng)絡(luò)(Factorized Convolutional Neural Network, F-CNN)的雷達(dá)目標(biāo)辨識算法。以深度可分離卷積[7](Depthwise Separable Convolution, DSC)結(jié)構(gòu)為基礎(chǔ)搭建分解卷積神經(jīng)網(wǎng)絡(luò),以及對分解卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行精簡[8],使用實(shí)測數(shù)據(jù)對兩個網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練和測試,并對結(jié)果進(jìn)行分析討論。

        1 分解卷積神經(jīng)網(wǎng)絡(luò)的模型結(jié)構(gòu)

        本節(jié)詳細(xì)介紹具體的卷積結(jié)構(gòu)(深度可分離卷積結(jié)構(gòu))及網(wǎng)絡(luò)模型(分解卷積神經(jīng)網(wǎng)絡(luò)模型)。

        1.1 深度可分離卷積的結(jié)構(gòu)

        假設(shè)輸入圖像矩陣I∈h×w×m,其中h表示圖像的高,w表示圖像的寬,m表示圖像通道數(shù);卷積核矩陣K∈k×k×m×n,其中k表示卷積核尺寸,n表示卷積核數(shù)。在標(biāo)準(zhǔn)卷積運(yùn)算中,取步長為1,且對邊界不進(jìn)行補(bǔ)零操作時,輸出圖像矩陣為O∈(h-k+1)×(w-k+1)×n。計算公式[7]為

        I(y+u-1,x+v-1,i)

        1≤y≤h-k+1,1≤x≤w-k+1,1≤j≤n

        (1)

        式中,O(y,x,j)表示標(biāo)準(zhǔn)卷積輸出圖像矩陣O的第(y,x,j)個元素。式(1)其他矩陣類似O(y,x,j)表述的含義與其含義相似。

        式(1)的計算量為

        C1=k2mnhw

        (2)

        標(biāo)準(zhǔn)卷積的卷積核模型如圖1所示。

        圖1 標(biāo)準(zhǔn)卷積核

        深度可分離卷積是將標(biāo)準(zhǔn)卷積運(yùn)算分解為逐通道卷積(Depthwise Convolution,DC)和逐點(diǎn)卷積(Pointwise Convolution,PC)。逐通道卷積過濾輸入圖像,提取特征。逐點(diǎn)卷積則是將提取的特征進(jìn)行加權(quán)合并。

        逐通道卷積的卷積核和逐點(diǎn)卷積的卷積核模型分別如圖2和圖3所示。

        圖2 逐通道卷積核

        圖3 逐點(diǎn)卷積核

        給定輸入圖像矩陣,逐通道卷積核P∈k×k×1×m,逐點(diǎn)卷積核Q∈1×1×m×n。在卷積運(yùn)算步長為1,且對邊界不進(jìn)行補(bǔ)零操作時,通過分解卷積運(yùn)算,可以得到輸出圖像矩陣。計算過程如下:

        逐通道卷積公式[7]為

        I(y+u-1,x+v-1,j)

        1≤m≤h-k+1, 1≤n≤w-k+1, 1≤j≤m

        (3)

        式中,G(m,n,j)表示逐通道卷積后輸出矩陣G中的第(m,n,j)個元素。式(3)其他矩陣類似G(m,n,j)表述的含義與其含義相似。

        逐點(diǎn)卷積公式[7]為

        1≤y≤h-k+1, 1≤x≤w-k+1, 1≤l≤n

        (4)

        式(4)其他矩陣類似G(m,n,j)表述的含義與其含義相似。

        深度可分離卷積的計算量為

        C2=k2mhw+mnhw

        (5)

        深度可分離卷積的計算量與標(biāo)準(zhǔn)卷積的計算量之比,可以得到如下結(jié)果:

        (6)

        式中,當(dāng)k=5,n=32時,η≈7%,即相同情況下深度可分離卷積運(yùn)算的計算量僅有標(biāo)準(zhǔn)卷積運(yùn)算的7%。

        1.2 模型搭建與訓(xùn)練

        參照卷積神經(jīng)網(wǎng)絡(luò)的經(jīng)典模型LeNet-5[9],并比照卷積神經(jīng)網(wǎng)絡(luò)模型[7],搭建分解卷積神經(jīng)網(wǎng)絡(luò)。其網(wǎng)絡(luò)框圖如圖4所示。

        圖4 分解卷積神經(jīng)網(wǎng)絡(luò)框圖

        分解卷積神經(jīng)網(wǎng)絡(luò)由1個輸入層、3個卷積層(1個標(biāo)準(zhǔn)卷積和2個分解卷積)、1個池化層、2個全連接層、1個輸出層組成。實(shí)際運(yùn)算中,為了及時有效地調(diào)整數(shù)據(jù),需要引入塊歸一化(Batch Normalization)操作[10]、激活(Activation)操作[11]、平整(Flatten)操作、棄離(Dropout)操作。塊歸一化操作可使輸出服從均值為0、方差為1的標(biāo)準(zhǔn)正態(tài)分布。引入激活函數(shù)可以添加輸出的非線性因素。平整操作則是將矩陣?yán)斐上蛄?,便于全連接層進(jìn)行特征提取。棄離操作是為了有效減少過擬合的情況。

        各個層級輸出樣本大小和參數(shù)數(shù)量如表1所示。

        表1 分解卷積神經(jīng)網(wǎng)絡(luò)輸出樣本大小和參數(shù)數(shù)量統(tǒng)計

        注:輸出大小中的“None”表示不限制輸出和輸入的數(shù)量。

        分解卷積神經(jīng)網(wǎng)絡(luò)模型中,6個層級共使用了5 929 283個參數(shù),是卷積神經(jīng)網(wǎng)絡(luò)參數(shù)數(shù)量的近3倍。同時全連接層參數(shù)數(shù)目占總參數(shù)數(shù)目的99.75%。

        參數(shù)數(shù)量過多將會嚴(yán)重影響識別的速率,為此對該網(wǎng)絡(luò)模型進(jìn)行精簡,搭建精簡分解卷積神經(jīng)網(wǎng)絡(luò)。在原網(wǎng)絡(luò)層數(shù)不變的前提下減少卷積核數(shù)和第一個全連接層連接節(jié)點(diǎn)數(shù)。精簡分解卷積神經(jīng)網(wǎng)絡(luò)框圖如圖5所示。

        圖5 精簡分解卷積神經(jīng)網(wǎng)絡(luò)框圖

        精簡分解卷積神經(jīng)網(wǎng)絡(luò)與分解卷積神經(jīng)網(wǎng)絡(luò)相比較,各個層級的參數(shù)數(shù)量均減少,而全連接層參數(shù)數(shù)量減少得最多。各個層級輸出大小和參數(shù)數(shù)量統(tǒng)計如表2所示。

        表2 精簡分解卷積神經(jīng)網(wǎng)絡(luò)輸出樣本大小和參數(shù)數(shù)量統(tǒng)計

        注:“None”表示對輸出圖片的數(shù)量并沒有限制。

        精簡分解卷積神經(jīng)網(wǎng)絡(luò)中6個層級共使用186 371個參數(shù),全連接層參數(shù)依舊占到了全部參數(shù)的99%以上。

        2 網(wǎng)絡(luò)模型的訓(xùn)練與測試

        本節(jié)主要講述用實(shí)測數(shù)據(jù)樣本對兩個網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練和測試,并對測試結(jié)果進(jìn)行比較分析。

        實(shí)驗數(shù)據(jù)均為實(shí)測數(shù)據(jù),數(shù)據(jù)包括真實(shí)目標(biāo)樣本、地雜波樣本、密集假目標(biāo)樣本。數(shù)據(jù)二維平面顯示如圖6所示。

        圖6 某型雷達(dá)實(shí)測數(shù)據(jù)不同樣本平面顯示

        對采集到的數(shù)據(jù)進(jìn)行合理切塊和數(shù)據(jù)擴(kuò)充。組建相應(yīng)的訓(xùn)練集和測試集,對搭建好的網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練和測試。數(shù)據(jù)擴(kuò)充可以彌補(bǔ)數(shù)據(jù)量不足的缺點(diǎn),增加訓(xùn)練集和測試集。擴(kuò)充方式如圖7所示。

        圖7 數(shù)據(jù)擴(kuò)充

        網(wǎng)絡(luò)模型的訓(xùn)練和測試均是基于Keras深度學(xué)習(xí)框架,采用Python語言編寫程序。實(shí)驗使用的具體硬件平臺為CPU:Inter Xeon E5-2620 v3 @2.4 GHz,GPU:GTX TITAN X。

        采用與卷積神經(jīng)網(wǎng)絡(luò)相同的數(shù)據(jù)對模型進(jìn)行訓(xùn)練和測試,在每一輪迭代結(jié)束后統(tǒng)計識別率,可以得到如圖8所示的統(tǒng)計結(jié)果。

        圖8 3種模型識別率比較

        圖8表明,分解卷積神經(jīng)網(wǎng)絡(luò)和精簡分解卷積神經(jīng)網(wǎng)絡(luò)在經(jīng)過3次迭代之后,其識別率均比卷積神經(jīng)網(wǎng)絡(luò)更高。

        3種模型由于卷積結(jié)構(gòu)、卷積核尺寸和全連接層連接節(jié)點(diǎn)不同,使得其識別率和參數(shù)數(shù)量兩種性能均存在差異。對兩種性能進(jìn)行統(tǒng)計,得到表3。

        表3 3種網(wǎng)絡(luò)模型綜合性能分析

        表3表明分解卷積神經(jīng)網(wǎng)絡(luò)的識別率最高,但是參數(shù)數(shù)量也是最多,是卷積神經(jīng)網(wǎng)絡(luò)的近3倍。精簡分解卷積神經(jīng)網(wǎng)絡(luò)識別率也較高,參數(shù)數(shù)量卻僅占卷積神經(jīng)網(wǎng)絡(luò)的8.56%。

        3 結(jié)束語

        雷達(dá)目標(biāo)辨識是雷達(dá)抗干擾的基礎(chǔ)。本文提出了基于分解卷積神經(jīng)網(wǎng)絡(luò)的雷達(dá)目標(biāo)辨識算法,實(shí)測雷達(dá)數(shù)據(jù)處理結(jié)果表明,分解卷積神經(jīng)網(wǎng)絡(luò)的識別率在卷積神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)上再提升近一個百分點(diǎn),但是網(wǎng)絡(luò)參數(shù)量龐大,不利于實(shí)時高效處理。精簡分解卷積神經(jīng)網(wǎng)絡(luò)在卷積神經(jīng)網(wǎng)絡(luò)識別率的基礎(chǔ)上提升0.4個百分點(diǎn),參數(shù)數(shù)量大幅度減少,僅占卷積神經(jīng)網(wǎng)絡(luò)參數(shù)數(shù)量的8.56%。與卷積神經(jīng)網(wǎng)絡(luò)相比較,本文所提的算法對真實(shí)目標(biāo)樣本、地雜波樣本、密集假目標(biāo)樣本均能提升辨識準(zhǔn)確率。如何對真實(shí)目標(biāo)進(jìn)行詳細(xì)區(qū)分將是下一步的研究重點(diǎn)。

        猜你喜歡
        精簡識別率雷達(dá)
        有雷達(dá)
        大自然探索(2023年7期)2023-08-15 00:48:21
        基于類圖像處理與向量化的大數(shù)據(jù)腳本攻擊智能檢測
        基于真耳分析的助聽器配戴者言語可懂度指數(shù)與言語識別率的關(guān)系
        雷達(dá)
        時常精簡多余物品
        特別健康(2018年2期)2018-06-29 06:14:00
        提升高速公路MTC二次抓拍車牌識別率方案研究
        一種面向應(yīng)用的流量監(jiān)測精簡架構(gòu)設(shè)計
        電子制作(2017年17期)2017-12-18 06:40:47
        高速公路機(jī)電日常維護(hù)中車牌識別率分析系統(tǒng)的應(yīng)用
        基于空時二維隨機(jī)輻射場的彈載雷達(dá)前視成像
        現(xiàn)代“千里眼”——雷達(dá)
        全部免费国产潢色一级| 乱色欧美激惰| 国产精品欧美一区二区三区| 国产又爽又黄的激情精品视频| 亚洲图片第二页| 亚洲综合视频一区二区| 特黄大片又粗又大又暴| 成人免费ā片在线观看| 国产爆乳美女娇喘呻吟久久| 一本色道久久亚洲精品| 亚洲精品www久久久久久| 99这里只有精品| 喷潮出白浆视频在线观看| 91九色最新国产在线观看| 国产av无码专区亚洲av蜜芽| 国产精品密播放国产免费看| 成人女同av免费观看| 久久精品亚洲熟女av蜜謦| 国产成人无码一区二区在线播放| 在线观看av手机网址| 日本一二三区在线视频观看| 亚洲开心婷婷中文字幕| 97精品人妻一区二区三区香蕉| 亚洲精品成人国产av| 韩国三级黄色一区二区| 亚洲日韩av无码一区二区三区人| 狠狠色狠狠色综合久久第一次| 国产中文字幕亚洲综合| 亚洲中文字幕舔尻av网站| 精品水蜜桃久久久久久久| 自拍亚洲一区欧美另类| 精品国产三区在线观看| 五月天中文字幕mv在线| 亚洲人成网站77777在线观看 | 女同恋性吃奶舌吻完整版| 国产欧美日韩一区二区三区| 亚洲免费视频播放| 精品中文字幕久久久人妻| 国产精品亚洲片在线观看不卡| 少妇太爽了在线观看| 一区二区亚洲 av免费|