亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于自注意力機制的雷達弱目標檢測

        2023-09-13 08:44:18齊美彬李亞斌項厚宏楊艷芳張學森
        雷達科學與技術 2023年4期
        關鍵詞:注意力雷達建模

        齊美彬,李亞斌,項厚宏,楊艷芳,張學森

        (1.合肥工業(yè)大學計算機與信息工程學院,安徽合肥 230009;2.中國電子科技集團公司第三十八研究所,安徽合肥 230088)

        0 引 言

        近年來,小型無人機等一系列低空慢速的小目標的研發(fā)實現了較快的發(fā)展,其數量也日益增多。為了更好地防止低空事故的發(fā)生,如何檢測到這些弱目標,成為了近年來雷達領域的熱點之一。但是在雷達目標檢測中,弱目標因其散射截面積(Radar Cross Section, RCS)小,信噪比(Signal to Noise Ratio,SNR)低,給檢測任務帶來了巨大的挑戰(zhàn)。

        傳統(tǒng)雷達弱目標的檢測大多采用恒虛警方法(Constant False Alarm Rate, CFAR)[1-2]實現目標的定位。但是,由于其回波能量小于周圍雜波與噪聲,引發(fā)大量虛警、漏警現象。該方法的性能過分地依賴于門限值的設定,對目標檢測結果造成一定的干擾。

        由于卷積神經網絡(Convolutional Neural Network,CNN)[3-4]具備良好的特征提取能力,其已經成功在計算機視覺、自然語言處理等多個領域取得了良好的性能。受到基于深度學習的視覺目標檢測成果[5-8]的啟發(fā),在卷積神經網絡應用于雷達目標檢測方面,本文進行了初步探索。

        文獻[9]設計了一種基于CNN 的檢測器實現雷達目標的檢測。與傳統(tǒng)CFAR 檢測器不同,該方法通過使用窗口函數在距離-多普勒(Range-Doppler,RD)圖上滑動,根據網絡學習到的窗口內的雷達信號特征,來判斷滑窗內的RD 圖是否包含目標。該檢測器采用兩個卷積層和兩個池化層去提取雷達信號特征。RadCNN[10]在文獻[9]的基礎上,加深了網絡的卷積層至四層,并采用動量隨機梯度下降法對網絡進行訓練。但是該類算法沒有考慮RD 圖中區(qū)域之間的相關性,無法應對低信噪比情況下的小目標的檢測。同時,由于滑窗大小是固定的,此類方法容易發(fā)生小目標的漏檢情況,目標的定位精度有待提高。

        針對上述問題,本文采用U-Net網絡[11-12],通過對RD 圖中的雷達信號進行編碼和解碼操作,從而實現逐單元的目標檢測。此外,本文在網絡中引入了自注意力模塊[13-14],因其RD 矩陣中目標點特殊的幅度信息和相位信息,網絡根據數據驅動的方式建模輸入信號中任意兩個信號間的關系,來獲取RD 矩陣中具有辨別性的深度語義特征從而提高網絡的全局關系建模能力。該網絡可以進行端到端的檢測訓練,且可以對任意尺寸的雷達回波數據進行編碼,再將其解碼恢復數據原來尺寸大小,因此可以靈活地應用于多種雷達信號檢測場景中。

        具體來說,本文根據信號預處理模塊得到的距離-多普勒(RD)復數矩陣,擴展為實部、虛部、模值三個通道矩陣,并將其輸入到深度學習網絡框架中訓練。對每個距離和速度單元都產生了一個預測,同時加入自注意力模塊建模多個映射空間的雷達信號自注意力關系來獲取更加豐富的特征信息,從而精確的定位目標點所在的距離單元和多普勒信息。

        此外,本文進行了廣泛的實驗證明了所提出方法的有效性。實驗的可視化效果證明了本文的方法是優(yōu)于傳統(tǒng)CFAR 檢測的方法,檢測性能在低信噪比場景下具有較強的魯棒性,能夠實現對弱目標的有效檢測。

        1 雷達信號檢測框架

        本文采用的方法總體分為3個模塊:預處理模塊、檢測模塊、結果模塊,如圖1所示。

        圖1 信號檢測框架

        預處理模塊:對于雷達信號本文采用線性調頻(LFM)發(fā)射信號。在持續(xù)時間內,LFM信號的實部和虛部都為時間的振蕩函數,信號頻率隨時間呈線性規(guī)律,其示意圖如圖2所示。

        圖2 線性調頻波信號

        根據RD 矩陣中目標點的幅度信息和相位信息,網絡根據數據驅動的方式建模輸入信號中任意兩個信號間的關系,來獲取RD 矩陣中具有辨別性的深度語義特征,從而提高網絡的全局關系建模能力。

        因此雷達回波數據的預處理通過脈沖壓縮、多普勒處理之后,形成的雷達數據是一個距離-多普勒二維矩陣X。矩陣中每個像素都以復數i + jQ形式表示,包含實部和虛部。矩陣X的行代表距離信息,X的列代表速度信息。為了便于深度網絡的處理,本文將單通道的矩陣X整合成三通道矩陣X。3 個通道分別由矩陣X的實數、虛數和絕對值構成。絕對值通道用于更好地讓網絡獲取數據中的幅度信息,實數和虛數通道則是讓網絡來獲取數據中的相位信息。

        檢測模塊:由于自注意力機制模塊可以獲取輸入信號中任意兩個信號間的關系,不需要任何先驗信息,是一種數據驅動的網絡。因此,其可以由任務自身驅動,自動學習雷達信號間的關系,獲得雷達的全局信息和長時依賴。而U-Net作為卷積神經網絡,包含編碼和解碼模塊,其通過局部先驗獲取雷達信號的局部關系,但其在長期依賴的建模能力尚且不足。綜上,兩個網絡的結合可以形成功能性的互補。因此為了提高雷達信號的特征的辨別性,本文在U-Net 網絡中加入自注意力模塊,構建出基于自注意力機制的U-Net網絡,利用自注意力機制模塊提高U-Net 網絡的全局關系建模能力,從而改善特征的辨別性來提高網絡檢測的魯棒性。網絡通過大量數據訓練來提取目標的特征信息,從而獲取目標所在位置來代替CFAR 檢測。網絡的具體實現過程見本文第2 節(jié)。

        結果模塊:多普勒處理后的RD 矩陣經過檢測模塊后,得到僅含目標的距離多普勒圖。

        2 檢測網絡

        為了逐像素預測RD 圖中是否包含目標,本文采用了具有編碼和解碼結構的U 型網絡作為雷達檢測網絡的主體框架。在此主體網絡的基礎之上,本文引入了自注意力模塊建模雷達信號間的關系。其中,U-Net 主體框架的實現過程在2.1 節(jié)中詳細介紹,自注意力模塊的網絡結構在2.2 節(jié)中詳細介紹。

        2.1 基于U-Net的雷達目標檢測網絡

        U-Net 網絡廣泛應用于計算機視覺中圖像語義分割等領域,并獲得了良好的效果。具體來說,采用U-Net 網絡作為雷達目標檢測網絡的主要原因如下:1)U-Net 網絡主要由編碼和解碼部分構成,編碼結構可以使用任意的網絡結構,解碼結構使整體網絡更加完善,能夠提高網絡對目標特征的擬合程度;2)該網絡可采用端到端的方式,對雷達數據進行逐單元預測,輸入與輸出的尺寸相同,因此可以靈活地應用于多種雷達信號檢測場景中;3)與全卷積網絡(FCN)[15]相比,該網絡有更長距離的殘差連接,其可以保留雷達回波數據的多尺度原始數據信息,從而應對弱目標的尺寸變化,同時其能夠有效地防止網絡的梯度消失。

        U-Net 網絡主要包含兩個部分:編碼器和解碼器。1)編碼器,用于對數據進行特征提取。具體來說,編碼器中包含4 個下采樣模塊,每個模塊包含1 個最大池化層,2 個卷積層,其卷積核為3×3、步長為1、填充為1,從而得到不同尺度的特征信息j,j∈{2,3,4,5}。每個模塊都進行卷積層提取特征,并使用最大池化層進行下采樣。4個模塊輸出4個尺度的特征j,從而更好的應對目標的尺度變化。2)解碼器,用于獲取與輸入數據尺寸相同的輸出。解碼部分包含了4 個上采樣模塊,融合特征信息i,i∈{6,7,8,9}。具體來說是對特征信息5 進行上采樣模塊處理。其利用線性插值法對每一層數據進行原尺寸的兩倍填充,得到上采樣特征信息6。同時對該上采樣特征信息6 和其對應層下采樣的特征信息4 進行殘差連接,之后經過一個1×1 卷積層將通道數縮小至一半,恢復到和特征信息4一樣的通道數,從而更好地保留原始雷達多尺度數據信息。相似地,經過4 次上采樣操作,得到特征融合特征信息9,最終輸出與輸入相同尺度的目標位置預測得分圖輸出。圖中每個值被視為輸入RD 圖中對應位置是否包含目標的概率,因此該輸出可用于預測RD 圖每個位置是否包含目標。這使得U-Net 在雷達目標檢測過程中,效果優(yōu)于普通CFAR 檢測以及基于滑窗的深度檢測器。U-Net 網絡框架如圖3所示。

        圖3 U-Net網絡框架

        2.2 自注意力模塊

        為了建模多個映射空間的雷達信號自注意力關系,本文采用了多頭并行自注意力模塊。其中,并行的多個自注意力單元用于在不同的映射空間建模雷達信號的自注意力關系。最后,自注意力模塊整合多頭注意力單元的結果,從而獲取更加豐富的自注意力關系。

        具體來說,每個注意力單元先采用點積的形式,計算Q和K的注意力。由于Q和K來自相同的輸入,因此該注意力記為自注意力。該自注意力機制的優(yōu)點在于,網絡對信息長期依賴關系有著更強的捕捉能力。

        而對于單個注意力單元其結果如圖4所示,將輸入X送進3 個卷積層,得到Q、K、V三個向量。用Q中每一個向量與K中每一個向量計算點積,即score=Q·KT。score中包含Q中每個元素和K中每個元素之間的注意力。將score與V進行點積,即對Q中每個元素,根據其與V中所有元素的注意力值對V中所有元素進行累加得到Z。

        圖4 單個注意力單元

        最終,自注意力模塊將h個并行的注意力單元所獲得的結果進行了拼接,得到了網絡的最終輸出。其網絡框架如圖5所示。

        圖5 自注意力模塊

        自注意力模塊主要包括多頭通道注意[16]、正則化(Layer Normalization,LN)和多層感知器(Multilayer Perceptron,MLP[17])。

        加入自注意力模塊的雷達信號檢測網絡VUNet 如圖6 所示。VU-Net 網絡在U-Net 網絡基礎上,將特征信息輸入到自注意力模塊中,得到輸出特征信息i,i∈{6,7,8,9},再將其與對應的上采樣數據進行拼接。其可以在多個尺度建模雷達信號的自注意力信息,捕捉更加豐富的雷達信號關系,從而提升雷達信號特征的辨別性,進而提升雷達信號檢測的精度。

        圖6 VU-Net網絡框架

        3 實 驗

        3.1 數據集構建

        本文生成的測試U-Net 網絡和傳統(tǒng)CFAR 檢測所需要的雷達回波數據,由線性調頻波(LFM)脈沖調制,其載波工作在3 GHz 載波上,脈沖寬度為50 μs,調頻帶寬為10 MHz,同時添加高斯白噪聲。

        為了更好地證實VU-Net 網絡的優(yōu)越性,本文數據產生與RadCNN 網絡實驗同等量級的數據量,訓練4 000 組帶有目標的距離多普勒矩陣,根據目標設定的距離和速度信息找到其所在的矩陣中位置,將其設置為標簽1,其余沒有目標的點設置為標簽0。將數據送到網絡里訓練。

        對于測試集本文產生2 000 組帶有目標的距離多普勒矩陣,對于標簽設置方法和訓練集設置方法一致。驗證集則是在信噪比為7 背景下仿真2 000 組帶有目標的距離多普勒矩陣,用來消融實驗。

        同時對測試集的數據進行CFAR 檢測。為驗證U-Net網絡的優(yōu)越性,本文設置10組不同信噪比的噪聲背景,將CFAR檢測后的結果,與U-Net網絡和VU-Net網絡的檢測結果進行對比。

        3.2 評估指標

        針對如何判定雷達目標預測的準度,本文用兩個評估指標,分別是Precious(P)精確度:反映系統(tǒng)正確判定1 的樣本中真正的1 的樣本的比重;Recall(R)召回率:反映系統(tǒng)正確判定為1 的樣本占總的1 的樣本的比重。兩個評估指標的計算公式如下:

        式中,True Positive(TP)、False Negative(FN)作為評估標準。其中True Positive(TP)為類別為1 的樣本被系統(tǒng)正確判定為類別1 的比例;False Negative(FN)為類別為1 的樣本被系統(tǒng)誤判定為類別0 的比例;False Positive(FP)表示類別為0 的樣本被系統(tǒng)誤判定為類別1的比例。

        3.3 損失函數

        本文采用的是Dice 損失函數[18-19]。Dice 用于計算兩個樣本的相似度。其計算公式為

        Dice損失的計算公式如下:

        當Y為預測數據,Z為真實標簽時,最小化損失函數可以驅動網絡去增加Y與Z的Dice值,從而增加Y與Z交集,使得預測數據更加接近于真實標簽。

        3.4 參數驗證

        因為多頭在多個映射空間建模雷達信號間的深度關系,所以多頭數h在本文提出的方法中是個至關重要的參數,通過在驗證集上的實驗確定了參數h的數值,實驗結果如圖7所示。

        圖7 參數h驗證結果

        由圖7可以看出,隨著h的增大,準確率P先是增大,而后減小,因為當多頭數過大時,網絡會學到冗余信息,從而使網絡過擬合。召回率R在h等于4 后,隨著h的增大,R的增長不明顯。因此,綜合準確率P與召回率R,選定多頭數h等于4,可以獲得相對較好的檢測性能。所以在實驗中,h均設置為4。

        3.5 實驗結果與分析

        基于自注意力機制的U-Net 網絡的輸入與輸出的尺寸相同。本文在圖8 可視化了信噪比為10的噪聲背景下多普勒處理后的雷達數據,以及網絡的輸出的目標位置預測得分圖。

        圖8 不同網絡檢測后的可視化結果

        從圖8 可以看出,多普勒處理后的RD 數據經過VU-Net 網絡,濾除噪聲,將目標清晰地展現在RD 圖上。網絡能夠精準地預測和定位目標的位置。而U-Net 網絡因其沒有添加自注意力機制,RD 數據特征學習不夠深入,U-Net 網絡只學習到矩陣信息的空間特征,會使目標點的附近單元的信息特征學習不準確,造成假目標現象,從而造成其單元延伸。而自注意力模塊根據數據驅動的方式建模輸入信號中任意兩個信號間的關系,來獲取RD 矩陣中具有辨別性的深度語義特征從而提高網絡的全局關系建模能力,使其檢測更加精確。因此U-Net 網絡檢測后的目標在其附近距離、多普勒單元會有延伸,致使目標檢測不夠精確。相比于U 型網絡,CFAR 檢測器檢測出的RD 圖,不僅在目標附近會有距離和多普勒單元上的延伸,同時還會有一些虛警現象。

        對于實際場景中,本文采用海軍航空大學信息融合研究所劉寧波等人對海探測的公開數據集[20]。通過Matlab 將其一個周期內的雷達回波數據進行讀取,其距離-方位圖如圖9所示。

        圖9 實測海雜波數據

        從圖9 可以看出,海雜波分布極不均勻,且分布也處于未知狀態(tài),以第800 方位為例,讀取回波信號,同時添加雷達回波數據,如圖10所示。

        圖10 添加目標后的海雜波數據

        如圖10 所示,目標信雜比設置為10 dB,雖然該處的目標有明顯的增強,但是強雜波的干擾依然存在。對此,本文設置信雜比8 dB、10 dB、12 dB三組不同信雜比數據,將其送入網絡,得到的雜波抑制實驗結果如圖11所示。

        圖11 雜波干擾下的檢測效果

        由圖11可以看出,在強雜波背景下,該網絡可以有效地抑制雜波,使得目標信號功率得到明顯增強。同時為了進一步驗證基于自注意力機制的U-Net網絡的優(yōu)越性,實驗進行了10組不同信噪比背景下的目標檢測,其準確率P和召回率R在不同網絡和信噪比中的檢測效果如圖12和圖13所示。

        圖12 4種方法在不同SNR下的準確率

        圖13 4種方法在不同SNR下的召回率

        圖12、圖13 所示U-Net 網絡在檢測概率上明顯優(yōu)于CNN 檢測器和CFAR 檢測器,特別是在回波信號干擾能量大的背景下,用傳統(tǒng)CFAR 檢測會出現大量的漏警現象,導致檢測概率會比較低,同時CNN 網絡雖然一定程度上改善了CFAR 檢測器檢測目標和噪聲所帶來的巨大誤差,但是因其網絡沒有考慮區(qū)域間的相關性,網絡捕捉回波信息的不足,其檢測概率也略低。

        同時VU-Net在信噪比1到5的背景下,其準確度的衰減程度要低于CFAR 檢測,VU-Net 網絡檢測不會因信噪比越來越低從而導致網絡的檢測準確度迅速下降。證明了VU-Net網絡對雷達回波數據有著良好的魯棒性。而U-Net 的準確度在信噪比為1 到10 的背景下要低于VU-Net。因此證明了VU-Net網絡在對信息長期依賴關系有著更強的捕捉能力,同時自注意力機制模塊提高U-Net 的全局關系建模能力,從而改善特征的辨別性,增強其魯棒性。證明了基于自注意力機制的U-Net 網絡在弱目標的雷達檢測能力的優(yōu)越性。

        4 結束語

        對于雷達目標檢測,傳統(tǒng)方法是用各種CFAR來進行目標檢測,但是對于弱目標的雷達檢測,其信噪比低,目標散射截面積小是其檢測的難點。然而通過CFAR 模式判斷目標是否存在,不能很好地滿足弱目標的檢測。對此本文采用U-Net 網絡來代替?zhèn)鹘y(tǒng)恒虛警檢測,通過分別在信噪比為1到10 的低信噪比的背景下來進行實驗,其結果表明U-Net 網絡相對于CFAR 檢測效果有著較好的提升,同時在U-Net 網絡中加上自注意力機制后的檢測性能要高于U-Net 網絡。本文所提的網絡模型,其后續(xù)可在復雜環(huán)境背景下進行深入研究,來進一步提高網絡模型的泛化能力和魯棒性。

        猜你喜歡
        注意力雷達建模
        有雷達
        大自然探索(2023年7期)2023-08-15 00:48:21
        讓注意力“飛”回來
        聯想等效,拓展建?!浴皫щ娦∏蛟诘刃鲋凶鰣A周運動”為例
        雷達
        基于PSS/E的風電場建模與動態(tài)分析
        電子制作(2018年17期)2018-09-28 01:56:44
        不對稱半橋變換器的建模與仿真
        “揚眼”APP:讓注意力“變現”
        傳媒評論(2017年3期)2017-06-13 09:18:10
        A Beautiful Way Of Looking At Things
        基于空時二維隨機輻射場的彈載雷達前視成像
        現代“千里眼”——雷達
        亚洲高清av一区二区| 2018国产精华国产精品| 久久不见久久见免费影院www| а中文在线天堂| 国产精品亚洲专区无码不卡 | 成人久久黑人中出内射青草| 亚洲av无码精品色午夜app| 真人新婚之夜破苞第一次视频| 两个黑人大战嫩白金发美女| 国产成人精品一区二免费网站| 久久精品视频日本免费| 人妻少妇偷人精品免费看| 人妻夜夜爽天天爽三区| 天天躁日日躁狠狠躁人妻| 欧美日韩亚洲国产无线码| 视频一区二区三区国产| 中文字幕国产精品一二三四五区| 国产md视频一区二区三区| 亚洲中文字幕无码永久在线| 亚洲亚洲亚洲亚洲亚洲天堂| 精品蜜桃av免费观看| 国产亚洲av无码av男人的天堂| 亚洲国产精品ⅴa在线观看| 欧美人与物videos另类xxxxx| 蜜桃av噜噜一区二区三区香| 精品亚洲一区中文字幕精品| 亚洲av高清在线观看一区二区| 久久精品99久久香蕉国产色戒| 亚洲欧洲日韩另类自拍| 国产精品成年人毛片毛片| 麻豆精品国产专区在线观看| 亚洲一区 日韩精品 中文字幕 | 北岛玲亚洲一区二区三区 | 十八禁无遮挡99精品国产| 亚洲欧洲日本综合aⅴ在线| 第十色丰满无码| 中文字幕人妻被公喝醉在线| 一区二区和激情视频| 中文字幕日韩精品无码内射| 92精品国产自产在线观看48页| 精品国产a毛片久久久av|