亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于注意力機制和復數(shù)卷積循環(huán)網(wǎng)絡的汽車雷達干擾抑制

        2024-01-18 12:08:22吳秋雨
        無線電工程 2024年1期
        關鍵詞:信號模型

        吳秋雨,高 勇

        (四川大學 電子信息學院,四川 成都 610065)

        0 引言

        汽車雷達傳感器是當前駕駛輔助系統(tǒng)和自動駕駛應用的重要模塊,用來檢測目標、測量目標的距離和速度,以保障道路安全感。常用于汽車領域的雷達有調(diào)頻連續(xù)波(Frequency Modulated Continuous Wave,FMCW)雷達[1],它能夠連續(xù)發(fā)射頻率隨時間線性變化的啁啾信號。隨著自動駕駛技術的高速發(fā)展,越來越多的汽車裝載車載雷達,不同車輛的車載雷達之間不可避免地會產(chǎn)生相互干擾,導致虛假目標的出現(xiàn)或基底噪聲的增加,降低檢測性能。

        傳統(tǒng)的汽車雷達干擾抑制方法包括歸零法(Zeroing)法、自適應閾值迭代法、斜坡濾波法、估計和減去干擾成分法等,文獻[2-3]給出了這些方法的介紹和對比。其中最基本的方法是歸零法,通過將受干擾部分的樣本值設為零來消除干擾,該方法雖然簡單,但是容易去除有用信號,且當干擾時間段較長時此方法的效果會下降。

        近年來,深度學習技術不斷發(fā)展,并逐漸應用到雷達信號處理。文獻[4]首次在時域運用深度學習方法消除相互干擾,采用基于門控循環(huán)單元(Gated Recurrent Unit,GRU)的循環(huán)神經(jīng)網(wǎng)絡(Recurrent Neural Network,RNN),與傳統(tǒng)方法相比,性能更佳且處理速度更快。文獻[5]在文獻[4]的基礎上增加了注意力模塊,能更好地捕捉時間序列之間的關系,提升模型性能。文獻[6]采用全卷積神經(jīng)網(wǎng)絡(Fully Convolutional Neural Network,FCN)解決射頻干擾問題,能將受干擾信號經(jīng)短時傅里葉變換后的頻譜圖轉(zhuǎn)換為消除干擾后的距離像。文獻[7]利用雙向長短時記憶網(wǎng)絡(Bidirectional Long Short-Term Memory,Bi-LSTM)來抑制相互干擾。上述方法可以成功地預測目標幅度,但無法保留目標的相位信息,而相位對于測量目標的多普勒效應至關重要[8]。

        文獻[9]采用基于自動編碼器的卷積神經(jīng)網(wǎng)絡(Convolutional Neural Network,CNN),將干擾信號距離-多普勒圖的幅度和相位作為雙通道數(shù)據(jù)輸入網(wǎng)絡來消除干擾,保留了相位信息。文獻[10]使用CNN來抑制干擾,將頻域干擾信號的實部和虛部作為雙通道數(shù)據(jù)輸入網(wǎng)絡,能預測目標的相位信息。文獻[11]在文獻[6]的基礎上引入了WeNoRT(Weighted Noise Reduction Training)訓練機制,同時將頻域干擾信號的幅度、實部和虛部作為三通道數(shù)據(jù)輸入網(wǎng)絡,可以得到目標的相位信息。

        由于雷達信號多為復數(shù),而上述方法僅將信號的實部和虛部作為雙通道數(shù)據(jù)輸入網(wǎng)絡,然后用實數(shù)網(wǎng)絡將實部和虛部作為2個獨立的信息進行特征提取,沒有挖掘?qū)嵅亢吞摬恐g的相關性。因此本文將語音增強領域的深度復數(shù)卷積循環(huán)網(wǎng)絡(Deep Complex Convolution Recurrent Network,DCCRN)[12]應用到汽車雷達干擾抑制上并作了改進,提出了一種基于注意力機制的深度復數(shù)卷積循環(huán)網(wǎng)絡(Deep Complex Convolution Recurrent Network with Attention,DCCRN-Attention)。不同于以往的實數(shù)網(wǎng)絡,本文模型使用復數(shù)卷積、復數(shù)批歸一化和復數(shù)長短時記憶網(wǎng)絡(LSTM)模塊,通過模擬復數(shù)運算來提取信號的實部和虛部之間的相關性,具有更豐富的特征學習能力,且能同時預測干擾抑制后目標的幅度和相位信息。本文模型中引入了注意力(Attention)機制,因此可以捕捉上下文之間的關聯(lián)信息,聚焦局部信息。在公開數(shù)據(jù)集[6]中的實驗結(jié)果表明,與基線方法相比較,本文模型在抑制汽車雷達相互干擾方面的性能更好。

        1 FMCW雷達信號模型

        1.1 無干擾信號模型

        FMCW雷達發(fā)射的是線性調(diào)頻信號,也稱為chirp信號,其頻率隨時間線性變化,如圖1所示。單個周期內(nèi)的發(fā)射信號ST(t)表示為:

        (1)

        圖1 無干擾信號Fig.1 Signal without interference

        式中:t為時間變量,f0為t=0時刻的初始頻率,Tc為掃頻周期,α=B/Tc為調(diào)頻斜率,B為掃頻帶寬。

        發(fā)射信號經(jīng)目標反射后,雷達接收到的回波信號SR(t)表示為:

        (2)

        式中:Nt為目標個數(shù),Ai為幅度,τi=2Ri/c為第i個目標的傳播時延,Ri為第i個目標的距離,c為光速。

        接收的回波信號與發(fā)射信號混頻后,再經(jīng)過低通濾波器得到差頻信號,差頻信號Sb(t)表示為:

        (3)

        1.2 受干擾信號模型

        汽車雷達干擾分為相干干擾和非相干干擾。相干干擾指干擾信號的調(diào)頻斜率與發(fā)射信號相同,會導致頻域上出現(xiàn)假目標;非相干干擾指干擾信號的調(diào)頻斜率與發(fā)射信號不同,會導致頻域上基底噪聲增加[13]。本文討論的是非相干干擾。

        受干擾信號如圖2所示。當出現(xiàn)非相干干擾時,受干擾部分發(fā)生在時間段β內(nèi),干擾信號SI(t)表示為:

        (4)

        圖2 受干擾信號Fig.2 Signal with interference

        式中:AI為干擾信號的幅度,fI為干擾信號的初始頻率,τd為干擾信號的時延,αI=BI/TI為干擾信號的調(diào)頻斜率,BI、TI分別為干擾信號的掃頻帶寬和掃頻周期。

        接收機接收到的含有干擾的回波信號SRI(t)表示為:

        SRI(t)=SR(t)+SI(t)。

        (5)

        圖3 受干擾信號的時域圖Fig.3 Time domain diagram of signal with interference

        (6)

        圖4 無干擾信號和受干擾信號的頻域圖Fig.4 Frequency domain diagrams of signal with and without interference

        對于非相干干擾,時域上,受干擾部分的信號幅度遠大于未受干擾部分的信號幅度;頻域上,干擾會導致基底噪聲增加和低功率目標被覆蓋,從而降低檢測概率。

        2 網(wǎng)絡結(jié)構(gòu)介紹

        2.1 DCCRN-Attention模型的總體框架

        本文使用的網(wǎng)絡模型是基于文獻[12]提出的DCCRN,該模型在語音增強領域顯示出較好的效果,并獲得了Interspeech 2020 DNS挑戰(zhàn)賽實時賽道的第一名。本文提出的DCCRN-Attention模型的總體框架如圖5所示,該模型在文獻[12]的基礎上做了改進,同時增加了注意力機制,能夠抑制汽車雷達間的非相干干擾,且能同時預測目標的幅度和相位信息。

        圖5 DCCRN-Attention模型總體框架Fig.5 Overall framework of DCCRN-Attention model

        本文將受干擾信號經(jīng)快速傅里葉變換(Fast Fourier Transformation,FFT)后的頻域特征作為輸入特征,標簽為未受干擾信號經(jīng)FFT后的頻域特征。輸入為頻域干擾信號的實部和虛部,經(jīng)過DCCRN-Attention模型后,輸出為頻域抑制干擾后的實部和虛部,通過輸出的實部和虛部可以計算出目標的幅度和相位大小。損失函數(shù)采用均方誤差(Mean Squared Error,MSE),計算方式為:

        (7)

        2.2 DCCRN結(jié)構(gòu)

        在目前的使用深度學習抑制干擾并預測目標的幅度和相位信息的方法中,僅將信號的實部和虛部作為雙通道數(shù)據(jù)輸入網(wǎng)絡中,用實數(shù)網(wǎng)絡來處理,這與復數(shù)乘法運算不一致,并未考慮到信號的實部和虛部之間的相關性。本文所用的DCCRN結(jié)構(gòu)如圖6所示,該網(wǎng)絡中的復數(shù)模塊通過模擬復數(shù)乘法來獲取信號的實部和虛部之間的相關性。

        圖6 DCCRN結(jié)構(gòu)Fig.6 DCCRN structure

        DCCRN結(jié)構(gòu)由6層復數(shù)編碼器、2層復數(shù)LSTM和6層復數(shù)解碼器組成,其中編碼器旨在從輸入特征中提取高維特征,解碼器進行特征重構(gòu),從而使解碼器-編碼器結(jié)構(gòu)形成對稱設計,中間的LSTM用于對時間依賴進行建模,同時采用跳躍連接將對應的編碼層和解碼層連接起來,實現(xiàn)多尺度的特征融合。對復數(shù)編碼器、復數(shù)解碼器和復數(shù)LSTM的介紹如下:

        ① 復數(shù)編碼器模塊如圖7所示,包含復數(shù)卷積、復數(shù)批歸一化[14]和參數(shù)修正線性單元(Parametric Rectified Linear Unit,PReLU)激活函數(shù)[15]。復數(shù)卷積由4個傳統(tǒng)的卷積操作組成,控制著整個編碼器的復數(shù)信息流。復數(shù)卷積濾波器W定義為:W=Wr+jWi,其中Wr和Wi分別表示復數(shù)卷積核的實部和虛部。復數(shù)形式的輸入X定義為:X=Xr+jXi,其中Xr和Xi分別表示輸入的實部和虛部。通過復數(shù)卷積運算X*W,可以得到復數(shù)形式的輸出:

        圖7 復數(shù)編碼器模塊Fig.7 Complex encoder module

        Fout=(Xr*Wr-Xi*Wi)+j(Xr*Wi+Xi*Wr),

        (8)

        式中:Fout為輸入經(jīng)復數(shù)卷積操作后的輸出,*表示卷積操作。

        ② 復數(shù)解碼器模塊則由復數(shù)轉(zhuǎn)置卷積、復數(shù)批歸一化和PReLU激活函數(shù)組成,復數(shù)轉(zhuǎn)置卷積的實現(xiàn)方式與上述復數(shù)卷積類似。

        ③ 同時,給定復數(shù)輸入Xr和Xi,復數(shù)LSTM的輸出Fout可以表示為:

        Frr=LSTMr(Xr),Fir=LSTMr(Xi),

        (9)

        Fri=LSTMi(Xr),Fii=LSTMi(Xi),

        (10)

        Fout=(Frr-Fri)+j(Fri+Fir),

        (11)

        式中:LSTMr和LSTMi表示實部和虛部的傳統(tǒng)LSTM操作,Fir為Xi通過LSTMr計算得到,其余類似。

        2.3 注意力機制

        原始的DCCRN在跳躍連接部分直接將編碼層的輸出和對應解碼層的輸入拼接起來進行數(shù)據(jù)重構(gòu),即解碼層在重構(gòu)數(shù)據(jù)時沒有針對性地選擇數(shù)據(jù)。因此,本文基于文獻[16]提出的注意力門控(Attention Gate,AG),在DCCRN的跳躍連接部分引入了Attention模塊,使解碼器在重構(gòu)數(shù)據(jù)時抑制無關信息,并突出特定區(qū)域的顯著特征。

        Attention機制的提出源自于人腦對外部信息的處理能力,人腦在處理信息時,會將Attention集中到重要的、感興趣的信息上,而忽略無關的信息。在神經(jīng)網(wǎng)絡中引入Attention機制,可以在計算能力有限的情況下,將計算資源分配給更重要的任務,解決信息過載問題,并提高任務處理的效率和準確性。Attention機制[17]的本質(zhì)為一個查詢Q(Query)到一系列鍵值對(Key-Value)的映射,通過對Query和Key的相關性進行建模來得到Attention系數(shù),再實現(xiàn)對Value的權重分配。具體而言,用鍵值對(K,V)=[(k1,v1),(k2,v2),…,(kN,vN)]來表示N組輸入信息,當給定一個查詢Q時,經(jīng)典的Attention機制的計算方式如下:

        αi=softmax(s(ki,Q)),

        (12)

        (13)

        式中:αi表示ki與Q的相關程度,即Attention系數(shù);s為計算相關程度的函數(shù),常見的形式包括加性模型、點積模型和雙線性模型等;softmax為歸一化指數(shù)函數(shù),Attention((K,V),Q)表示根據(jù)Attention系數(shù)對Value進行加權求和后的結(jié)果。

        本文引入的Attention機制原理如圖8所示,x為編碼層的輸出,g為對應解碼層的輸入,這里可以將g理解為上述Attention機制中的查詢Q,x理解為鍵值對(K,V)。這樣,跳躍連接部分不是將編碼層輸出直接與解碼層輸入拼接,而是先通過x與g計算Attention權重系數(shù)α,將α賦值到x后再與g進行拼接。由于編解碼層的特征維度不同,多次利用1×1的卷積對數(shù)據(jù)進行升維和降維,使數(shù)據(jù)g、x和α的尺寸大小一致,以便進行相加和相乘操作。

        圖8 Attention機制原理Fig.8 Principle of Attention mechanism

        具體的計算如下:

        α=σ2(Φ(σ1(Wg(g)+Wx(x)))),

        (14)

        x1=α·x,

        (15)

        式中:α為Attention權重系數(shù),x為編碼層的輸出,g為對應解碼層的輸入,Wg、Wx、Φ均表示1×1的卷積,σ1、σ2分別表示ReLU和Sigmoid激活函數(shù),x1為賦予Attention權重系數(shù)后的編碼層輸出。實現(xiàn)了對編碼層信息的過濾,賦予不同的權重,抑制無關信息,捕捉重要特征。

        3 實驗設置與結(jié)果分析

        3.1 數(shù)據(jù)集和評價指標

        本文實驗采用了大規(guī)模的汽車雷達干擾抑制(Automotive Radar Interference Mitigation,ARIM)公開數(shù)據(jù)集[6],該數(shù)據(jù)集模擬了含有單個干擾源的真實汽車場景,FMCW雷達的模擬參數(shù)如表1所示。

        表1 FMCW雷達模擬參數(shù)

        ARIM數(shù)據(jù)集共包含48 000個樣本,并且被隨機劃分成含40 000個樣本的訓練集和含8 000個樣本的測試集,每個樣本都包含無干擾的時域差頻信號(標簽信號)和受干擾的時域差頻信號。樣本數(shù)據(jù)是前文介紹的差頻信號的采樣值,由表2列出的參數(shù)的隨機值生成,具體而言,信噪比(Signal to Noise Ratio,SNR)、信干比(Signal to Interference Ratio,SIR)這2個參數(shù)在最小值和最大值之間根據(jù)固定步長而線性變化,相對干擾斜率k=αI/α(αI為干擾信號的調(diào)頻斜率,α為發(fā)射信號的調(diào)頻斜率)、目標個數(shù)、目標的幅度、距離和相位這5個參數(shù)在最小值和最大值之間遵循均勻分布。

        表2 ARIM數(shù)據(jù)集的樣本參數(shù)

        本文的目的是抑制干擾并同時恢復目標的幅度和相位信息,為了衡量模型抑制汽車雷達干擾的性能,實驗選取平均SNR變化(Mean SNR Improvement,ΔMSNR)、幅度平均絕對誤差(Mean Absolute Error,MAE)和相位MAE作為評價指標。其中,ΔMSNR是指接收信號中的目標在干擾抑制前后的平均SNR變化,數(shù)值越大說明效果越好。幅度MAE由標簽信號的目標幅度和網(wǎng)絡輸出信號的目標幅度之間的MAE計算得到,單位為dB;相位MAE則是指標簽信號的目標相位和網(wǎng)絡輸出信號的目標相位之間的MAE,單位為(°),這2個指標的數(shù)值越小說明性能越好。

        3.2 參數(shù)設置

        在數(shù)據(jù)預處理階段,FFT的采樣點數(shù)為2 048,受干擾信號做FFT后,其實部和虛部先作為雙通道數(shù)據(jù)輸入模型中,在復數(shù)層時將實部和虛部分別取出再進行相應的復數(shù)卷積等操作。為了減少過擬合,實驗中將20%的訓練集(8 000個樣本)用作驗證集。實驗使用PyTorch框架來訓練DCCRN-Attention模型,優(yōu)化器為Adam,訓練100輪,訓練批次大小為64,模型的初始學習率設置為 0.001,同時學習率每10輪下降0.5,權重衰減系數(shù)為0.000 001。

        DCCRN-Attention模型中,復數(shù)編碼器每層的通道數(shù)分別為{32、64、128、256、256、256},復數(shù)解碼器每層的通道數(shù)分別為{256、256、256、128、64、32},卷積核的大小和步長分別設置為5×2和2×1,中間的2層復數(shù)LSTM的隱藏層分別為256、1 024個單元。

        3.3 實驗結(jié)果

        本文模型的干擾抑制效果如圖9所示。圖9(a)為無干擾的標簽信號的頻譜圖;圖9(b)為受干擾信號的頻譜圖,可以看到干擾信號導致基底噪聲增加了近40 dB,淹沒了目標;圖9(c)為經(jīng)DCCRN-Attention模型抑制干擾后的信號頻譜圖,能檢測出目標,且目標幅度與標簽信號基本一致。

        (a)標簽信號頻譜圖

        (c)干擾抑制后信號頻譜圖

        表3為圖9中目標的SNR值,從表中可以看出受到干擾后,目標的SNR大幅度下降,影響目標的檢測概率,而經(jīng)過本文模型抑制干擾后的信號,其目標的SNR得到了提升,接近標簽信號,有利于目標的檢測。

        表3 圖9中目標的SNR

        3.4 與其他方法對比

        為了驗證本文提出的DCCRN-Attention模型在汽車雷達干擾抑制方向的有效性,實驗選取標簽信號、Zeroing法和文獻[12]的DCCRN模型得到的結(jié)果作為對比。Zeroing法應用在時域,通過將高于閾值的振幅替換為0來消除干擾[18];DCCRN模型除了未引入Attention機制,其余結(jié)構(gòu)和參數(shù)設置與DCCRN-Attention模型一致。

        不同方法在ARIM數(shù)據(jù)集的驗證集和測試集上的實驗結(jié)果如表4和表5所示。首先,與Zeroing方法相比,在驗證集上,DCCRN模型的ΔMSNR、幅度MAE和相位MAE值分別優(yōu)化了2.95 dB、4.68 dB和5.94°,而本文DCCRN-Attention模型的ΔMSNR、幅度MAE和相位MAE值分別優(yōu)化了2.98 dB、4.89 dB和6.14°;在測試集上,DCCRN模型的ΔMSNR、幅度MAE和相位MAE值分別優(yōu)化了2.90 dB、4.61 dB和5.52°,而本文DCCRN-Attention模型的ΔMSNR、幅度MAE和相位MAE值分別優(yōu)化了2.93 dB、4.81 dB和5.79°。DCCRN和DCCRN-Attention模型的3項評價指標均優(yōu)于Zeroing方法,說明將語音增強領域的方法應用到汽車雷達干擾抑制上的有效性。其次,與DCCRN模型相比,在驗證集上,本文DCCRN-Attention模型的ΔMSNR、幅度MAE和相位MAE值分別優(yōu)化了0.03 dB、0.21 dB和0.20°;在測試集上,本文DCCRN-Attention模型的ΔMSNR、幅度MAE和相位MAE值分別優(yōu)化了0.03 dB、0.20 dB和0.27°,DCCRN-Attention模型的3項評價指標均優(yōu)于DCCRN模型,表明引入Attention機制能夠提升模型性能。

        表4 不同方法在ARIM數(shù)據(jù)集的驗證集上的結(jié)果對比

        表5 不同方法在ARIM數(shù)據(jù)集的測試集上的結(jié)果對比

        為了分析不同SNR下3種方法的干擾抑制效果,圖10為本文模型在ΔMSNR、幅度MAE和相位MAE這3個評價指標上,與Zeroing方法、DCCRN模型的效果對比圖。由圖10可以看出,隨著SNR的增加,本文模型和Zeroing方法之間的性能差異越來越大;此外,本文模型的干擾抑制效果總體上要優(yōu)于DCCRN模型,再次驗證了增加Attention機制可以提升模型性能。

        (a)ΔMSNR

        (c)相位MAE

        4 結(jié)束語

        本文提出了一種DCCRN-Attention的汽車雷達干擾抑制模型,模型使用復數(shù)網(wǎng)絡模塊學習信號實部和虛部之間的相關性,預測目標的幅度和相位信息,并且通過在跳躍連接中引入Attention機制來減少序列信息的丟失,使模型聚焦重要信息,抑制無關信息。實驗結(jié)果表明,本文提出的模型能夠有效抑制干擾,提高檢測目標的SNR,并且模型的各項評價指標均優(yōu)于基線方法Zeroing法和DCCRN模型,驗證了所提模型在抑制汽車雷達干擾任務中的有效性。目前本文只考慮了單個干擾下的抑制,未來將進一步研究含多個干擾的抑制方法和效果。

        猜你喜歡
        信號模型
        一半模型
        信號
        鴨綠江(2021年35期)2021-04-19 12:24:18
        重要模型『一線三等角』
        完形填空二則
        重尾非線性自回歸模型自加權M-估計的漸近分布
        孩子停止長個的信號
        3D打印中的模型分割與打包
        基于LabVIEW的力加載信號采集與PID控制
        一種基于極大似然估計的信號盲抽取算法
        FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
        色综合久久无码中文字幕app| 国产精品人人做人人爽人人添| 麻豆精品国产精华液好用吗| 婷婷色婷婷开心五月四| 国产乱码一区二区三区爽爽爽| 法国啄木乌av片在线播放| 亚洲大尺度在线观看| 久久国产免费观看精品| 性色av一区二区三区密臀av| 日本精品视频免费观看| 国产精品熟女视频一区二区| 99热最新在线观看| 少妇性l交大片免费快色| 视频区一区二在线观看| 男女男精品视频网站免费看| 性欧美老人牲交xxxxx视频| 精品五月天| 蜜桃在线观看视频在线观看| 亚洲人成在久久综合网站| 久久久久亚洲精品中文字幕 | 久久99久久久无码国产精品色戒| 久久最黄性生活又爽又黄特级片| 亚洲在线视频免费视频| 少妇性l交大片| 久久亚洲国产欧洲精品一| 国产三区三区三区看三区| 国产精品vⅰdeoxxxx国产| 内射囯产旡码丰满少妇| 韩国一级成a人片在线观看| 日本免费精品免费视频| 特黄aaaaaaaaa毛片免费视频| 99精品一区二区三区无码吞精| 乱中年女人伦av三区| 亚洲一区二区三区在线高清中文| 久久国产成人精品国产成人亚洲| 香蕉人妻av久久久久天天| 国产91精品丝袜美腿在线| 在线免费观看黄色国产强暴av| 全部孕妇毛片丰满孕妇孕交| 亚洲国产成人精品激情| 丝袜美腿丝袜美腿丝袜美腿丝袜|