亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        樣本不平衡下的空中群組意圖識別方法

        2022-11-19 06:53:32馬鈺棠張杰勇閆云飛
        系統(tǒng)工程與電子技術 2022年12期
        關鍵詞:群組意圖準確率

        馬鈺棠, 孫 鵬, 張杰勇, 王 鵬, 閆云飛, 趙 亮

        (空軍工程大學信息與導航學院, 陜西 西安 710077)

        0 引 言

        二戰(zhàn)以來,隨著軍事信息化的推進和科學技術的發(fā)展,以預警機為核心樞紐的信息化作戰(zhàn)體系逐漸成型??罩凶鲬?zhàn)形式也從單一作戰(zhàn)單元間的對抗轉變?yōu)轱w行群組間的對抗,空中群組的作戰(zhàn)行動是影響戰(zhàn)場態(tài)勢的關鍵。然而,戰(zhàn)場環(huán)境也隨之復雜化,指揮員很難依靠經(jīng)驗實時準確地判斷出對方群組的真實意圖。因此,需要一種智能化的方法來快速準確地識別對方群組的意圖,以輔助指揮員做出決策。

        對于識別戰(zhàn)場目標意圖問題,傳統(tǒng)的方法主要有模板匹配[1-2]、專家系統(tǒng)[3-4]、灰色關聯(lián)[5-6]、貝葉斯網(wǎng)絡[7-9]等,總體思路是先根據(jù)領域專家的先驗知識構建知識規(guī)則庫或貝葉斯網(wǎng)絡,然后通過目標的狀態(tài)特征進行意圖識別,但傳統(tǒng)方法過度依賴于先驗知識,不適用于復雜多變的戰(zhàn)場環(huán)境。而隨著人工智能的發(fā)展和深度學習的應用,機器能更快速處理大量復雜的數(shù)據(jù)。近年來,神經(jīng)網(wǎng)絡方法[10-13]被證明能夠有效提升目標意圖識別準確率,文獻[10]提出了一種基于棧式自編碼器(stacked autoencoder,SAE)的目標戰(zhàn)術意圖識別模型,通過無監(jiān)督學習方法訓練模型參數(shù),將多個時刻的目標狀態(tài)信息和戰(zhàn)場環(huán)境作為輸入,來識別目標意圖。文獻[11]針對神經(jīng)網(wǎng)絡模型收斂速度慢、易陷入局部最優(yōu)的問題,在深度神經(jīng)網(wǎng)絡(deep neural networks,DNN)模型中引入ReLU激活函數(shù)和Adam優(yōu)化算法,提高了模型的識別率。文獻[12]提出了一種基于模糊神經(jīng)網(wǎng)絡的目標意圖識別模型,利用目標屬性和意圖訓練網(wǎng)絡得到模糊隸屬度和輸出函數(shù),以此識別意圖。但以上方法在時間特征學習和知識表征方面仍存在不足。文獻[13]為深層次提取目標的時序特征信息,利用全景卷積長短期記憶(long short term memory, LSTM)網(wǎng)絡深度挖掘能力,提高了模型意圖識別的準確率。但是,其僅使用歷史時刻信息對當前做出推斷,無法有效利用未來時刻的信息。

        以上研究都是在訓練數(shù)據(jù)集中各個類別的樣本數(shù)量相對平衡的情況下進行的,多數(shù)類樣本和少數(shù)類樣本的數(shù)量相差不大[14]。然而在軍事指控領域中,真實戰(zhàn)場數(shù)據(jù)往往存在著樣本間的不平衡,比如對方佯攻的樣本通常比攻擊的多。樣本集的不平衡會導致模型很難從少數(shù)類樣本中提取到有用的信息,使模型的訓練過擬合,識別結果偏向樣本量較多的一方。目前,對于不平衡樣本情況下的目標意圖識別的研究還較少,所以針對不平衡樣本下的空中群組意圖識別的研究具有實際意義。

        目前,解決樣本不平衡問題方法大致可分為3類:欠采樣[15]、過采樣[16]和混合方法[17-19]。在這3種方法中,由于欠采樣會減少多數(shù)類樣本的數(shù)量,導致重要信息丟失,混合方法中也存在同樣的問題,因此過采樣的使用頻率更高。文獻[20]通過比較受試者工作特性曲線(receiver operating characteristic curve, ROC)下的面積(area under the curve of ROC,AUC),證明了過采樣方法比欠采樣表現(xiàn)更好,其中合成少數(shù)過采樣技術(synthetic minority oversampling technique,SMOTE)被認為是處理不平衡問題較好的數(shù)據(jù)預處理方法[21]?;舅枷胧峭ㄟ^在相鄰少數(shù)類樣本間進行插值來平衡原始訓練數(shù)據(jù),增加少數(shù)類樣本的數(shù)量,提高了分類器的性能[22]。但是對于較復雜的樣本集,SMOTE通過簡單增加少數(shù)類樣本但無法體現(xiàn)少數(shù)類特征信息,所以很難得到較好的結果[23-24]。

        基于以上分析,為解決空中群組樣本不平衡以及大多數(shù)意圖識別模型準確率不高、訓練效率低等問題,本文提出了一種面向無序分類變量和連續(xù)變量的自適應邊界SMOTE (adaptive borderline-SMOTE-nominal continuous, ABSMOTE-NC)算法,研究了基于注意力機制的雙向門控循環(huán)單元(bidirectional gated recurrent unit based on attention mechanism, BiGRU-Attention)網(wǎng)絡的意圖識別模型[25-27]。首先,對于不平衡的樣本采用ABSMOTE-NC的方法對少數(shù)類樣本進行擴充;其次,將擴充后的數(shù)據(jù)集輸入到BiGRU層,綜合前后時刻信息提取特征;然后,輸入到注意力層,對多維特征進行深層次提取,提高對關鍵特征的關注度;最后,通過softmax函數(shù)層輸出判斷的意圖。將本文方法與多種方法進行對比,以準確率、精確率、召回率、AUC、F1-score及其算數(shù)平均marco-F1值作為評估指標,證明本文提出的方法能有效提升空中群組意圖識別的效果。

        1 空中群組意圖識別問題

        空中群組意圖識別是在實時動態(tài)、對抗的戰(zhàn)場環(huán)境中,通過傳感器采集到的空中群組的狀態(tài)信息,依靠軍事領域知識進行分析識別其意圖的過程[28]。對方群組的作戰(zhàn)意圖通常表現(xiàn)在作戰(zhàn)行動上,而機群在執(zhí)行作戰(zhàn)任務過程中會在目標速度、加速度、機動類型、雷達信號等狀態(tài)特征上呈現(xiàn)出一定的規(guī)律,由此可以通過各種傳感器獲得的狀態(tài)數(shù)據(jù)識別出對方的意圖。

        在真實戰(zhàn)場中,由于雙方都有豐富的軍事經(jīng)驗,對方機群可能會采取一些欺騙性的行動以隱藏真實意圖,因此僅通過單一時刻的群組狀態(tài)識別其意圖會影響識別結果的準確性[11]。但群組級作戰(zhàn)行動是一個時序的過程,對方群組為達到其戰(zhàn)術意圖通常需要完成一系列作戰(zhàn)行動,根據(jù)連續(xù)時刻的目標狀態(tài)識別比單一時刻具有更高的可靠性。本文通過空中群組特征數(shù)據(jù)集訓練BiGRU-Attention網(wǎng)絡,使網(wǎng)絡能利用群組的時序特征狀態(tài)識別出群組意圖。完整的群組意圖識別流程如圖1所示。

        圖1 空中群組意圖識別流程

        在識別空中群組的意圖過程中,首先將帶有標簽的戰(zhàn)場歷史數(shù)據(jù)庫經(jīng)過數(shù)據(jù)預處理后進行劃分訓練集和測試集,在不平衡的訓練集中用ABSMOTE-NC擴充少數(shù)類樣本,再用擴充后的數(shù)據(jù)集訓練BiGRU-Attention網(wǎng)絡。在實際的戰(zhàn)場環(huán)境中,通過各類傳感器采集時序性的目標特征向量,經(jīng)預處理后輸入到訓練好的模型中就能識別出對方意圖。

        1.1 群組意圖空間描述

        意圖空間的選取與作戰(zhàn)形式、地點、規(guī)模等因素密切相關,在不同的戰(zhàn)場背景下通常有不同的作戰(zhàn)意圖。對方群組會根據(jù)目標的重要程度選擇不同的作戰(zhàn)意圖,同時也會隨戰(zhàn)場情況實時調(diào)整行動意圖。因此,需要根據(jù)實際作戰(zhàn)背景選取意圖空間。本文針對空中群組目標,依據(jù)領域專家經(jīng)驗,選取的意圖空間為{攻擊、佯攻、撤退、偵察、監(jiān)視、電子干擾}。

        1.2 群組意圖識別特征描述

        空中群組的意圖通常與其作戰(zhàn)任務有關,而群組為執(zhí)行特定的作戰(zhàn)任務,通常會受限于飛機性能和任務需要,在某些特征信息上表現(xiàn)出來。比如偵察群組為了躲避地面雷達探測,往往根據(jù)戰(zhàn)場情況針對性選擇飛行高度;攻擊意圖的群組也會根據(jù)武器掛載情況適時調(diào)整飛行速度。因此,將空中群組的飛行速度、飛行加速度、高度、距離、雷達反射面積等作為其意圖識別的特征,而且群組的意圖與目標雷達狀態(tài)也有關。例如,執(zhí)行轟炸任務的飛機只在轟炸時開啟對空或對海雷達。

        群組在作戰(zhàn)行動中通常需要一系列戰(zhàn)術機動動作,因此群組的機動類型也與其意圖有關。本文以空中群組為研究對象,實現(xiàn)高機動的難度較大,所以本文選取11種基本操縱動作作為群組的機動類型,具體為{勻速前飛、加速前飛、減速前飛、左轉、右轉、爬升、左爬升、右爬升、俯沖、左俯沖、右俯沖}[29]。

        綜上,本文對于空中群組意圖識別問題建立的特征空間為{飛行速度、飛行加速度、高度、距離、航向角、方位角、雷達反射面積、機動類型、干擾狀態(tài)、對空雷達狀態(tài)、對海雷達狀態(tài)}。將特征空間分為數(shù)值型和非數(shù)值型,如圖2所示。

        圖2 群組意圖識別的特征空間

        2 樣本數(shù)據(jù)處理

        2.1 少數(shù)類樣本集擴充

        由于戰(zhàn)場中戰(zhàn)術安排的需要,不同意圖的戰(zhàn)術群組在數(shù)量上存在較大差異,因此真實戰(zhàn)場的樣本存在不平衡性,而利用不平衡的樣本訓練時會導致模型對少數(shù)類樣本的識別準確率較低。為了模型能更準確識別各個意圖,本文首先對少數(shù)類樣本不足的情況進行新樣本合成。

        邊界SMOTE針對少數(shù)類樣本邊界合成新樣本,但對于樣本邊界而言,也存在分類難易問題,且樣本合成數(shù)量也難以確定,無法處理非數(shù)值型數(shù)據(jù)。因此,本文提出ABSMOTE-NC擴充少數(shù)類樣本集。在原方法的基礎上引入自適應的思想以確定邊界樣本合成數(shù)量,根據(jù)樣本間交叉程度以及多數(shù)類樣本數(shù)量確定需要合成的少數(shù)類樣本數(shù)目。

        假設少數(shù)類樣本集為P={p1,p2,…,ppnum}(pnum為少數(shù)類樣本數(shù)),多數(shù)類共有S類,且第s類樣本數(shù)目為Ms。ABSMOTE-NC算法具體步驟如下。

        步驟 1對P中每個pi計算其在訓練集中的m近鄰,將m近鄰中屬于多數(shù)類樣本的個數(shù)定義為m′,若pi的m近鄰中m/2≤m′

        (1)

        步驟 3計算比率ri并正則化;

        (2)

        (3)

        (4)

        步驟 6對于樣本中的非數(shù)值型的特征值,選擇K近鄰中出現(xiàn)頻率最高的值作為pnew的值。

        2.2 數(shù)據(jù)降維及處理

        空中群組為了實現(xiàn)某一作戰(zhàn)意圖,在作戰(zhàn)行動中各架飛機狀態(tài)特征大多保持相同或相似。但將所有特征數(shù)據(jù)都作為神經(jīng)網(wǎng)絡輸入會影響網(wǎng)絡收斂效率,增加模型訓練時間和存儲空間。因此,先將群組中m架飛機的n維特征向量降維,再輸入到模型中。

        假設單個群組中有m架飛機,其中單機的n維特征向量為vi=[vi1,vi2,…,vin],i=1,2,…,m。對vin中數(shù)值型數(shù)據(jù)求平均值,對非數(shù)值型數(shù)據(jù)取m架飛機中出現(xiàn)頻率最高的值,當m架飛機出現(xiàn)頻率相等時,選擇對己方威脅程度大的特征值,以提高己方警惕性。

        數(shù)據(jù)歸一化能夠消除量綱的影響,使數(shù)據(jù)處于同一數(shù)量級,同時能提高模型收斂效率和精度。本文對速度、加速度、高度、距離、航向角、方位角、雷達反射面積共7種數(shù)值型數(shù)據(jù)進行歸一化處理。對于第k種數(shù)值型特征數(shù)據(jù)Nk={nk1,nk2,…,nkj,…,nkl},k=1,2,…,7;l為數(shù)據(jù)總數(shù)。將第j個原始數(shù)據(jù)值nkj映射到區(qū)間為[0,1]的范圍內(nèi),結果為

        (5)

        式中:minNk為第k種特征數(shù)據(jù)Nk的最小值;maxNk為第k種特征數(shù)據(jù)Nk的最大值。

        對于目標機動類型、干擾狀態(tài)、對空雷達狀態(tài)、對海雷達狀態(tài)共4種非數(shù)值型分類數(shù)據(jù),神經(jīng)網(wǎng)絡無法直接處理,所以需要將其數(shù)值化處理,轉變到[0,1]區(qū)間內(nèi)。對于第r種非數(shù)值型數(shù)據(jù)Br={br1,br2,…,brh,…,brw}(r=1,2,3,4);w為分類空間的大小。將第h個分類數(shù)值brh映射到區(qū)間為[0,1]的范圍內(nèi),結果為

        (6)

        2.3 意圖編碼

        本文以空中群組作為研究對象,將意圖空間定義為{攻擊、佯攻、撤退、偵察、監(jiān)視、電子干擾}6種。由于群組的作戰(zhàn)意圖為分類數(shù)據(jù),不能直接被神經(jīng)網(wǎng)絡接收,因此需要將意圖空間中的6種模式進行編碼,與{0,1,2,3,4,5}標簽值相對應。將編碼后的標簽值輸入到模型中訓練,得到的模型運用到實際戰(zhàn)場中時,通過輸出的標簽值與意圖空間的對應關系,就可以得到識別出的群組意圖。

        3 基于BiGRU-Attention的空中群組意圖識別模型

        為提高意圖識別模型對歷史時刻和未來時刻狀態(tài)信息的利用率,在門控循環(huán)單元(gated recurrent unit, GRU)基礎上引入雙向循環(huán)機制,同時利用注意力機制為各個深層信息分配權重,以提高模型捕捉更具區(qū)分度特征的能力。BiGRU-Attention模型結構如圖3所示,模型共分為3部分,群組特征向量輸入層、隱含層和輸出層。其中,隱含層由BiGRU層、注意力層和全連接層組成[30]。

        3.1 輸入層

        群組特征向量輸入層主要是對不平衡的群組特征數(shù)據(jù)集進行數(shù)據(jù)預處理,使原始數(shù)據(jù)轉換成隱含層能夠處理的序列向量。首先讀取空中群組特征數(shù)據(jù)集并進行數(shù)據(jù)清洗,對群組的特征向量進行降維及歸一化處理,而后將處理后的數(shù)據(jù)隨機初始化,按8∶2劃分為訓練集和測試集,最后對訓練集中的少數(shù)類樣本采用ABSMOTE-NC方法擴充少數(shù)類樣本集。

        3.2 隱含層

        3.2.1 BiGRU層

        圖4 GRU的循環(huán)單元結構

        GRU的更新方式如下:

        rt=σ(Wr[ht-1,xt]+br)

        (7)

        zt=σ(Wz[ht-1,xt]+bz)

        (8)

        (9)

        (10)

        式中:Wr、Wz、W和br、bz、bh為各部分相應的權重系數(shù)矩陣和偏置向量;*為哈達瑪積。

        由于單向的GRU只能提取當前時刻之前的信息,無法學習之后的信息與當前時刻的關系。為了從空中群組的時序特征中提取深層次的信息,引入雙向循環(huán)機制,使BiGRU網(wǎng)絡在意圖識別上獲得更高的準確率。其按時間展開的模型如圖5所示。

        圖5 BiGRU結構

        (11)

        (12)

        (13)

        3.2.2 注意力層

        為使網(wǎng)絡能更關注空中群組特征中的關鍵信息,提高識別準確率,本文在BiGRU層后引入注意力機制。將BiGRU層輸出的每個隱藏層狀態(tài)作為注意力層的輸入,注意力打分函數(shù)采用加性模型,得到注意力分布,最后用加權平均的方式進行匯總,得到注意力值作為輸出的狀態(tài)向量。注意力機制的模型結構如圖6所示。

        圖6 注意力機制模型結構

        計算公式如下:

        st=tanh(Wtyt+bt)

        (14)

        (15)

        (16)

        式中:st是注意力打分函數(shù),表示t時刻隱含層狀態(tài)的信息量;αt表示各個隱含層狀態(tài)的權重;Wt和bt分別是權重向量和偏置向量;Y是注意力層最終的輸出向量。

        3.3 輸出層

        輸出層通過softmax函數(shù)將注意力機制的輸出轉變成分類的概率,從而對群組特征數(shù)據(jù)進行意圖識別。具體公式為

        ck=softmax(WcY+bc)

        (17)

        式中:Wc和bc為需要訓練的網(wǎng)絡參數(shù);ck為輸出的意圖標簽。

        4 仿真實驗分析

        4.1 實驗環(huán)境及參數(shù)設置

        實驗以某空域群組為研究目標,實驗數(shù)據(jù)從某作戰(zhàn)仿真平臺獲得。通過多次運行仿真系統(tǒng),得到多種意圖下的空中群組樣本,從中選取8 000個空中群組意圖樣本,每個樣本中包含一個群組(每個群組包含2~5架飛機)連續(xù)12幀的狀態(tài)信息(每幀信息包括方位角、航向角、飛行速度、飛行加速度等11維特征數(shù)據(jù))。由于樣本集數(shù)據(jù)量過大,先由領域專家依據(jù)經(jīng)驗知識編寫群組意圖識別的相關規(guī)則,再通過計算機對樣本集進行分類,最后由領域專家為識別出的意圖與認知經(jīng)驗存在歧義的樣本進行修訂。為了模擬樣本間的不平衡,選取的樣本集中各意圖占比為偵察意圖50.00%、電子干擾意圖25.18%、佯攻意圖12.91%、撤退意圖8.26%、監(jiān)視意圖2.48%、攻擊意圖1.18%。樣本規(guī)模為8 000,其中偵察意圖與攻擊意圖樣本數(shù)之比超過40。

        本實驗采用Python語言,學習框架為Keras,運行環(huán)境為Pycharm2021軟件、Win10系統(tǒng)、RTX2060顯卡、16 GB內(nèi)存。模型評估指標選用機器學習常用的精確率、召回率、F1-score(模型精確率和召回率的調(diào)和平均)及其算數(shù)平均macro-F1。由于本文針對的是不平衡樣本下的意圖識別問題,而且更關注少數(shù)類的攻擊、監(jiān)視意圖的樣本,因此將ROC下方的面積AUC也作為評估指標。ROC曲線是以假正例率(意圖識別錯誤的負樣本數(shù)占實際的負樣本數(shù)的比例)為坐標橫軸、以真正例率(意圖識別正確的正樣本數(shù)占實際的正樣本數(shù)的比例)為坐標縱軸繪制的曲線。AUC取值在[0,1],AUC值越大,說明模型的分類效果越好。實驗中需要設置并調(diào)整超參數(shù),因此根據(jù)模型的macro-F1和AUC值,經(jīng)過多次運行迭代,設置實驗超參數(shù)如表1所示。

        表1 模型主要參數(shù)

        4.2 仿真實驗分析

        4.2.1 ABSMOTE-NC效果評估

        (1) 方法合理性驗證實驗

        為保證ABSMOTE-NC生成樣本的合理性,需驗證合成樣本和原始樣本的相似性。對原始樣本集中訓練集和測試集分別使用ABSMOTE-NC擴充少數(shù)類樣本,利用擴充后的訓練集訓練模型,將訓練后的模型對擴充測試集中原始少數(shù)類樣本和合成的少數(shù)類樣本進行識別,具體結果如表2所示。

        表2 原始樣本和合成樣本比較

        由表2可以看出模型對于原始樣本和合成樣本的識別準確率相近,說明合成樣本與原始樣本的相似性較高,驗證了ABSMOTE-NC方法的合理性。

        (2) 識別結果對比

        將空中群組樣本集劃分訓練集后直接輸入模型訓練,訓練完成后對測試集樣本進行測試,得到結果表明模型的準確率達到97.94%。但通過分析表3中的各意圖間的混淆矩陣,可以看出模型對佯攻、偵察意圖等多數(shù)類樣本的識別率達到了100%,但對于攻擊和監(jiān)視意圖樣本的召回率較低,分別為60%和32.5%。經(jīng)分析,撤退和電子干擾意圖的樣本特征對比較明顯,和樣本比例關系不大;而對于特征狀態(tài)相似的意圖,攻擊與佯攻、偵察與監(jiān)視的樣本不均衡使模型在訓練過程中對少數(shù)類樣本欠擬合,從而導致模型不能準確識別意圖間的邊界。

        表3 原始樣本的意圖識別混淆矩陣

        然而,在真實戰(zhàn)場中攻擊和監(jiān)視的群組對己方重要程度通常更大,因此為了使模型能更合理地確定少數(shù)類意圖的邊界,使用第2.1節(jié)中ABSMOTE-NC的方法對訓練集中的少數(shù)類樣本進行擴充,再對模型進行訓練,得到的意圖識別混淆矩陣如表4所示。由表可知,模型對攻擊和監(jiān)視意圖的樣本的召回率有了明顯的提升,分別達到了86.67%和77.5%。

        表4 擴充樣本后的意圖識別混淆矩陣

        (3) 與其他過采樣算法對比

        為了能更準確分辨模型的分類效果,除了使用準確率外,還引入macro-F1、AUC作為評估指標,以驗證ABSMOTE-NC的優(yōu)越性。將其與Random Oversampling、Borderline-SMOTE-NC、面向無序分類變量和連續(xù)變量的SMOTE-最近鄰規(guī)則(SMOTE-nominal continuous-edited nearest neighbor, SMOTENC-ENN)、SMOTE-NC過采樣算法進行比較,具體結果如圖7所示。

        圖7 不同過采樣算法的評估指標對比

        由圖7可知,通過過采樣算法,ABSMOTE-NC在macro-F1和AUC值均有明顯提升,分類效果有所改善。雖然SMOTENC-ENN和SMOTE-NC在準確率上不如原始數(shù)據(jù),分析后應是合成新樣本后意圖邊界靠近少數(shù)類中心而導致多數(shù)類樣本識別率降低,但總體的分類效果還是優(yōu)于原始數(shù)據(jù)。本文中ABSMOTE-NC方法得到的macro-F1和AUC值分別達到了0.931 7和0.981 4,相比原始模型分別提高了7.33%和8.61%,說明模型能較準確地劃分邊界區(qū)域,證明了算法的有效性和優(yōu)越性。

        4.2.2 BiGRU-Attention模型對比分析

        (1) 與DNN、SAE、LSTM模型對比

        為驗證本文模型的優(yōu)越性,將本文BiGRU-Attention模型與文獻[10]中基于SAE的目標戰(zhàn)術意圖識別模型、文獻[11]中基于DNN的作戰(zhàn)意圖識別模型、文獻[29]中LSTM+Adam空戰(zhàn)意圖識別模型進行對比實驗。設置模型參數(shù)如表5所示,在對少數(shù)類樣本集擴充后再利用各模型進行意圖識別,實驗結果如圖8所示。

        表5 模型參數(shù)設置

        圖8 模型的評估指標對比

        由圖8可知本文中BiGRU-Attention模型在macro-F1和AUC兩個評估指標上明顯高于其余模型,在意圖識別上有更好的分類效果,驗證了模型的優(yōu)越性。

        (2) 消融實驗

        第4.2.1節(jié)實驗證明了相比LSTM、SAE、DNN等網(wǎng)絡,BiGRU-Attention的分類效果更優(yōu)越,但這些網(wǎng)絡不屬于同一類型且參數(shù)設置也不盡相同,導致實驗缺乏一定的說服力。因此,將本文BiGRU-Attention模型與GRU、BiGRU、GRU-Attention模型進行消融實驗,實驗結果如圖9、圖10和表6所示。

        圖9 模型準確率變化

        圖10 消融實驗模型評估指標對比

        表6 消融實驗各模型評估指標值

        由圖9可知,本文所提BiGRU-Attention模型在訓練過程中準確率始終優(yōu)于GRU、BiGRU、GRU-Attention 3種模型,能夠有效提升意圖識別效果,而BiGRU、GRU-Attention在訓練中準確率均高于GRU模型,經(jīng)分析后認為是模型中的雙向循環(huán)機制和注意力機制能有效提升訓練效果與學習效率。

        由表6可以看出,由于攻擊和監(jiān)視意圖的樣本數(shù)較少,合成樣本不能完全代替真實樣本,且攻擊與佯攻、監(jiān)視與偵察的特征相似度又較高,導致攻擊和監(jiān)視意圖樣本的識別率不高。而BiGRU-Attention模型在大部分樣本的精確率、召回率、F1-score上均高于其余3種模型,證明了本文模型能有效提升意圖識別效果。由圖10可知,本文模型與其他模型相比,在macro-F1和AUC值上都有明顯的優(yōu)勢,也驗證了模型在意圖識別效果上的優(yōu)越性。

        5 結 論

        本文針對空中群組的真實樣本不平衡而導致模型識別效果不佳的問題,提出了先擴充樣本集訓練后識別的方法。該方法先采用ABSMOTE-NC對訓練集中少數(shù)類樣本集進行擴充,增加樣本空間中少數(shù)類意圖的邊界樣本,再利用BiGRU-Attention模型對樣本信息進行深層次特征提取,以提升模型意圖識別的效果。最終通過仿真實驗表明ABSMOTE-NC方法能有效提升樣本不平衡情況下的空中群組意圖識別效果,且BiGRU-Attention模型在意圖識別上有更高的識別率。

        猜你喜歡
        群組意圖準確率
        原始意圖、對抗主義和非解釋主義
        法律方法(2022年2期)2022-10-20 06:42:20
        陸游詩寫意圖(國畫)
        乳腺超聲檢查診斷乳腺腫瘤的特異度及準確率分析
        健康之家(2021年19期)2021-05-23 11:17:39
        不同序列磁共振成像診斷脊柱損傷的臨床準確率比較探討
        2015—2017 年寧夏各天氣預報參考產(chǎn)品質量檢驗分析
        制定法解釋與立法意圖的反事實檢驗
        法律方法(2021年3期)2021-03-16 05:56:58
        關系圖特征在敏感群組挖掘中的應用研究
        電子測試(2018年14期)2018-09-26 06:04:10
        高速公路車牌識別標識站準確率驗證法
        基于統(tǒng)計模型的空間群組目標空間位置計算研究
        燕山秋意圖
        亚洲av无码一区二区乱子仑| 久久久久亚洲精品无码蜜桃| 亚洲伊人成综合网| 欧美在线资源| 自拍偷拍另类三级三色四色| 一区二区视频在线观看地址| 48久久国产精品性色aⅴ人妻 | 毛茸茸的中国女bbw| 精品无码一区在线观看| 未满十八勿入av网免费| 国产白浆流出一区二区| 91精品亚洲成人一区二区三区| 国产办公室沙发系列高清| 日韩欧美专区| 中文字幕你懂的一区二区| 男人天堂这里只有精品| 欧洲freexxxx性少妇播放| 精品少妇大屁股白浆无码| 午夜国产在线精彩自拍视频| 男女打扑克视频在线看| 亚洲熟妇色自偷自拍另类| 乱人伦中文字幕成人网站在线| 亚洲AVAv电影AV天堂18禁 | 中文字幕一区二区三区乱码人妻 | 国产一区二区三区白浆肉丝 | 欧美黑人性色黄在线视频| 国产成人精品自拍在线观看| 国产情侣自拍一区视频| 99re8这里有精品热视频免费| 亚洲都市校园激情另类| 国产精品美女主播在线| 四虎成人精品国产永久免费无码| 亚洲深深色噜噜狠狠爱网站| 国产一区二区在线观看我不卡| 自由成熟女性性毛茸茸应用特色 | 国产高清一区二区三区视频| 亚洲AV成人无码久久精品四虎| 国产成人av三级三级三级在线 | 亚洲国产精品一区二区www| 亚洲无码一二专区| 天堂影院久久精品国产午夜18禁|