田相軒, 石志強(qiáng)
(陸軍裝甲兵學(xué)院信息通信系, 北京 100072)
指揮信息系統(tǒng)是指具有指揮、控制、通信、信息處理、情報(bào)、偵察與監(jiān)視功能的一體化、網(wǎng)絡(luò)化的各類軍事信息系統(tǒng)總稱,以提高多兵種一體化聯(lián)合作戰(zhàn)能力為目的,是信息化戰(zhàn)爭(zhēng)的最基本物質(zhì)基礎(chǔ)[1-3]。實(shí)戰(zhàn)化的指揮信息系統(tǒng)訓(xùn)練,存在費(fèi)用高、安全隱患大、武器彈藥消耗多、戰(zhàn)場(chǎng)環(huán)境需求多樣、多兵種聯(lián)合協(xié)同難以及訓(xùn)練后效能評(píng)估復(fù)雜等問(wèn)題[4-6]?;诒N建設(shè)模訓(xùn)系統(tǒng)的指揮信息系統(tǒng)訓(xùn)練,涉及指揮控制、情報(bào)偵察、信息傳輸、信息處理等多個(gè)專業(yè)方向,需要構(gòu)建被訓(xùn)對(duì)象的訓(xùn)練目標(biāo)、訓(xùn)練對(duì)象模型、模擬裝備,需要提供作戰(zhàn)想定、戰(zhàn)場(chǎng)環(huán)境、主要事件、模擬設(shè)施、模型運(yùn)算符法則、武器/裝備數(shù)據(jù)庫(kù),需要在模訓(xùn)實(shí)施前下發(fā)作戰(zhàn)想定、實(shí)施過(guò)程中對(duì)紅藍(lán)對(duì)抗雙方進(jìn)行監(jiān)督、訓(xùn)練結(jié)束后進(jìn)行評(píng)估與總結(jié),整個(gè)過(guò)程需要模擬的對(duì)象和過(guò)程繁多復(fù)雜,涉及到的技戰(zhàn)術(shù)指標(biāo)相互影響疊加,數(shù)據(jù)采集分析困難[7-9]。目前,技術(shù)支撐單位提供的樣本數(shù)據(jù)能夠淺表化地支撐模訓(xùn)系統(tǒng)運(yùn)行,但是對(duì)于針對(duì)性訓(xùn)練、定制化訓(xùn)練、重復(fù)場(chǎng)景的強(qiáng)化訓(xùn)練、全元素的綜合訓(xùn)練的支撐能力還不夠[10-11]。
目前,指揮信息系統(tǒng)模擬數(shù)據(jù)集生成的研究主要有兩類,一類是使系統(tǒng)能夠在小樣本的環(huán)境下運(yùn)行,實(shí)現(xiàn)模型參數(shù)的優(yōu)化。段萌等人提出采用卷積神經(jīng)網(wǎng)絡(luò)的方法對(duì)大數(shù)據(jù)集進(jìn)行訓(xùn)練,獲取參數(shù)后,再應(yīng)用到小樣本上進(jìn)行模型初始化,實(shí)現(xiàn)小樣本下的模擬數(shù)據(jù)集生成,但是該方法需要大數(shù)據(jù)集對(duì)模型進(jìn)行預(yù)訓(xùn)練獲取權(quán)重參數(shù)[12]。任佳等人提出的算法利用專家經(jīng)驗(yàn)和領(lǐng)域知識(shí),通過(guò)“軟約束”方法對(duì)模型參數(shù)進(jìn)行學(xué)習(xí),從而保證在小樣本條件下的精確性和有效性,但是專家經(jīng)驗(yàn)和領(lǐng)域知識(shí)的局限性無(wú)法克服[13]。該類方法能夠達(dá)到基本的要求,但限制了系統(tǒng)涌現(xiàn)性和自組織性的體現(xiàn),某些特定環(huán)境條件地訓(xùn)練無(wú)法展開(kāi),如針對(duì)海島、高原的訓(xùn)練等。另一類是基于先驗(yàn)知識(shí),通過(guò)簡(jiǎn)單地?cái)?shù)據(jù)分析和選取特征后擴(kuò)充數(shù)據(jù)。常沙等人基于數(shù)值模擬、統(tǒng)計(jì)特征及人工構(gòu)建相結(jié)合的方法構(gòu)建氣象水文環(huán)境想定,該方法對(duì)系統(tǒng)的非線性變量考慮較少,形成的模型不能真實(shí)模擬戰(zhàn)場(chǎng)環(huán)境[14]。Li等人基于支持向量機(jī)(support vector machine, SVM)聯(lián)合網(wǎng)格搜索實(shí)現(xiàn)模擬數(shù)據(jù)的生成,但是SVM對(duì)原始樣本中數(shù)據(jù)值缺失、異常值等特征比較敏感,導(dǎo)致生成的數(shù)據(jù)與原數(shù)據(jù)的線性回歸擬合不好[15]。楊懿男等人基于生成對(duì)抗網(wǎng)絡(luò)(generative adversarial networks,GAN)通過(guò)反向微調(diào)模型的內(nèi)部參數(shù)(修正激活函數(shù)、刪除池化層),驅(qū)動(dòng)生成器生成更加真實(shí)的樣本,主要是在工程優(yōu)化方面做了一些工作,對(duì)于生成樣本與原始樣本數(shù)據(jù)分布的討論較少[16]。
強(qiáng)軍目標(biāo)之“強(qiáng)”,很重要的體現(xiàn)在核心軍事能力上,這就要求我軍必須具有威懾和實(shí)戰(zhàn)兩個(gè)能力。在信息化加速發(fā)展的當(dāng)今時(shí)代,我軍核心軍事能力的根本標(biāo)志是基于信息系統(tǒng)的體系作戰(zhàn)能力[17]?;谛畔⑾到y(tǒng)下的體系作戰(zhàn),強(qiáng)調(diào)的不再是某一兵種的強(qiáng)大,而是在體系下,系統(tǒng)的劣勢(shì)和優(yōu)勢(shì),各指標(biāo)之間不再是相互獨(dú)立,而是相互關(guān)聯(lián),呈現(xiàn)出多種關(guān)系,既有線性關(guān)系也有非線性關(guān)系。深度學(xué)習(xí)的相關(guān)技術(shù)以數(shù)據(jù)驅(qū)動(dòng)為核心思想,通過(guò)分析數(shù)據(jù)內(nèi)在規(guī)律,提取數(shù)據(jù)特征,克服人為建模的局限性[18-20]。本文基于深度學(xué)習(xí)的GAN,提出改進(jìn)型GAN模擬數(shù)據(jù)生成(the simulation data generation based on evolutional GAN, EGAN-SDG)算法,構(gòu)建指標(biāo)體系,提出數(shù)據(jù)收集和清洗流程,基于GAN構(gòu)建判別器與生成器,提出擬合度因子,通過(guò)靈活調(diào)參實(shí)現(xiàn)損失函數(shù)的收斂平衡,提高優(yōu)化水平,實(shí)現(xiàn)復(fù)雜高維數(shù)據(jù)的學(xué)習(xí)訓(xùn)練與生成。在此基礎(chǔ)上,采用互信息的方式對(duì)各指標(biāo)體系間的關(guān)系進(jìn)行描述,通過(guò)回歸擬合曲線驗(yàn)證新數(shù)據(jù)集的概率分布和相關(guān)關(guān)系,檢驗(yàn)生成數(shù)據(jù)的可信度,為指揮信息系統(tǒng)的全元素訓(xùn)練提供數(shù)據(jù)支撐。
GAN的基本思想源自博弈論的二人零和博弈,由一個(gè)生成器和一個(gè)判別器構(gòu)成,通過(guò)對(duì)抗學(xué)習(xí)的方式來(lái)訓(xùn)練。生成模型和判別模型訓(xùn)練和優(yōu)化的過(guò)程就是一個(gè)“二元極小極大博弈”問(wèn)題[21-22],訓(xùn)練時(shí)固定一個(gè)模型,更新另一個(gè)模型的參數(shù),交替迭代。最終,生成模型學(xué)習(xí)到樣本分布規(guī)律,生成足以以假亂真的樣本,使得判別模型無(wú)法確定生成模型生成樣本的真假性,GAN的架構(gòu)如圖1所示。
圖1 GAN架構(gòu)
判別模型通過(guò)對(duì)數(shù)據(jù)各維度特征的抽象,表達(dá)各類數(shù)據(jù)的差異,尋找不同類別之間的最優(yōu)分類面。假設(shè)判別模型為D,其輸入是數(shù)據(jù)空間內(nèi)的任意一個(gè)數(shù)據(jù)集x,輸出是一個(gè)概率值,表示屬于真實(shí)數(shù)據(jù)的概率[23-24],判別模型的優(yōu)化目標(biāo)是最大化地提高模型鑒別數(shù)據(jù)集的能力,獲取式(1)的極大值:
max(D)=Ex[D(x)]
(1)
生成模型是通過(guò)學(xué)習(xí)原數(shù)據(jù)的聯(lián)合概率密度分布,求取條件概率分布作為預(yù)測(cè)模型,生成模擬數(shù)據(jù)集。假設(shè)生成模型為G,其輸入是一個(gè)隨機(jī)變量z,z服從某種分布,輸出是一個(gè)數(shù)據(jù)集G(z),如果生成的數(shù)據(jù)集經(jīng)過(guò)模型D后的概率值很高,就說(shuō)明生成模型已經(jīng)比較好地掌握了數(shù)據(jù)的分布模式,可以生成符合要求的樣本;反之則沒(méi)有達(dá)到要求,還需要繼續(xù)訓(xùn)練。生成模型的優(yōu)化目標(biāo)是使生成的“假”數(shù)據(jù)集最大化地被判別模型鑒別為“真”,獲取式(2)的極小值:
min(G)=Ez[log(1-D(G(z)))]
(2)
因?yàn)镚AN的兩個(gè)模型都是可微分的,可選擇任何類的梯度下降模型。系統(tǒng)的優(yōu)化目標(biāo)為生成模型目標(biāo)函數(shù)獲得最小值,判別模型目標(biāo)函數(shù)獲得最大值,可見(jiàn)最優(yōu)化方程即最小最大博弈,算法的均衡點(diǎn),也就是納什均衡,即實(shí)現(xiàn)全連接的神經(jīng)網(wǎng)絡(luò)目標(biāo)函數(shù)的最優(yōu)化,以此判斷和監(jiān)視學(xué)習(xí)訓(xùn)練的成果[15]。
min maxV(D,G)=
Ex[logD(x)]+Ez[log(1-D(G(z)))]=
(3)
式(3)為系統(tǒng)的優(yōu)化目標(biāo)函數(shù),pr和pg分別代表真實(shí)數(shù)據(jù)集與生成數(shù)據(jù)集判斷為真的概率分布,Ex[logD(x)]為使真實(shí)數(shù)據(jù)通過(guò)判別模型所得到的期望,Ez[logD(G(z))]為使生成模型生成數(shù)據(jù)通過(guò)判別模型所得到的期望。由于組成式子的兩部分積分的區(qū)域不同,當(dāng)固定生成模型時(shí),生成模型生成的數(shù)據(jù)集對(duì)應(yīng)一個(gè)具體的x取值,所以pgxlog(1-D(G(z))可等價(jià)為pgxlog(1-D(x)),可得
maxV(D,G)=
(4)
(5)
(6)
(7)
V(D,G)=
Ex[logD(x)]+Ez[log (1-D(G(z)))]=
(8)
(9)
(10)
V(D,G)=-2log 2+2DJS(pr‖qg)
(11)
求解式(4)的最大值,需將被積分部分取最大值,可得式(5);對(duì)式(5)求導(dǎo),得到式(6),令其為0,可得式(7),即取最大值時(shí)D*的值;將D*代回到式(3)中可得式(8),即判別模型取最大值時(shí),V(D,G)的值;KL散度與JS散度如式(9)和式(10)所示,推導(dǎo)可得V(D,G)可表示為式(11)所示,即pr,qg的JS散度與常數(shù)-2log 2的和。
式(11)可解釋如下:首先優(yōu)化判別模型,當(dāng)判別模型取最大值時(shí),即取值為D*時(shí),判別模型達(dá)到最優(yōu)化水平;固定鑒別模型,逐漸優(yōu)化生成模型,當(dāng)pg逐漸逼近pr,直至pg等于pr,DJS(p‖q)=0,mingV(D,G)取最小值為-2log 2,系統(tǒng)達(dá)到最優(yōu)化水平(具體實(shí)現(xiàn)需要多次迭代),即系統(tǒng)對(duì)于生成模型生成數(shù)據(jù)判別為真或假的概率均為0.5,系統(tǒng)達(dá)到納什均衡。
EGAN-SDG算法流程如圖2所示,包含指標(biāo)體系構(gòu)建、數(shù)據(jù)收集與清洗、GAN數(shù)據(jù)生成、互信息數(shù)據(jù)真實(shí)度驗(yàn)證4部分。
圖2 數(shù)據(jù)生成流程
針對(duì)目前合成旅指揮信息系統(tǒng)典型運(yùn)用模式,本著簡(jiǎn)單、可測(cè)、穩(wěn)定、時(shí)效、獨(dú)立的原則,反映指揮信息系統(tǒng)從作戰(zhàn)方案的確定,情報(bào)獲取、情報(bào)分析、信息傳輸、火力協(xié)同、指揮控制與戰(zhàn)斗數(shù)據(jù)的收集,到完成作戰(zhàn)方案庫(kù)的不斷優(yōu)化的完整過(guò)程,體現(xiàn)指揮信息系統(tǒng)履行使命任務(wù)的支撐能力[25-26]。通過(guò)研究篩選,根據(jù)指揮流程中各個(gè)能力的分析描述,構(gòu)建指標(biāo)體系如圖3所示,區(qū)分信息獲取分系統(tǒng)、信息傳輸分系統(tǒng)、信息處理分系統(tǒng)、輔助決策分系統(tǒng)、指揮控制分系統(tǒng)、資源管理分系統(tǒng)、系統(tǒng)對(duì)抗分系統(tǒng)七類系統(tǒng),梳理為信息支撐能力、指揮控制能力、協(xié)同作戰(zhàn)能力、信息傳輸能力、系統(tǒng)穩(wěn)定能力5種支撐能力,共計(jì)22個(gè)維度的信息。
圖3 指揮信息系統(tǒng)履行使命任務(wù)支撐能力指標(biāo)體系
根據(jù)第2.1節(jié)中構(gòu)建的指標(biāo)體系,收集與清洗指揮信息系統(tǒng)運(yùn)行過(guò)程中產(chǎn)生的數(shù)據(jù),按照信息類型區(qū)分為結(jié)構(gòu)化信息和非結(jié)構(gòu)化信息兩部分,對(duì)數(shù)據(jù)進(jìn)行預(yù)處理,提高數(shù)據(jù)學(xué)習(xí)效率,如圖4所示。
圖4 數(shù)據(jù)收集與清洗流程
非結(jié)構(gòu)化信息主要是指揮信息系統(tǒng)運(yùn)行過(guò)程中產(chǎn)生的格式化短報(bào)文、長(zhǎng)報(bào)文和語(yǔ)音信息等。指揮信息系統(tǒng)中格式化報(bào)文信息數(shù)量有限,可通過(guò)預(yù)建信息抽取模型的方式,將非結(jié)構(gòu)化信息轉(zhuǎn)換為編碼信息,數(shù)據(jù)收集與清洗的流程步驟如下。
步驟 1區(qū)分短報(bào)文、長(zhǎng)報(bào)文、語(yǔ)音信息后,將長(zhǎng)報(bào)文、語(yǔ)音信息轉(zhuǎn)換為短報(bào)文集的形式。針對(duì)長(zhǎng)報(bào)文,需要進(jìn)行短語(yǔ)識(shí)別轉(zhuǎn)換為短報(bào)文集;針對(duì)語(yǔ)音信息,需要進(jìn)行語(yǔ)音識(shí)別,區(qū)分為長(zhǎng)報(bào)文或短報(bào)文后,再作相應(yīng)地處理。
步驟 2針對(duì)短報(bào)文或短報(bào)文集進(jìn)行信息提取。首先,根據(jù)基礎(chǔ)詞典庫(kù)中的詞語(yǔ)組合信息,對(duì)短語(yǔ)字符串進(jìn)行詞性分析,將字符串切分并作簡(jiǎn)單標(biāo)注,對(duì)字符串進(jìn)行初步的結(jié)構(gòu)化;其次,根據(jù)軍用詞典庫(kù)中的詞語(yǔ)組合信息,抽取相關(guān)詞組的類型定義、前后條件約束,采用軍用術(shù)語(yǔ)關(guān)鍵詞切分全句,將字符串切分成若干段,通過(guò)識(shí)別詞性獲取該詞的語(yǔ)義;根據(jù)語(yǔ)法規(guī)則庫(kù)中語(yǔ)法約束信息,判斷前后詞性是否符合約束規(guī)則,對(duì)實(shí)體進(jìn)行完整性匹配,進(jìn)行語(yǔ)法推理,獲取短報(bào)文語(yǔ)義。根據(jù)短報(bào)文語(yǔ)義,對(duì)短報(bào)文進(jìn)行數(shù)據(jù)映射,建立短報(bào)文信息與編碼之間的對(duì)應(yīng)關(guān)系集[27]。
步驟 3將處理完的非結(jié)構(gòu)化信息與結(jié)構(gòu)化信息進(jìn)行數(shù)據(jù)清洗,目的是將同一時(shí)刻的多維度信息轉(zhuǎn)換成為表征指揮信息系統(tǒng)技戰(zhàn)術(shù)指標(biāo)的時(shí)間切片信息。首先,進(jìn)行數(shù)據(jù)格式轉(zhuǎn)換,數(shù)據(jù)矩陣橫坐標(biāo)為維度信息,縱坐標(biāo)為按照時(shí)間先后的編號(hào);其次進(jìn)行數(shù)據(jù)缺失值、異常值、噪音處理,即將重復(fù)、多余的數(shù)據(jù)篩選清除,將缺失的數(shù)據(jù)補(bǔ)充完整(拉格朗日中值法[28]),將錯(cuò)誤的數(shù)據(jù)糾正或者刪除;最后進(jìn)行規(guī)范化處理(最小最大規(guī)范化[29]),將數(shù)據(jù)歸一到[0,1]的范圍內(nèi),便于進(jìn)行深度學(xué)習(xí)的數(shù)據(jù)訓(xùn)練。
指揮信息系統(tǒng)模擬數(shù)據(jù)集生成的核心在于構(gòu)建與之匹配的GAN,實(shí)現(xiàn)數(shù)據(jù)的學(xué)習(xí)、訓(xùn)練與生成,難度在于提高生成數(shù)據(jù)集與原始數(shù)據(jù)的數(shù)據(jù)分布的相似度,避免局部收斂問(wèn)題,達(dá)到判別模型與生成模型的均衡,實(shí)現(xiàn)系統(tǒng)目標(biāo)的最優(yōu)化。
本文基于互信息分析數(shù)據(jù)集之間的相關(guān)關(guān)系,提出將擬合度作為GAN系統(tǒng)的判別模型目標(biāo)函數(shù)的修正因子,實(shí)現(xiàn)生成的模擬數(shù)據(jù)集與原始數(shù)據(jù)集的數(shù)據(jù)分布地快速擬合,從而提高GAN優(yōu)化水平,具體實(shí)現(xiàn)流程如下。
步驟 1固定生成模型,訓(xùn)練判別模型,判別模型的函數(shù)是:
maxV(D,G)=Ex[logD(x)]+Ez[log (1-D(x)]
(12)
設(shè)計(jì)判別模型為3層全連接神經(jīng)網(wǎng)絡(luò),輸入層節(jié)點(diǎn)數(shù)為22,隱藏層節(jié)點(diǎn)數(shù)為128,輸出層節(jié)點(diǎn)數(shù)為1,使用交叉熵作為判別器的損失函數(shù),即提高將真實(shí)數(shù)據(jù)集判斷為真的期望,降低將生成數(shù)據(jù)集判斷為真的期望,最后一層輸出執(zhí)行Sigmoid函數(shù),獲得在[0,1]范圍內(nèi)的實(shí)數(shù)值,通過(guò)目標(biāo)函數(shù)最優(yōu),對(duì)判別模型進(jìn)行訓(xùn)練,實(shí)現(xiàn)梯度的快速下降,尋找最優(yōu)解,提升判別模型的甄別能力。
步驟 2固定判別模型,訓(xùn)練生成模型,生成模型的目標(biāo)是使得生成的數(shù)據(jù)集使判別模型無(wú)法判別,其目標(biāo)函數(shù)是:
minV(D,G)=Ez[log (1-D(G(z)))]
(13)
設(shè)計(jì)生成模型為3層全連接神經(jīng)網(wǎng)絡(luò),輸入層節(jié)點(diǎn)數(shù)為100,隱藏層節(jié)點(diǎn)數(shù)為128,輸出層節(jié)點(diǎn)數(shù)為22,使用交叉熵作為生成器的損失函數(shù),目標(biāo)是使生成模型生成數(shù)據(jù)通過(guò)判別模型的期望最大,獲得式(13)的最小值。
步驟 3定義判別模型和生成模型的優(yōu)化方法均為Adam算法,重復(fù)步驟1與步驟2,即先固定生成模型優(yōu)化判別模型參數(shù);再固定判別模型,并把優(yōu)化后的判別模型參數(shù)傳給生成模型,優(yōu)化生成模型的參數(shù),通過(guò)大量迭代后,逐步實(shí)現(xiàn)目標(biāo)函數(shù)的最優(yōu)化,使得生成樣本數(shù)據(jù)分布接近真實(shí)數(shù)據(jù)分布,判別模型處于納什均衡,判別模型對(duì)于生成模型產(chǎn)生的數(shù)據(jù)很難做出準(zhǔn)確的判斷。
步驟 4每迭代n次進(jìn)行數(shù)據(jù)分布擬合度校驗(yàn),修正判別模型的目標(biāo)函數(shù),從而提高向原始數(shù)據(jù)擬合的收斂度,其修正函數(shù)為
maxV(D,G)=SIN(Ex[logD(x)]+Ez[log (1-D(G(z)))])
(14)
式中,N=round(M/n),round(·)為取整函數(shù),M為目前的迭代總次數(shù);SIN為第N輪的擬合度值,其具體計(jì)算方法分為5步:
步驟 4.1針對(duì)迭代生成的模擬數(shù)據(jù)集,選取任意兩個(gè)隨機(jī)變量X,Y,使其分布在兩維的空間中,使用m×n的網(wǎng)格進(jìn)行空間劃分,對(duì)落在各個(gè)網(wǎng)格的點(diǎn)數(shù)進(jìn)行統(tǒng)計(jì);
步驟 4.2計(jì)算落在第(x,y)網(wǎng)格的頻率P(x,y),同時(shí)計(jì)算落在在第x行的數(shù)據(jù)點(diǎn)的頻率作為P(x)地估計(jì),同理獲得P(y)的估計(jì)[30],可表示為
(15)
步驟 4.3通過(guò)遍歷,改變m,n的值,變化網(wǎng)格的劃分,尋找使得a,b落在第(x,y)網(wǎng)格中的頻率的各種可能,獲得互信息最大的網(wǎng)格劃分參數(shù)[31],即隨機(jī)變量X,Y的互信息值,其中m×n
MICX,Y=f(X,Y)=
步驟 4.4根據(jù)上述方法,計(jì)算任意模擬數(shù)據(jù)集中任意兩個(gè)隨機(jī)變量的互信息值,通過(guò)歸一化,使互信息的值分布在(0,1)區(qū)間內(nèi),構(gòu)建互信息鄰接矩陣。
步驟 4.5經(jīng)過(guò)多次迭代,生成的模擬數(shù)據(jù)應(yīng)該與原始數(shù)據(jù)集的相關(guān)性越來(lái)越強(qiáng),為提高優(yōu)化的效率,計(jì)算本輪與原始數(shù)據(jù)互信息鄰接矩陣之間的互信息值,得本輪數(shù)據(jù)集相似度SIN,設(shè)計(jì)第N輪的擬合度S為第N輪與第N-1輪相似度的比值,若第N輪相似度高于第N-1輪的相似度,則增強(qiáng)該方向梯度下降的信心,否則降低向該方向梯度下降的信心:
SIN=f(Matrix(MIC)N,Matrix(MIC)base)
(17)
(18)
(1) 實(shí)驗(yàn)環(huán)境:利用實(shí)驗(yàn)室仿真環(huán)境,采用Python3,Anaconda環(huán)境下,配合PyCharm,使用TensorFlow框架,搭建基礎(chǔ)實(shí)驗(yàn)環(huán)境。
(2) 指標(biāo)集構(gòu)建:采用第2.1節(jié)的指標(biāo)體系,忽略人為地層次化分類,從底層數(shù)據(jù)構(gòu)建原始數(shù)據(jù)集,抽取數(shù)據(jù)集特征。
(3) 原始數(shù)據(jù)處理:本文原始數(shù)據(jù)來(lái)源于前期訓(xùn)練收集積累的歷史數(shù)據(jù),經(jīng)過(guò)脫密處理后,為22維,共計(jì)200條數(shù)據(jù),如表1所示。通過(guò)最大信息數(shù)計(jì)算方法,計(jì)算任意兩個(gè)隨機(jī)變量之間的互信息值,得到互信息鄰接矩陣,如表2所示。
表1 原始數(shù)據(jù)
表2 原始數(shù)據(jù)相關(guān)關(guān)系鄰接矩陣
按照第2.3節(jié)中的試驗(yàn)方法,圖5是基于未改進(jìn)的GAN中獲得的模擬數(shù)據(jù)集,在GAN迭代100 000次之后,觀測(cè)損失函數(shù)曲線,判別模型損失函數(shù)D_Loss函數(shù)的值在開(kāi)始階段相對(duì)生成模型損失函數(shù)值G_Loss較小,表明開(kāi)始階段判別模型誤差減小的速度較快,得到判別模型函數(shù)的較大值。隨著迭代次數(shù)的增加,判別模型的數(shù)據(jù)來(lái)源不僅是原始數(shù)據(jù)還包含生成模型產(chǎn)生的數(shù)據(jù)后,D_Loss的值隨之變大,判別模型性能下降后,而G_Loss的值隨之減小,生成模型生成數(shù)據(jù)判定為真的概率大大增加。在后半階段,各損失函數(shù)值達(dá)到平衡,從T_Loss=D_Loss+G_Loss的值可看到,整個(gè)迭代過(guò)程,相對(duì)平穩(wěn),即判別模型與生成模型相互對(duì)抗,相互博弈。
圖5 損失函數(shù)曲線(GAN)
圖6為GAN系統(tǒng)在學(xué)習(xí)訓(xùn)練100 000次后,生成的模擬數(shù)據(jù)集情況,通過(guò)計(jì)算數(shù)據(jù)集任意兩維度之間最大信息系數(shù),獲得數(shù)據(jù)集所有最大信息數(shù)的線性回歸線。
圖6 最大信息系數(shù)回歸曲線(GAN)
通過(guò)圖6可看到,原始數(shù)據(jù)集與為未改進(jìn)的GAN生成的模擬數(shù)據(jù)集的最大信息系數(shù)的線性回歸線擬合不好,經(jīng)過(guò)100 000次迭代后,雖然損失函數(shù)到達(dá)一定的平穩(wěn)區(qū)間,但數(shù)據(jù)集的分布相似度并不高,數(shù)據(jù)走向趨勢(shì)不同。定義數(shù)據(jù)集真實(shí)度為生成數(shù)據(jù)集與原始數(shù)據(jù)集的線性回歸線的互信息,以此來(lái)度量生成數(shù)據(jù)集的可用性。通過(guò)計(jì)算,可得原始數(shù)據(jù)與未優(yōu)化的GAN網(wǎng)絡(luò)迭代100 000次后生成的數(shù)據(jù)集的數(shù)據(jù)集真實(shí)度為0.42,有一定的相關(guān)性,但需要進(jìn)一步修正。
圖7是基于EGAN-SDG算法獲得模擬數(shù)據(jù)集,在GAN迭代100 000次之后,判別模型損失函數(shù)D_Loss函數(shù)的值在開(kāi)始階段相對(duì)生成模型損失函數(shù)值G_Loss較大,經(jīng)歷過(guò)8~10輪的激烈對(duì)抗博弈后,基本達(dá)到平衡,可見(jiàn)判別模型獲得穩(wěn)定的較大值,能夠較高精確度的判別數(shù)據(jù)集的真實(shí)程度。在最后階段達(dá)到平衡后,G_Loss的值隨之增大,生成可通過(guò)判別模型的數(shù)據(jù)集的能力降低。通過(guò)T_Loss值可以看到,最后階段系統(tǒng)總體性能基本穩(wěn)定,上下幅度不大。進(jìn)而可以得到,系統(tǒng)達(dá)到穩(wěn)定階段,此時(shí)系統(tǒng)生成模擬數(shù)據(jù)接近原始數(shù)據(jù)分布的能力逐漸變強(qiáng)。
圖8為EGAN-SDG系統(tǒng)在學(xué)習(xí)訓(xùn)練100 000次后,生成的模擬數(shù)據(jù)集情況,可見(jiàn)相比原始數(shù)據(jù)集,系統(tǒng)生產(chǎn)的模擬數(shù)據(jù)集,在數(shù)據(jù)集最大信息數(shù)的線性回歸線擬合上有了較大提升,可觀測(cè)到任意兩個(gè)維度之間的最大信息系數(shù)要優(yōu)于原始數(shù)據(jù),即對(duì)原始數(shù)據(jù)內(nèi)在分布的關(guān)系呈現(xiàn)更加強(qiáng)烈,其中原始數(shù)據(jù)與EGAN-SDG系統(tǒng)迭代100 000次后的數(shù)據(jù)集之間的數(shù)據(jù)真實(shí)度為0.53,相比未改進(jìn)的GAN網(wǎng)絡(luò)迭代100 000次后生成的數(shù)據(jù)集的相關(guān)性提高20.75%,未優(yōu)化的GAN網(wǎng)絡(luò)迭代100 000次數(shù)據(jù)與EGAN-SDG系統(tǒng)100 000次迭代數(shù)據(jù)的相關(guān)性為0.46,具有一定的相關(guān)性,但是其訓(xùn)練效率要低于EGAN-SDG系統(tǒng)。同時(shí),采用經(jīng)典的數(shù)據(jù)生成算法—合成少數(shù)類過(guò)采樣技術(shù)(synthetic minority oversampling technique, SMOTE)[32]生成數(shù)據(jù),獲得SMOTE_data的回歸線,數(shù)據(jù)集的基礎(chǔ)數(shù)據(jù)特征(均值、方差)相似程度高,但是數(shù)據(jù)相關(guān)性的分布走勢(shì)與原始數(shù)據(jù)集差別較大,性能弱于未改進(jìn)的GAN網(wǎng)絡(luò)迭代100 000次數(shù)據(jù),求得與原始數(shù)據(jù)的數(shù)據(jù)真實(shí)度為0.12,相關(guān)性較低,該算法生成的數(shù)據(jù)集容易產(chǎn)生局部?jī)?yōu)化現(xiàn)象,導(dǎo)致分布邊緣化問(wèn)題,無(wú)法全面反映數(shù)據(jù)的內(nèi)部關(guān)系。數(shù)據(jù)真實(shí)度是本文提出的評(píng)估生成數(shù)據(jù)集與原始數(shù)據(jù)集非線性相似性的一種方法,仿真結(jié)果表明EGAN-SDG算法經(jīng)過(guò)修正和多次迭代后,這種相似性向著預(yù)設(shè)的方向優(yōu)化,證明了該方法的可行性。
圖8 最大信息系數(shù)回歸曲線(EGAN-SDG)
本文針對(duì)未來(lái)全軍指揮信息系統(tǒng)模擬訓(xùn)練缺乏模擬數(shù)據(jù)集的問(wèn)題,提出了改進(jìn)型GAN模擬數(shù)據(jù)生成算法,構(gòu)建了指揮信息系統(tǒng)履行使命任務(wù)支撐能力的指標(biāo)體系,設(shè)計(jì)了數(shù)據(jù)收集與清洗的流程,基于GAN,結(jié)合數(shù)據(jù)之間的互信息,提出了擬合度因子,基于互信息驗(yàn)證數(shù)據(jù)的可靠性,修正GAN損失函數(shù),提高生成數(shù)據(jù)集與原始數(shù)據(jù)集的數(shù)據(jù)真實(shí)度。通過(guò)仿真證明本文算法生成的數(shù)據(jù)集與原始數(shù)據(jù)的數(shù)據(jù)分布的相似度較高,可為指揮信息系統(tǒng)的全元素訓(xùn)練提供數(shù)據(jù)支撐。下一步的工作,將繼續(xù)研究原始數(shù)據(jù)分布內(nèi)在的關(guān)聯(lián),解釋數(shù)據(jù)內(nèi)部之間的相關(guān)關(guān)系機(jī)理。