張宇 柳少軍 劉洋
1.國防大學信息作戰(zhàn)與指揮訓(xùn)練教研部北京100091
基于對人類行為實證數(shù)據(jù)的分析,運用數(shù)學、系統(tǒng)科學、統(tǒng)計學和非線性科學等理論,研究紛繁復(fù)雜的人類行為的特征、規(guī)律與動力機制,是行為動力學中一個重要的研究內(nèi)容,對于研究經(jīng)濟、政治、軍事等眾多社會學類學科具有重要意義.近年來,隨著計算機仿真技術(shù)的不斷發(fā)展,目前我軍大型兵棋系統(tǒng)已基本實現(xiàn)了對戰(zhàn)爭全要素、全過程的模擬仿真,兵棋推演已經(jīng)逐漸成為我軍模擬訓(xùn)練和研究作戰(zhàn)問題的重要手段,利用兵棋推演鍛煉指揮員戰(zhàn)役級作戰(zhàn)行動的指揮能力也成為目前我國兵棋系統(tǒng)應(yīng)用的一大亮點.推演過程中系統(tǒng)實時記錄了大量真實的指揮行為實證數(shù)據(jù),為面向兵棋推演的行為動力學研究提供了堅實的數(shù)據(jù)支撐.指揮行為動力學研究不僅有助于對指揮員的推演過程進行科學合理的分析,而且可以針對指揮員推演行為的模擬仿真和未來兵棋系統(tǒng)智能功能的開發(fā)打下基礎(chǔ).
進入21世紀后,針對行為動力學問題的研究已經(jīng)引起了有關(guān)學者的重視,并在理論層面獲得了較大的突破.奧地利經(jīng)濟學家路德維?!ゑT·米塞斯在嘗試探索經(jīng)濟學根基的過程中,最早提出了以邏輯架構(gòu)為研究內(nèi)容的人類行為研究方法.按照傳統(tǒng)近似的方法,一般將人的行為規(guī)律描述為近似泊松分布的穩(wěn)態(tài)隨機過程.其主要特征體現(xiàn)在相繼行為之間的時間間隔方差較小,且行為的偶發(fā)狀態(tài)較少且可近似忽略.
但是,2005年,Bar˙abasi[1?2]通過統(tǒng)計用戶發(fā)送和回復(fù)郵件行為的時間間隔,發(fā)現(xiàn)時間間隔同時具有長時靜默與短時高爆發(fā)的特征,相鄰事件中的時間間隔分布呈現(xiàn)出近似反比冪函數(shù)的重尾特性,這種時間標度的特征是在對人類商業(yè)活動、網(wǎng)絡(luò)使用、管理活動、計算機指令使用等方面的時間間隔研究中得到進一步證實.大量實證統(tǒng)計說明人類行為可能存在滿足其他特性的動力學機制.為解釋此類特征的動力機制,Bar˙abasi[2]基于優(yōu)先權(quán)決策理論構(gòu)建了基于任務(wù)選擇的最高優(yōu)先權(quán)優(yōu)先(Highest Priority First,HPF)排隊模型.
Bar˙abasi認為,人類行為時間上的陣發(fā)與重尾特征,是基于排隊過程的決策結(jié)果造成的.據(jù)此,Bar˙abasi[2]構(gòu)建了HPF動力學模型.模型的主要思想是,人通常將需要完成的任務(wù)組合成一個動態(tài)的任務(wù)列表,然后基于個體對不同行為輕重緩急的認知差異,為它們賦予不同的優(yōu)先權(quán)系數(shù).然后,個體按照行為優(yōu)先權(quán)和一定的決策協(xié)議實施行為.基于優(yōu)先權(quán)優(yōu)先的人類動力學模型可以描述為:
1)對行動建立一個包含L項任務(wù)的列表,每項任務(wù)具體的優(yōu)先權(quán)參數(shù)xi(xi=1,2···,L)由分布函數(shù)p(x)得到;
2)隨著時間推進,每個離散時間會選擇一個任務(wù)進行處理,個體以概率p執(zhí)行優(yōu)先權(quán)最高的任務(wù),并以概率1?p執(zhí)行一個完全隨機的任務(wù);
3)當一個任務(wù)完成后,會有下一個新任務(wù)對已執(zhí)行任務(wù)進行替換,新任務(wù)的優(yōu)先權(quán)仍由p(x)產(chǎn)生.
由該模型的定義[4]可知,當概率p→1時,優(yōu)先權(quán)最高的任務(wù)會被執(zhí)行,當概率p→0時,模型將對所有任務(wù)進行隨機選擇.在這種服務(wù)HPF規(guī)則下,被判定為優(yōu)先權(quán)最高的任務(wù),即使它最晚加入任務(wù)列表,仍然會被首選執(zhí)行.這就能很好地模擬人類行為的一種規(guī)律,即人類在眾多事務(wù)需要處理時,會優(yōu)先地選擇重要或者急切需要完成的事務(wù);因此,該模型使得優(yōu)先權(quán)較低的行為被新加入的優(yōu)先權(quán)較高的行為插隊,低優(yōu)先權(quán)的任務(wù)卻需要等待所有比其優(yōu)先權(quán)高的任務(wù)都完成后才能被執(zhí)行,因而低優(yōu)先權(quán)的任務(wù)將被迫長時間停留在隊列中,從而產(chǎn)生任務(wù)執(zhí)行中等待時間出現(xiàn)“重尾”現(xiàn)象.
根據(jù)Bar˙abasi提出的模型概念,選取事件調(diào)度法,運用MATLAB對Bar˙abasi的HPF動力學模型進行仿真模擬.事件調(diào)度法能直接對事件進行調(diào)度,通過按照特定的時序?qū)κ录M行調(diào)度,從而實現(xiàn)對系統(tǒng)動態(tài)變化的模擬.這就要求模型在執(zhí)行事件調(diào)度時,要對事件進行掃描、識別、執(zhí)行等程序.同時,事件列表隨著事件的選擇執(zhí)行不斷進行“加入”、“刪除”等更新.
HPF動力學模型在描述上近似于帶權(quán)值的經(jīng)典M/M/1模型,因此,在經(jīng)典模型中加入優(yōu)先權(quán)變量和模擬變量,使用MATLAB程序?qū)δP瓦M行程序設(shè)計,具體設(shè)計流程如圖2.模型的仿真旨在通過計算機隨機生成的模擬行為得到間隔時間的分布情況.
圖1 時間調(diào)度法流程示意圖
圖2 HPF模型仿真流程圖
為模擬行為選擇執(zhí)行情況,模型中將所執(zhí)行的任務(wù)看作相互離散的時間模擬仿真.設(shè)計模擬變量:任務(wù)到達時刻ta;任務(wù)離開時刻tb;任務(wù)列表總長L;任務(wù)優(yōu)先權(quán)參數(shù)θ;模擬時間tc;結(jié)束時間td;事件類型e;時間執(zhí)行時刻te,等待時間tw等.
在設(shè)置服務(wù)臺n=1、新任務(wù)到達率λ=0.8、系統(tǒng)服務(wù)率μ=0.5、1000次循環(huán)的情況下,仿真結(jié)果顯示模型時間間隔t與間隔時間概率P(t)在雙對數(shù)坐標系下的分布情況如圖3.由仿真結(jié)果可知,該模型能較好地反映人類行為的冪律分布及“重尾”特征.經(jīng)過多次模擬,該條件下冪指數(shù)約為1.58.
通過對兵棋指揮行為數(shù)據(jù)進行時間維的實證分析,從中也發(fā)現(xiàn)了類似的特征.時間間隔分析:兵棋推演指揮行為數(shù)據(jù)集中對時間維的記錄單位為“分鐘”,由于指令下達的時間一般以秒為單位,單位分鐘的粒度較大,很難滿足指令下達的時間間隔要求,所以對時間數(shù)據(jù)進行處理.按以下規(guī)則進行時間處理:
將處理好的單位為“秒”的數(shù)據(jù)進行對于相鄰的同一指令的時間間隔分析,表1給出連續(xù)兩個相同指令時間間隔部分統(tǒng)計結(jié)果.
表1 一次推演過程中紅方作戰(zhàn)集團連續(xù)兩個相同指令下達時間間隔Δt—P(Δt)部分分布表
圖4是一次推演過程中紅方作戰(zhàn)集團指令下達時間間隔在雙對數(shù)坐標系下的分布圖,利用線性回歸方法對該次演習的主體數(shù)據(jù)進行擬合得到圖中直線,分析得到冪指數(shù)為1.65685,相關(guān)系數(shù)R=0.81232.而且,同一指令相鄰兩次的時間間隔最大值超過7000s,在時間間隔冪律分布圖中明顯呈現(xiàn)出“重尾”的特征.結(jié)果顯示,紅方作戰(zhàn)集團在推演過程中綜合各指令下達的時間間隔服從冪律分布.
可見,指揮員在兵棋推演過程中會在短時間內(nèi)對某些指令進行快速頻繁的下達,同時在一定時間內(nèi)出現(xiàn)某些行為的“靜默”,導(dǎo)致陣發(fā)和“重尾”現(xiàn)象同時發(fā)生.這說明指揮員在推演過程中對待各類指令的使用頻率和處理方式都是不同的,各類指令類型存在優(yōu)先權(quán)差異.
圖3 用MATLAB仿真模型的時間間隔在對數(shù)坐標系下的概率分布
圖4 一次推演過程中紅方作戰(zhàn)集團連續(xù)兩個相同指令時間間隔在雙對數(shù)坐標系下分布圖
對比圖3和圖4可以看出,模型的仿真結(jié)果與兵棋推演中實證數(shù)據(jù)的統(tǒng)計結(jié)果具有較大的相似度:
1)在雙對數(shù)坐標系下,模型模擬結(jié)果與實證統(tǒng)計結(jié)果均呈現(xiàn)明顯的冪率分布特征,冪指數(shù)分別為1.58、1.66;
2)兩種結(jié)果在圖中均反映出概率分布較小的大時間間隔出現(xiàn),即明顯的“重尾”特征.
基于HPF動力學模型描述兵棋推演中指揮行為的時序規(guī)律在這兩方面具有較強的可用性.即可以用HPF模型對兵棋推演中指揮員下達指令的行為進行模擬和解釋.在實際推演中,指揮員根據(jù)作戰(zhàn)任務(wù)、作戰(zhàn)目標、作戰(zhàn)階段的不同,也可以看作將準備實施的任務(wù)按照自我認知進行不同優(yōu)先級的劃分.這與Bar˙abasi提出的基于任務(wù)選擇的HPF動力學模型相契合.
Bar˙abasi基于任務(wù)的行為動力模型對于兵棋推演過程具有一定的科學性,通過相鄰兩條作戰(zhàn)指令間隔時間的分析,得出兵棋推演中的指令下達行為近似滿足冪指數(shù)為1.65685的冪律分布.相鄰指令下達等待時間的差異間接反映了推演過程中指令的優(yōu)先權(quán)的差異.基于事件優(yōu)先權(quán)優(yōu)先的動力模型解釋兵棋推演指揮行為的陣發(fā)、冪律分布以及“重尾特征”是可行的.但是,Bar˙abasi的動力學模型與推演行為具有一定的局限性.主要表現(xiàn)在兩個方面:
1)模型未考慮截止時間.由于Bar˙abasi模型優(yōu)先權(quán)參數(shù)的設(shè)置是靜態(tài)的,因而無法解釋具有截止時間的行為.兵棋推演過程并不是無休止的,需要在某一規(guī)定時間內(nèi)完成;
2)模型未考慮階段特征.兵棋推演數(shù)據(jù)在時間上反映出明顯的階段特征;這就需要在基于任務(wù)的模型中加入其他影響因子,本文擬將對任務(wù)的興趣引入行為動力模型的構(gòu)建,即在模型中設(shè)計興趣遞減因子.當演習每一階段開始時,設(shè)置興趣因子隨時間的變化函數(shù),從而反映推演過程的階段特征.
因此,提出一個具有服務(wù)截止時間并加入興趣遞減因子的行為動力學模型改進方案:假設(shè)事件列表的長度為L,服務(wù)時間序列服從參數(shù)θ(θ>0)的負指數(shù)分布,且時間之間相對獨立.在時間步長在執(zhí)行一個行為Fi時,首先在區(qū)間(0,1)上抽取優(yōu)先權(quán)參數(shù)x1,此類事件則以概率Π(xi)=xi接受服務(wù)[4].引入時間變量t,當t=0時,事件列表為靜態(tài)L;當t>0時,個體以概率p執(zhí)行優(yōu)先權(quán)最高的任務(wù),并以概率1?p執(zhí)行一個完全隨機的任務(wù)[3].假設(shè)t=0事件數(shù)為L,則列表中事件的執(zhí)行概率為
當由一個新的任務(wù)加入隊列時,模型共執(zhí)行了n?1個任務(wù)的概率為
引入“興趣——時間”函數(shù)來描述興趣因子:兵棋推演的實際情況是在每個作戰(zhàn)階段的初始時間段參演人員對兵棋推演比較有興趣,隨著推演進程的逐步深入,參演人員對推演的興趣會有一個變高至頂點再逐漸降低的過程.當截止時間t接近T-Δt時,興趣因子會隨著時間的迫近出現(xiàn)一定的上升.基于這種特征,可以設(shè)置興趣因子與推演時間的函數(shù)δ(t)
3)當t時間步長,有新的任務(wù)加入時,執(zhí)行該指令的概率為:
4)λ表示興趣因子的影響系數(shù).引入截止時間和興趣因子后,模型將更加符合兵棋推演作戰(zhàn)指揮行為的時序特征.
本文基于人類行為動力學相關(guān)理論,使用MATLAB對HPF模型進行了仿真實現(xiàn),面向兵棋推演,時間間隔冪律分布與“重尾”特征多角度對實證數(shù)據(jù)進行了時序分析.時序分析結(jié)果顯示:一次兵棋推演過程中作戰(zhàn)指揮行為近似滿足冪律為1.65685的冪律分布.而后,根據(jù)兵棋推演的現(xiàn)實特點,引入“截止時間”和“興趣因子”對Bar˙abasi基于任務(wù)驅(qū)動的行為動力模型進行了改進.本文將根據(jù)實證分析研究結(jié)果進一步改進模型,并在未來的工作中對模型進行仿真驗證,增加模型的仿真度和可信度.