亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于PPO算法的集群多目標火力規(guī)劃方法

        2024-11-25 00:00:00秦湖程黃炎焱陳天德張寒
        系統(tǒng)工程與電子技術 2024年11期

        摘要: 針對高動態(tài)戰(zhàn)場態(tài)勢下防御作戰(zhàn)場景中的多目標火力規(guī)劃問題,提出一種基于近端策略優(yōu)化算法的火力規(guī)劃方法,以最大化作戰(zhàn)效能為目標,從彈藥消耗、作戰(zhàn)效果、作戰(zhàn)成本及作戰(zhàn)時間4個方面設計強化學習獎勵函數(shù)??紤]歷史決策序列對當前規(guī)劃的影響,以長短期記憶網絡(long short-term memory, LSTM)為核心,基于Actor-Critic框架設計神經網絡,使用近端策略優(yōu)化算法訓練網絡,利用訓練好的強化學習智能體進行序貫決策,根據(jù)多個決策階段的態(tài)勢實時生成一系列連貫火力規(guī)劃方案。仿真結果表明,智能體能夠實現(xiàn)高動態(tài)態(tài)勢下多目標火力規(guī)劃,其計算效率相對于其他算法具有更明顯的優(yōu)勢。

        關鍵詞: 多目標火力規(guī)劃; 近端策略優(yōu)化算法; 長短期記憶網絡; 序貫決策

        中圖分類號: TP 273

        文獻標志碼: A

        DOI:10.12305/j.issn.1001-506X.2024.11.18

        Cluster multi-target fire planning method based on PPO algorithm

        QIN Hucheng, HUANG Yanyan*, CHEN Tiande, ZHANG Han

        (School of Automation, Nanjing University of Science and Technology, Nanjing 210094, China)

        Abstract: To solve the problem of multi-target firepower planning in defensive combat scenarios under high dynamic battlefield situation, a firepower planning method based on the proximal strategy optimization algorithm is proposed. With the goal of maximizing combat effectiveness, the reinforcement learning reward function is designed from four aspects: ammunition consumption, combat effect, combat cost and combat time. Considering the influence of historical decision sequence on the current planning, the neural network is designed based on the Actor-Critic framework with the long short-term memory network (LSTM) as the core. The network is trained by the proximal strategy optimization algorithm, and the trained reinforcement learning agent is used for sequential decision-making. A series of coherent fire planning schemes are generated in real time according to the situation of multiple decision-making stages. Simulation results show that the agent can realize multi-target firepower planning under high dynamic situation, and its computational efficiency has more obvious advantages than other algorithms.

        Keywords: multi-target firepower planning; proximal strategy optimization algorithm; long short-term memory network (LSTM); sequential decision-making

        0 引 言

        近年來,隨著無人機在續(xù)航、超視距通信、小型化、低成本化等方面持續(xù)取得進展,無人機技術及戰(zhàn)術的應用對現(xiàn)代戰(zhàn)爭產生了越來越重要的影響[1-2。同時,隨著集群技術、協(xié)同技術等智能化技術在無人機上的應用,無人機集群在智能化戰(zhàn)場逐漸展現(xiàn)出不容小覷的作戰(zhàn)能力[3。因此,提升反無人機集群作戰(zhàn)能力變得尤為迫切。如何通過合理利用現(xiàn)有裝備和理論研發(fā)新的反無人機集群系統(tǒng),實現(xiàn)對無人機集群的壓制,提升反無人集群作戰(zhàn)能力成為重要研究課題[4-5。

        反無人機集群作戰(zhàn)系統(tǒng)由偵察探測、可靠通信、決策評估、對抗處置等分系統(tǒng)組成。作為反無人機集群系統(tǒng)的重要組成部分,決策評估系統(tǒng)需要根據(jù)戰(zhàn)場態(tài)勢的實時變化,及時準確地制定和調整作戰(zhàn)火力規(guī)劃,實現(xiàn)自主動態(tài)決策。在復雜多變的作戰(zhàn)態(tài)勢下,快速準確及科學地選擇合適的武器裝備及彈藥,執(zhí)行對相匹配目標的火力打擊是提升反無人機集群決策評估系統(tǒng)作戰(zhàn)能力的關鍵。

        針對火力規(guī)劃這種帶約束組合優(yōu)化問題,目前主要使用的求解方法有蟻群算法[6-7、遺傳算法8-10、粒子群優(yōu)化算法11-12、遺傳模擬退火算法13、布谷鳥搜索算法14-15等智能算法。這類算法不僅易于實現(xiàn),且具有計算復雜度低、性能優(yōu)越等優(yōu)點,但尋優(yōu)速度難以用于實時性要求高的戰(zhàn)場環(huán)境。相較上述算法,基于深度神經網絡模型的智能決策方法無需搜索就能輸出問題解,求解速度快,模型一旦訓練完成,即使戰(zhàn)場態(tài)勢改變,也不需要重新訓練,模型具有很強的泛化能力[16。因此,利用深度強化學習方法解決動態(tài)火力規(guī)劃問題是一個很好的選擇。近年來,隨著人工智能技術的發(fā)展,深度強化學習已在很多領域取得突破性進展,目前已廣泛應用于游戲[17-18、機器人19-20、對話系統(tǒng)21-22、交通信號燈控制23-24、自動駕駛25-26、無線電27-28等領域。同時,越來越多的研究人員將深度強化學習用于火力規(guī)劃。文獻[29]通過構建基于強化學習的多目標決策架構,利用Q學習算法對協(xié)同攻擊方案進行智能決策,但在目標很多的情況下,查找和存儲Q表都需要消耗大量的時間和空間。文獻[30]利用深度Q學習算法對任務規(guī)劃問題進行初期決策,之后采用進化算法對決策結果進行優(yōu)化,但目標數(shù)量很多時進化算法尋優(yōu)速度難以滿足決策時效性的要求。

        由于反無人機集群作戰(zhàn)對規(guī)劃時間具有很高的要求,當戰(zhàn)場態(tài)勢改變時,需要根據(jù)新態(tài)勢快速生成火力規(guī)劃方案。在上述研究的基礎上,本文利用馬爾可夫決策過程(Markov decision process, MDP)實現(xiàn)對強化學習決策過程的建模,以最大化火力規(guī)劃作戰(zhàn)效能為目標,從彈藥消耗、作戰(zhàn)效果、作戰(zhàn)成本及作戰(zhàn)時間4個方面設計強化學習獎勵函數(shù)。在此基礎上構建強化學習交互環(huán)境,以長短期記憶(long short-term memory, LSTM)網絡[31為核心構建深度強化學習智能體。而后使用近端策略優(yōu)化(proximal policy optimization, PPO)算法[32訓練,利用訓練好的智能體進行智能決策。通過離散化連續(xù)的作戰(zhàn)時間,智能體進行序貫決策,根據(jù)多個決策階段的態(tài)勢實時生成一系列連貫火力規(guī)劃方案。在此過程中,對智能體的決策效果進行詳盡的仿真實驗和深入分析。本文創(chuàng)新如下:

        (1) 根據(jù)反無人機作戰(zhàn)特點,從彈藥消耗、作戰(zhàn)效果、作戰(zhàn)成本及作戰(zhàn)時間4個方面設計強化學習獎勵函數(shù),使得基于獎勵值訓練的智能體策略更貼近真實作戰(zhàn)場景;

        (2) 通過將目標規(guī)劃動作拆分,目標注意力機制(target attention mechanism, TAM)[33、動作掩碼、偽獎勵的引入及門控線性單元(gated linear unit, GLU)的設計,實現(xiàn)智能體策略的快速收斂。

        (3) 基于Actor-Critic網絡框架,以LSTM網絡為核心構建的智能體網絡,其策略能考慮各決策序列間的聯(lián)系和相互影響作用。相比現(xiàn)有方法,在規(guī)劃結果不差的情況下,規(guī)劃速度大幅提升,適用于大規(guī)模、長時段連續(xù)火力規(guī)劃應用場景。

        1 系統(tǒng)建模

        對反無人機集群作戰(zhàn)作如下假設:① 某次反無人機集群作戰(zhàn)中,反無人機裝備共有h類,裝備總數(shù)為m,并且每個裝備只裝備一種彈藥;來襲無人機集群為混合型無人機集群,有l(wèi)類無人機,無人機總數(shù)為n,決策評估系統(tǒng)使用m個反無人機裝備對n個目標進行分配;② 各作戰(zhàn)裝備部署已經確定,且處于戰(zhàn)斗準備狀態(tài),彈藥儲備量有限,各類作戰(zhàn)裝備有效作戰(zhàn)區(qū)域及其對各類無人機的殺傷概率確定;③ 為了保證攔截裝備間的協(xié)同效果,已在適當位置部署多種、多套攔截裝備;④ 決策評估系統(tǒng)基于強化學習智能體進行火力規(guī)劃,智能體每次決策得到單個裝備-目標分配方案,當所有目標均被分配時,單輪規(guī)劃結束,得到火力規(guī)劃方案,而后各裝備依據(jù)規(guī)劃方案執(zhí)行作戰(zhàn)任務。同時,智能體根據(jù)新戰(zhàn)場態(tài)勢再次生成規(guī)劃方案。

        1.1 反無人機系統(tǒng)MDP決策模型

        反無人機集群作戰(zhàn)過程可以認為是一個序貫決策的過程,紅方通常采用的是多批次飽和攻擊模式,防御方需針對連續(xù)決策階段戰(zhàn)場態(tài)勢的變化,考慮對未來戰(zhàn)場局勢的影響,連續(xù)做出最優(yōu)分配決策。

        通過離散化連續(xù)的作戰(zhàn)時間,作戰(zhàn)過程可分為Γ={1,2,…,T}個決策階段,在每個決策階段內基于態(tài)勢信息進行一輪火力規(guī)劃。每個決策階段內的規(guī)劃可視為靜態(tài)目標分配,是序貫決策中的一個規(guī)劃步,這個規(guī)劃步形成的決策所帶來的態(tài)勢變化將影響后續(xù)規(guī)劃步的決策。

        強化學習是機器學習中熱門領域之一,主要被用來解決序貫決策問題。其目標是使智能體通過與環(huán)境不斷交互來修正自己的策略以最大化累積獎勵。

        如果按照真實的交互過程來建模,當前狀態(tài)轉換到下一個狀態(tài)的概率、智能體的策略、價值函數(shù)等不僅與上一個狀態(tài)有關,還與前面一系列狀態(tài)相關,這將導致模型復雜度高,難以建模。假設交互過程轉化的馬爾可夫性可以簡化交互模型,即MDP可實現(xiàn)整個強化學習的決策過程建模。

        通常MDP包含4個要素,分別是狀態(tài)、動作、狀態(tài)轉移規(guī)則、獎勵,本文的MDP可定義為四元組(S,A,P,R)。S表示環(huán)境狀態(tài),環(huán)境狀態(tài)空間由所有反無人機裝備及無人機目標的信息確定,分別包括裝備編號、類別、彈藥類型、彈藥數(shù)量、彈藥價值、發(fā)射準備時間、單發(fā)彈藥發(fā)射時間、目標編號、作戰(zhàn)價值、期望毀傷概率等屬性。A表示智能體的動作,本文將智能體動作拆分為3個部分:選擇目標編號、根據(jù)所選目標編號的類型選擇合適彈藥類別、最后根據(jù)彈藥類別選擇合適的裝備編號。P表示狀態(tài)間的轉移規(guī)則。R表示智能體在狀態(tài)S下執(zhí)行動作A對應的獎勵值。

        智能體決策優(yōu)化過程如圖1所示。根據(jù)戰(zhàn)場態(tài)勢初始化環(huán)境狀態(tài)信息,智能體與環(huán)境交互,通過某種策略將當前狀態(tài)映射為相應的動作,環(huán)境對此動作及戰(zhàn)場態(tài)勢信息做出反應?;贛DP模型更新狀態(tài)信息及獎勵值,并將二者反饋給智能體,通過環(huán)境反饋的獎勵值來修正策略。通過不斷循環(huán)以上過程,最終實現(xiàn)目標策略。

        1.2 決策獎勵設計

        在強化學習任務中,智能體根據(jù)探索過程中來自環(huán)境的反饋信號持續(xù)改進策略,這些反饋信號稱為獎勵值。獎勵值讓任務目標具體化和數(shù)值化,起到人與算法溝通的橋梁作用。

        對于反無人機集群作戰(zhàn),主要考慮彈藥消耗量最少、作戰(zhàn)效果最佳、作戰(zhàn)成本最低和作戰(zhàn)時間最短這4個指標,本節(jié)通過對不同作戰(zhàn)指標及其數(shù)學模型的分析,構建強化學習智能體策略的獎勵函數(shù),引導智能體進行策略的優(yōu)化和修正。

        為方便分析,令xij為決策變量,xij=1表示第i個裝備打擊第j個目標,否則xij=0。根據(jù)軍事戰(zhàn)術基本原則及作戰(zhàn)經驗,在火力打擊作戰(zhàn)中單個裝備最多只能打擊一個目標,即

        0≤∑nj=1xij≤1, xij∈{0,1}(1)

        如何在保證完成作戰(zhàn)任務的前提下,使彈藥消耗量最少,是確保反無人集群系統(tǒng)持續(xù)作戰(zhàn)能力的關鍵。

        假設每個裝備對各目標單發(fā)毀傷概率矩陣為

        式中:cij表示第i個裝備對第j個目標的毀傷概率。

        各裝備對各目標射擊達到期望毀傷下界所需的彈藥消耗量如下:

        式中:sij為第i個裝備對第j個目標射擊達到期望毀傷概率所需的彈藥量。

        sij=ceil

        ln(1-h(huán)j)ln(1-cij

        =ln(1-h(huán)j)ln(1-cij)(4)

        式中:ceil表示向上取整; 為向上取整運算;hj為對目標j的期望毀傷概率。彈藥消耗模型可表示為

        f1=∑mi=1∑nj=1sij·xij(5)

        打擊效果指在特定條件下,裝備所能發(fā)揮的最大打擊能力,本文以目標毀傷概率度量射擊效果。若目標j作戰(zhàn)價值為vj,則對目標的作戰(zhàn)效果評估模型可表示為

        f2=∑mi=1∑nj=1xij·vj·[1-(1-cijsij](6)

        如果考慮指揮員的心理因素,認為指揮員不希望在回合結束時該類彈藥剩余數(shù)為0。按彈藥補給時的不補線(消耗量為攜帶量的1/3以內)、視補線(消耗量為攜帶量的1/3,但不足2/3)、急補線(消耗量大于攜帶量的2/3以上)的要求,如果某種彈藥的消耗數(shù)量達到其攜行量的2/3(以急補線1/3基數(shù)為基本依據(jù))且未得到補充,那么該種彈藥所對應的戰(zhàn)斗力指數(shù)將隨彈藥進一步的消耗而下降。將裝備i能夠發(fā)揮正常作戰(zhàn)效果的剩余彈藥量Fi定為攜行量Xi的1/3,即如果某裝備針對某目標的彈藥剩余量不少于1/3攜行量,則認為該裝備對該目標的等效作戰(zhàn)效果為原值,并隨著剩余彈藥數(shù)的減少而降低,其降低規(guī)律暫時簡單地按指數(shù)規(guī)律判定,則有

        在打擊大量低成本、多載荷小型無人機組成的無人機集群時,不僅要考慮對紅方目標的打擊效果,同時還需考慮對紅方火力打擊的成本,在完成預期目標毀傷的情況下盡可能地降低作戰(zhàn)成本。作戰(zhàn)成本模型可表示為

        f3=∑nj=1∑mi=1cos ti·si,j·xij(8)

        式中:costi為裝備i單發(fā)炮彈的成本。

        作戰(zhàn)時間短的裝備,在相同時間內能打擊的目標越多,在陣地上執(zhí)行射擊任務的時間越短,被紅方打擊和毀傷的可能性也就越小。因此,在完成預定打擊任務的前提下,應進行合理規(guī)劃,保證反無人機裝備的作戰(zhàn)時間盡可能短。

        裝備i作戰(zhàn)時間為其從接到攻擊指令到完成攻擊所需時間,由發(fā)射準備時間及發(fā)射sij發(fā)炮彈所需時間組成。二者均為區(qū)間數(shù),利用連續(xù)有序加權平均算子法[34將其轉換為精確數(shù)。假設作戰(zhàn)時間為trij=[tLij,tUij],可得

        tij=fρ(trij)=∫10dρ(y)dy[tLij-y(tLij-tUij)]dy(9)

        式中:tij為轉換后的精確數(shù);函數(shù)ρ(y)是一個在ρ:[0,1]→[0,1]映射上的基本單位區(qū)間單調函數(shù),滿足以下性質:① ρ(y)=0;② ρ(1)=1;③ 如果x≥y,則有ρ(x)≥ρ(y)。通常取ρ(y)=yt。令t=1,則

        tij=fρ(trij)=tUij+tLij2(10)

        于是,作戰(zhàn)時間模型可表示為

        f4=∑mi=1∑nj=1tij·xij·sij(11)

        由于對整體規(guī)劃方案進行優(yōu)化評估,需要將不同類型的量化指標規(guī)范化處理為統(tǒng)一的效率指標:設emaxij,eminij分別為指標eij的最大值與最小值,則指標eij規(guī)范化后值為

        e′ij=eij-eminijemaxij-eminij(12)

        無人集群作戰(zhàn)火力規(guī)劃目標是使彈藥消耗最少、打擊效果最優(yōu)、作戰(zhàn)成本最低、作戰(zhàn)時間最短,因此智能體動作獎勵值可表示為

        R=-ω1f12f′2-ω3f3-ω4f4(13)

        式中:f1、f2、f3、f4各指標均已規(guī)范化,其權值大小ω1、ω2、ω3、ω4可通過詢問多個不同專家得到各目標權重,利用層次分析法和熵權法的組合賦權確定最終權重,分別取0.1、0.75、0.05、0.1。

        同時,智能體每一時刻決策動作需滿足以下約束條件:

        s.t. ∑mi=1∑nj=1xij≤m

        ∑nj=1xij≤1

        2 基于PPO算法的火力規(guī)劃

        本節(jié)通過交互環(huán)境構建、智能體網絡結構設計及訓練方法的選取和優(yōu)化,實現(xiàn)智能體對火力規(guī)劃任務的快速、有效求解。

        2.1 強化學習交互環(huán)境設計

        交互環(huán)境的核心是交互函數(shù)step(),其輸入是當前狀態(tài)St,當前動作At;輸出是下一狀態(tài)St+1,當前動作對應獎勵R,是否結束交互done及調試項info,該函數(shù)描述了智能體與環(huán)境交互的所有信息。step()函數(shù)主要包括3個部分。

        (1) 獲取環(huán)境下一個狀態(tài)

        系統(tǒng)的狀態(tài)主要是由反無人機裝備數(shù)量,彈藥數(shù)量,無人機目標數(shù)量,各目標作戰(zhàn)價值、期望毀傷程度等組成。

        當需規(guī)劃的目標數(shù)量小于等于裝備數(shù)量時,為滿足約束條件,在單次決策時,裝備及目標編號被選中后,通過動作掩碼避免其編號被再次選中。

        以裝備選擇動作為例,其可選擇動作空間表示為[1,1,…,1],為m維行向量。如果第2個裝備被選中,在動作空間相應位置換成一個絕對值很大的負數(shù)(本文取-108),動作空間變?yōu)椋?,-108,…,1],經過分類函數(shù)以后第二個裝備的選擇概率就變成0。

        當需規(guī)劃的目標數(shù)量超過裝備數(shù)量時,分多波次進行規(guī)劃。每一波次規(guī)劃優(yōu)先選擇與裝備數(shù)量相等的作戰(zhàn)價值最高目標進行規(guī)劃,規(guī)劃過程中同樣利用動作掩碼避免重復選擇裝備或目標。但每一波次規(guī)劃結束后,重新初始化裝備編號對應動作掩碼,將所有裝備編號設為可選擇狀態(tài),繼續(xù)選擇高價值目標優(yōu)先規(guī)劃,直至所有目標均被分配。

        智能體單次決策時并不會更新態(tài)勢信息,當所有目標均被分配,單輪規(guī)劃結束,更新態(tài)勢信息。為體現(xiàn)集群對抗的動態(tài)特性,狀態(tài)更新時0~m 個裝備有0.01的概率被擊毀。對反無人機裝備而言,如其被無人機擊毀,則將其從環(huán)境狀態(tài)中移除??紤]到真實作戰(zhàn)場景中難以實現(xiàn)打擊即毀傷的目標,本文假設被打擊無人機有0.4的概率未被毀傷。對無人機而言,若其被選中為打擊目標,其將被從環(huán)境狀態(tài)中移除。同時,以0.1的概率生成1~10個新的反無人機裝備,以0.2的概率對各裝備補充數(shù)量10~100枚單一類型彈藥,彈藥類型為該裝備可使用的彈藥類型,每種彈藥選擇概率相同。同時,以0.5的概率隨機生成1~10個新的無人機目標。

        (2) 獲取動作獎勵

        智能體通過最大化每輪規(guī)劃的累積獎勵為優(yōu)化目標修正策略。訓練時智能體的決策動作(即選擇攜帶第k種彈藥的第i個裝備打擊第j個目標)得到的真實獎勵值R根據(jù)式(13)計算得到。同時,為保證訓練過程中獎勵值大于0,避免訓練初期智能體收到大量負反饋,導致智能體對其策略的不自信,難以確定策略優(yōu)化方向,從而使算法陷入局部最優(yōu)或難以收斂。設置偽獎勵,每一step智能體將獲得值為1的偽獎勵。

        (3) 獲取交互終止信號

        設置最大交互次數(shù),當環(huán)境狀態(tài)中所有目標信息被移除或達到最大交互次數(shù)時,done=True,交互結束。否則,done=False,表示系統(tǒng)繼續(xù)進行訓練,直至達成終止條件。而后,根據(jù)新戰(zhàn)場態(tài)勢重新初始化狀態(tài)信息,進行下一輪交互。

        2.2 網絡設計

        Actor-Critic算法框架被廣泛應用于實際強化學習算法中,該框架集成了值函數(shù)估計算法和策略搜索算法,是解決實際問題時??紤]的框架。Actor-Critic包括兩部分,Actor和Critic。Actor即策略網絡負責生成動作并與環(huán)境交互,Critic即價值網絡負責評估策略網絡的表現(xiàn)并指導策略網絡下一階段的動作。價值網絡通過計算狀態(tài)價值vt,策略網絡利用vt迭代更新策略網絡的參數(shù)θ,進而選擇動作,并得到獎勵和新的狀態(tài),價值網絡基于獎勵值、當前狀態(tài)價值及下一狀態(tài)價值更新網絡參數(shù)。為實現(xiàn)動態(tài)火力規(guī)劃,考慮戰(zhàn)場態(tài)勢的變化對任務分配決策具有重要的影響,且掌握一定程度的戰(zhàn)場態(tài)勢的變化有利于智能體應對“戰(zhàn)爭迷霧”,因此智能體在處理當前戰(zhàn)場態(tài)勢的同時,應能兼顧之前的態(tài)勢。為此,本文基于Actor-Critic網絡框架,以LSTM網絡為核心構建智能體網絡,網絡結構如圖2所示。Softmax用于多分類過程中,它將多個神經元的輸出,映射到(0,1)區(qū)間內,從而實現(xiàn)多分類。

        網絡輸入反無人機裝備及地方無人機對應狀態(tài)信息,輸入狀態(tài)信息維度分別為[batch_size×512×6],[batch_size×512×3],其中batch_size為批處理數(shù)量,為一次訓練所抓取的樣本數(shù)量。512為網絡能處理的最多裝備及目標數(shù)量,當裝備或目標數(shù)量不足512時,其對應狀態(tài)向量填充10-8。裝備狀態(tài)最后一維表示反無人機裝備的6個屬性:裝備類型、其裝備的彈藥類型、彈藥數(shù)量、單發(fā)彈藥價值、發(fā)射準備時間、單發(fā)彈藥發(fā)射時間。無人機目標狀態(tài)最后一維包含3個屬性:目標類型、作戰(zhàn)價值及期望毀傷概率。

        網絡輸出包含4個部分:策略網絡輸出選中的目標對應索引、彈藥類型對應索引、選中裝備對應索引和價值網絡輸出網絡策略對應狀態(tài)價值。

        Transformer編碼器結構如圖3所示。編碼器由N個相同的層組成,每層有兩個子層。第一個是多頭自注意力機制,第二個是簡單的全連接前饋網絡。在兩個子層中使用殘差連接,然后進行層歸一化。Attention可以描述為將查詢和一組鍵值對映射到輸出,輸出為值的加權和,其中規(guī)劃給每個值的權重由查詢與相應健值的相似度確定。Transformer模型使用縮放點積注意力計算單個注意力值,即隨機初始化WQ,WK,WV這3個矩陣,將輸入矩陣X分別與這3個矩陣相乘得到query(Q)、key(K)、value(V)矩陣,根據(jù)下式得到輸出矩陣Z:

        式中:dk表示K矩陣列數(shù)。同時,在Transformer編碼器中利用多頭注意力機制,使得網絡能同時關注來自不同位置的不同表示子空間的信息,有助于網絡捕捉到更豐富的特征信息。

        為有效訓練圖2網絡,提出以下3個策略。① 將目標規(guī)劃動作拆分3個層級。在每次目標規(guī)劃時,依次選擇目標單元、彈藥類型、裝備。② 在網絡中引入TAM實現(xiàn)目標及裝備的選擇。③ 引入動作掩碼,用于指導強化過程中的探索,減少對無效動作的探索,加快網絡收斂。最后,設計一個GLU,基于動作掩碼和Transformer編碼器輸出控制藍方目標的選擇。

        首先,利用獨熱碼對狀態(tài)信息(反無人機裝備信息和無人機目標單元信息)預處理,其中反無人機裝備信息預處理后分成兩部分:表示裝備及彈藥類型信息的獨熱碼rp和so。利用Transformer編碼器提取預處理的反無人機裝備信息rp及無人機目標信息bp的特征信息re、be。

        然后,利用TAM選擇目標:分別以LSTM網絡輸出、be為輸入,利用MLP生成Q矩陣和K矩陣。

        目標注意力計算如下:

        P(S|a)=Soft max(K,QT)(15)

        式中:P(S|a)為目標單元的注意力分布,其維度與無人機目標數(shù)量相同,P(S|a)即為各目標單元被選中的概率。紅方裝備及彈藥類型的選擇過程與目標單元選擇類似,但二者Q矩陣生成過程不同。

        GLU生成Q矩陣過程如下:分別以so、re作為GLU的輸入,綜合LSTM網絡輸出和所有先前智能體動作輸出的信息編碼作為GLU門控信號gate,即可得到Q矩陣。

        gate=sigmoid(autogressive_embedding)(16)

        Qs=FC(gate⊙so)(17)

        Qe=FC(gate⊙re)(18)

        式中:⊙表示矩陣哈德瑪乘積。

        2.3 網絡訓練

        PPO算法是一種新型的策略梯度(policy gradient, PG)算法,策略梯度算法對步長十分敏感,但是又難以選擇合適的步長,在訓練過程中新舊策略的變化差異如果過大則不利于學習。而PPO算法可以在多個訓練步驟實現(xiàn)小批量的更新,解決策略梯度算法中步長難以確定的問題,適用于更普遍的環(huán)境,并且具有更好的整體性能。

        PPO算法具有3個網絡,各網絡功能如下。

        (1) 策略網絡副本θold

        與環(huán)境交互采樣批量數(shù)據(jù)用于策略網絡參數(shù)θ的迭代更新。與環(huán)境交互,根據(jù)當前狀態(tài)S選擇動作A,得到獎勵值R;S,A,R存入經驗回放池。網絡參數(shù)θold定期從θ復制。

        (2) 策略網絡:根據(jù)經驗回放池中的數(shù)據(jù)多次更新網絡參數(shù)θ。

        (3) 價值網絡:評估狀態(tài)價值,估計優(yōu)勢函數(shù)。

        算法損失函數(shù)可表示為

        Lt(θ)=E^t[LCLIPt(θ)-c1LVFt(θ)+c2entropy[πθ](St)](19)

        式中:E^t(·)為均值函數(shù),計算策略網絡所有動作的損失函數(shù)的均值;πθ表示策略網絡參數(shù)為θ的策略,即神經網絡參數(shù)為θ時的網絡輸出值,對應于選擇每個目標編號、每類武器類型和每個武器編號的概率分布;entropy[πθ](St)表示狀態(tài)為St時,策略網絡參數(shù)為θ時其策略πθ的熵獎勵。LCLIPt(θ)計算如下:

        式中:γ為表減因子;λ為加權因子。V(St)表示狀態(tài)為St時Critic網絡輸出值。LVFt(θ)計算如下:

        式中:j表示采樣的裝備、彈藥類型或目標編號;probj表示其選擇概率;n為裝備數(shù)量、彈藥類型總數(shù)或目標數(shù)量。

        為了讓策略網絡更新更合適,對值函數(shù)進行裁切,防止更新前后狀態(tài)價值差距過大。

        LVFt(θ)=max[(V(St)-G(t))2

        (clamp(V(St)-V(St-1),-ε,+ε)-G(t))2](26)

        式中:ε為裁減值;clamp表示限制V(St)-V(St-1)取值范圍在(-ε,ε)之間。

        根據(jù)上述內容,本文算法總體實現(xiàn)流程如算法1所示。首先,初始化策略網絡和價值網絡及經驗回放集合D。采取經驗回放的技巧,把智能體與環(huán)境交互的數(shù)據(jù)存儲到經驗回放集合D中。隨后,從回放集中采樣數(shù)據(jù)多次更新價值網絡和策略網絡。在參數(shù)更新上,利用價值網絡計算狀態(tài)價值,估計優(yōu)勢函數(shù),構造均方誤差損失函數(shù)對價值網絡進行梯度更新,基于確定性策略梯度更新策略網絡,每更新一定次數(shù)后更新策略網絡副本。

        3 仿真驗證

        3.1 實驗設置

        由于真實戰(zhàn)場數(shù)據(jù)的特殊性,根據(jù)本文的作戰(zhàn)想定設計一個訓練數(shù)據(jù)生成程序來生成不同的訓練數(shù)據(jù)。假設共有5類無人機目標(bt1,bt2,…,bt5),6類反無人機裝備(ω1,ω2,…,ω6),6類彈藥(s1,s2,…,s6),每類裝備可使用至少一類彈藥。各類反無人機裝備可使用的彈藥類型如表1所示。

        第a類裝備使用第k類彈藥對第b類無人機目標的單發(fā)射擊效果pakb、作戰(zhàn)時間takb、裝備各類彈藥數(shù)量、各類無人機目標的威脅度、各類無人機目標期望毀傷下界參數(shù)配置如表2所示。

        不同類型裝備使用不同類型彈藥對不同類型目標的單發(fā)毀傷概率如表3所示。

        3.2 實驗結果比較分析

        為了驗證算法是否收斂,設置一個測試數(shù)據(jù)集,數(shù)據(jù)集中包含12個反無人機裝備和12個無人機目標,涵蓋所有類型的反無人機裝備、彈藥和無人機目標。每輪規(guī)劃最大決策次數(shù)為512,當所有無人機目標規(guī)劃完成時,本輪決策結束。每輪決策利用策略網絡對測試集中的數(shù)據(jù)進行火力規(guī)劃,并記錄規(guī)劃結果的平均獎勵及平均有效規(guī)劃次數(shù)。有效規(guī)劃即策略網絡在火力規(guī)劃時,選擇的裝備及無人機目標均為真實實體,選擇的彈藥類型均為可用。在訓練過程中,當平均獎勵及有效規(guī)劃次數(shù)沒有明顯變化時,可以認為算法收斂。

        為充分評估本文提出算法在反無人機集群火力打擊作戰(zhàn)場景下的規(guī)劃效果,采用數(shù)值仿真的方法對火力規(guī)劃結果進行驗證,設計對比實驗,比較使用LSTM網絡及動作掩碼、偽獎勵的有效性。對比實驗定義如下:

        (1) 基于圖2網絡的火力規(guī)劃網絡模型;

        (2) 基于圖2網絡的火力規(guī)劃網絡模型,但將LSTM網絡換成MLP網絡;

        (3) 基于圖2網絡的火力規(guī)劃網絡模型,不使用動作掩碼;

        (4) 基于圖2網絡的火力規(guī)劃網絡模型,不使用偽獎勵;

        (5) 基于圖2網絡的火力規(guī)劃網絡模型,不使用動作掩碼及偽獎勵。

        上述模型在實驗中使用的超參數(shù)如表4所示。

        實驗結果如圖4所示。使用LSTM和多層感知機(multi-layer perceptron, MLP)網絡平均獎勵及有效動作逐漸收斂,策略網絡策略逐漸穩(wěn)定。但由于MLP網絡缺乏記憶功能,其策略難以考慮各決策序列間的聯(lián)系和相互影響作用,在訓練過程中熵值出現(xiàn)增加的情況,表明策略網絡對習得的決策序列的相互聯(lián)系和影響知識的不自信。但隨著訓練次數(shù)的增加,在足量訓練數(shù)據(jù)的支撐下,智能體逐漸修正其策略,在保持隨機探索的同時其策略逐漸穩(wěn)定,最終其策略逐漸穩(wěn)定,但規(guī)劃效果仍不及LSTM網絡。動作掩碼及偽獎勵對算法收斂有重要的影響,二者缺一不可。

        利用訓練好的策略網絡對測試集進行火力規(guī)劃,得到具體的裝備-彈藥-目標規(guī)劃方案,由于測試集樣本數(shù)量較多,為方便描述,僅從中選取7個裝備和7個目標進行火力規(guī)劃,具體規(guī)劃結果如表5所示。

        此外,為驗證本文方法與其他火力規(guī)劃方法在求解速度及求解質量上的差異,設計對比實驗,將本文方法與文獻[29]和文獻[30]方法及拍賣算法進行對比分析。

        本文方法與文獻[29]方法、文獻[30]方法、遺傳算法和拍賣算法執(zhí)行不同數(shù)量火力分配任務時的計算效能如表6所示。使用上述算法的耗時對比如表7所示。

        雖然文獻[29]規(guī)劃時間與本文方法相差不大,但其僅適用固定目標數(shù)量的火力規(guī)劃,當目標數(shù)量改變時需要重新訓練,訓練時間隨目標數(shù)量變化迅速增加,模型泛化性不強。文獻[30]方法將每個裝備視為一個智能體進行規(guī)劃,確定每個裝備能打擊的目標,利用規(guī)劃結果,初始化遺傳算法,其收斂速度比傳統(tǒng)遺傳算法更快。但隨著目標數(shù)量的增加,算法尋優(yōu)時間迅速增加,當目標數(shù)量超過500時,其規(guī)劃時間難以適用于高動態(tài)的戰(zhàn)場環(huán)境。與本文方法相比,文獻[29]、文獻[30]算法及遺傳算法規(guī)劃質量更高,但耗時較長,并且任務規(guī)模越大,本文方法求解速度優(yōu)勢越明顯。但本文方法解的質量與上述算法相比仍有較大提升空間。與拍賣算法相比,本文算法規(guī)劃質量更高,并且規(guī)劃目標數(shù)量超過500時,規(guī)劃速度也有很大的優(yōu)勢。

        4 結束語

        本文針對高動態(tài)作戰(zhàn)態(tài)勢下反無人機集群火力規(guī)劃問題,提出一種基于PPO算法的火力規(guī)劃方法。以最大化火力規(guī)劃作戰(zhàn)效能為目標,從彈藥消耗、作戰(zhàn)效果、作戰(zhàn)成本及作戰(zhàn)時間4個方面建立反無人機集群火力規(guī)劃模型,用于計算強化學習策略的獎勵值??紤]之前決策序列對當前規(guī)劃的影響,以LSTM網絡為核心構建深度強化學習智能體,基于Actor-Critic框架設計智能體網絡。為確保智能體動態(tài)火力規(guī)劃在軍事上的可操作性、應用性,根據(jù)各裝備的作戰(zhàn)反應時間,設定態(tài)勢更新時間間隔,在此時間間隔內,通過離散化連續(xù)的決策時間,每個決策時刻智能體與環(huán)境交互,使用PPO算法訓練網絡,利用訓練好的智能體進行智能決策,智能體經過一系列連續(xù)決策,動態(tài)生成一個可行火力規(guī)劃方案。通過對仿真結果的比較分析,得到以下結論:

        本文提出的方法可以用于解決高動態(tài)戰(zhàn)場態(tài)勢下反無人機集群火力打擊作戰(zhàn)中的火力規(guī)劃問題,可以隨著態(tài)勢的更新快速生成較為合理的動態(tài)規(guī)劃方案。同時,本文也驗證了LSTM模型在序貫決策中的適用性,擴展了深度學習技術的應用范疇。

        基于目前的工作,后續(xù)可以展開進一步研究:比如在不降低規(guī)劃效果的情況下減少網絡層數(shù),降低訓練時間及智能體決策時間;或者從算法性能優(yōu)化入手,提高算法規(guī)劃效果。

        參考文獻

        [1]CHENG X, SHI W P, CAI W L, et al. Communication-efficient coordinated RSS-based distributed passive localization via drone cluster[J]. IEEE Trans.on Vehicular Technology, 2022, 71(1): 1072-1076.

        [2]張陽, 司光亞, 王艷正. 無人機集群網電攻擊行動協(xié)同目標分配建模[J]. 系統(tǒng)工程與電子技術, 2019, 41(9): 2025-2033.

        ZHANG Y, SI G Y, WANG Y Z. Modeling of cooperative target allocation of the UAV swarm cyberspace attack action[J]. Systems Engineering and Electronics, 2019, 41(9): 2025-2033.

        [3]柳強, 何明, 劉錦濤, 等. 無人機“蜂群”的蜂擁涌現(xiàn)行為識別與抑制機理[J]. 電子學報, 2019, 47(2): 374-381.

        LIU Q, HE M, LIU J T, et al. A mechanism for identifying and suppressing the emergent flocking behaviors of UAV swarms[J]. Acta Electonica Sinica, 2019, 47(2): 374-381.

        [4]WANG H C, DING G R, CHEN J, et al. UAV anti-jamming communications with power and mobility control[J]. IEEE Trans.on Wireless Communications, 2023, 22(7): 4729-4744.

        [5]GAO N, QIN Z J, JING X J, et al. Anti-intelligent UAV jamming strategy via deep Q-networks[J]. IEEE Trans.on Communications, 2020, 68(1): 569-581.

        [6]LAYEB A, BENAYAD, ZEYNEB. A novel firefly algorithm based ant colony optimization for solving combinatorial optimization problems[J]. International Journal of Computer Science and Applications, 2014, 11(2): 19-37.

        [7]GHORBANI M K, AFSHAR A, HAMIDIFAR H, et al. A fuzzy multi-objective multiple-pollutant model for rivers using an ant colony algorithm[J]. Proceedings of the Institution of Civil Engineers: Water Management, 2022, 175(4): 190-205.

        [8]ARRAM A, AYOB M. A novel multi-parent order crossover in genetic algorithm for combinatorial optimization problems[J]. Compu-ters and Industrial Engineering, 2019, 133(8): 267-274.

        [9]ZHANG H G, LIU Y A, ZHOU J. Balanced-evolution genetic algorithm for combinatorial optimization problems: the general outline and implementation of balanced-evolution strategy based on linear diversity index[J]. Natural Computing, 2018, 17(3): 611-639.

        [10]KIM J W, KIM S K. Fitness switching genetic algorithm for solving combinatorial optimization problems with rare feasible solutions[J]. Journal of Supercomputing, 2016, 72(9): 235-248.

        [11]HSIEH F S, GUO Y H. A discrete cooperatively coevolving particle swarm optimization algorithm for combinatorial double auctions[J]. Applied Intelligence, 2019, 49(11): 3845-3863.

        [12]GENG R M, JI R X, ZI S J. Research on task allocation of UAV cluster based on particle swarm quantization algorithm[J]. Mathematical Biosciences and Engineering, 2023, 20(1): 18-33.

        [13]汪民樂, 范陽濤. 基于效果的常規(guī)導彈火力規(guī)劃模型智能求解算法[J]. 系統(tǒng)工程與電子技術, 2017, 39(11): 2509-2514.

        WANG M L, FAN Y T. Intelligent solving algorithm for effects-based firepower allocation model of conventional missiles[J]. Systems Engineering and Electronics, 2017, 39(11): 2509-2514.

        [14]孫海文, 謝曉方, 孫濤, 等. 改進型布谷鳥搜索算法的防空火力優(yōu)化規(guī)劃模型求解[J]. 兵工學報, 2019, 40(1): 189-197.

        SUN H W, XIE X F, SUN T, et al. Improved cuckoo search algorithm for solving antiaircraft weapon-target optimal assignment model[J]. Acta Armamentarii, 2019, 40(1): 189-197.

        [15]孫海文, 謝曉方, 龐威, 等. 基于改進火力規(guī)劃模型的綜合防空火力智能優(yōu)化規(guī)劃[J]. 控制與決策, 2020, 35(5): 1102-1112.

        SUN H W, XIE X F, PANG W, et al. Integrated air defense firepower intelligence optimal assignment based on improved firepower assignment model[J]. Control and Decision, 2020, 35(5): 1102-1112.

        [16]KALLESTAD J, HASIBI R, HEMMATI A, et al. A general deep reinforcement learning hyper heuristic framework for solving combinatorial optimization problems[J]. European Journal of Operational Research, 2023, 309(1): 446-468.

        [17]WANG H L, WU H J, LAI G M. WagerWin: an efficient reinforcement learning framework for gambling games[J]. IEEE Trans.on Games, 2023, 15(3): 483-491.

        [18]INSEOK O, SEUNGEUN M, SANGBIN M, et al. Creating pro-level AI for a real-time fighting game using deep reinforcement learning[J]. IEEE Trans.on Games, 2022, 14(2): 212-220.

        [19]LI X J, LIU H S, DONG M H. A general framework of motion planning for redundant robot manipulator based on deep reinforcement learning[J]. IEEE Trans.on Industrial Informa-tics, 2022, 18(8): 5253-5263.

        [20]FAN F, XU G L, FENG N, et al. Spatiotemporal path tracking via deep reinforcement learning of robot for manufacturing internal logistics[J]. Journal of Manufacturing Systems, 2023, 69(31): 150-169.

        [21]DENG Y, LI Y L, DING B L, et al. Leveraging long short-term user preference in conversational recommendation via multi-agent reinforcement learning[J]. IEEE Trans.on Know-ledge and Data Engineering, 2023, 35(11): 11541-11555.

        [22]YANG Y C, CHRN C T, LU T Y, et al. Hierarchical reinforcement learning for conversational recommendation with knowledge graph reasoning and heterogeneous questions[J]. IEEE Trans.on Services Computing, 2023, 16(5): 3439-3452.

        [23]OUNOUGHI C, OUNOUGHI D, BEN Y S. EcoLight+: a novel multi-modal data fusion for enhanced eco-friendly traffic signal control driven by urban traffic noise prediction[J]. Knowledge and Information Systems, 2023, 65(12): 5309-5329.

        [24]HOU Y P, HE H S, JIANG X F, et al. Deep-reinforcement-learning-aided loss-tolerant congestion control for 6LoWPAN networks[J]. IEEE Internet of Things Journal, 2023, 10(21): 19125-19140.

        [25]WU Y Q, LIAO S Q, LIU X, et al. Deep reinforcement learning on autonomous driving policy with auxiliary critic network[J]. IEEE Trans.on Neural Networks and Learning Systems, 2023, 34(7): 2680-3690.

        [26]CUI J P, YUAN L, HE L, et al. Multi-input autonomous driving based on deep reinforcement learning with double bias experience replay[J]. IEEE Sensors Journal, 2023, 23(11): 11253-11261.

        [27]LIEN S Y, DENG D J. Intelligent session management for URLLC in 5G open radio access network: a deep reinforcement learning approach[J]. IEEE Trans.on Industrial Informatics, 2023, 19(2):1844-1853.

        [28]ZANGOOEI M, SAHA N, GOLKARIFARD M, et al. Reinforcement learning for radio resource management in RAN slicing: a survey[J]. IEEE Communications Magazine, 2023, 61(2): 118-124.

        [29]朱建文, 趙長見, 李小平, 等. 基于強化學習的集群多目標分配與智能決策方法[J]. 兵工學報, 2021, 42(9): 2040-2048.

        ZHU J W, ZHAO C J, LI X P, et al. Multi-target assignment and intelligent decision based on reinforcement learning[J]. 2021, 42(9): 2040-2048.

        [30]黃亭飛, 程光權, 黃魁華, 等. 基于DQN的多類型攔截裝備復合式反無人機任務分配方法[J]. 控制與決策, 2022, 37(1): 142-150.

        HUANG T F, CHENG G Q, HUANG K H, et al. Task assignment method of compound anti-drone based on DQN for multi type interception equipment[J]. Control and Decision, 2022, 37(1): 142-150.

        [31]SHOAIB M, UMAR M S. Phishing detection model using feline finch optimisation-based LSTM classifier[J]. International Journal of Sensor Networks, 2023, 42(4): 205-220.

        [32]XIE G L, ZHANG W, HU Z, et al. Upper confident bound advantage function proximal policy optimization[J]. Cluster Computing, 2023, 26(3): 2001-2010.

        [33]TAO C Q, LIN K, HUANG Z Q, et al. CRAM: code recommendation with programming context based on self-attention mechanism[J].IEEETrans.onReliability,2023,72(1):302-316.

        [34]LIOU T S, WANG M J. Ranking fuzzy numbers with integral value[J]. Fuzzy Sets and Systems, 1992, 50(3): 247-255.

        作者簡介

        秦湖程(1996—),男,博士研究生,主要研究方向為智能規(guī)劃、決策控制及優(yōu)化。

        黃炎焱(1973—),男,教授,博士,主要研究方向為裝備系統(tǒng)論證與系統(tǒng)效能分析、作戰(zhàn)效能評估、兵棋推演技術、指揮控制信息系統(tǒng)、應急管理、系統(tǒng)建模與仿真。

        陳天德(1994—),男,博士研究生,主要研究方向為智能規(guī)劃、決策控制及優(yōu)化。

        張 寒(1994—),男,博士研究生,主要研究方向為指揮控制、協(xié)同決策、應急服務。

        亚洲gay片在线gv网站| 一区二区视频观看在线| 久久国产高潮流白浆免费观看| 久久久熟女一区二区三区| 国产乡下妇女做爰| 国产又黄又大又粗的视频| 亚洲国产成人AⅤ片在线观看| 丁香婷婷激情俺也去俺来也| 国产人妖网站在线视频| 久久精品人妻无码一区二区三区| 国产欧美VA欧美VA香蕉在| 亚洲人成在线播放a偷伦| 精品一区二区三区久久| 日韩精品久久无码中文字幕| 五月天精品视频在线观看| 久草视频在线这里只有精品| 日韩女优图播一区二区| 婷婷五月婷婷五月| 亚洲美腿丝袜综合一区| 妇女自拍偷自拍亚洲精品| 国产精品对白一区二区三区| 少妇性饥渴无码a区免费| 久久综合色鬼| 国产噜噜亚洲av一二三区| 久久99精品久久久久麻豆| 男女下面进入的视频| 一区二区三区日本大片| 日本免费一区二区久久久| 男人的天堂av网站| 欧美末成年videos在线观看| 亚洲一区二区三区99区| 女色av少妇一区二区三区| 日韩少妇内射免费播放| 亚洲人成人一区二区三区| 日本一级三级在线观看| 99久久亚洲精品日本无码| 亚洲国产精品无码久久电影| 日韩精品一二区在线视频| 亚洲中文字幕久久精品品| 成熟丰满熟妇高潮xxxxx视频| 亚洲狼人社区av在线观看|