亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        雙層循環(huán)神經(jīng)網(wǎng)絡框架下的USV 路徑規(guī)劃方法

        2023-07-19 13:08:04張志鑫高健趙大威
        應用科技 2023年3期
        關鍵詞:動作

        張志鑫,高健,趙大威

        1. 海裝沈陽局,黑龍江 哈爾濱 150001

        2. 哈爾濱工程大學 智能科學與工程學院,黑龍江 哈爾濱 150001

        路徑規(guī)劃在諸多領域有著廣泛應用,如機器人[1]、無人艇[2]等。傳統(tǒng)的路徑規(guī)劃算法,如人工勢場法[3]、A*算法[4]、蟻群算法[5]、遺傳算法[6]等,在復雜的環(huán)境中無法處理復雜高維環(huán)境信息,而且容易陷入局部最優(yōu)。強化學習是一種不需先驗知識并與環(huán)境進行互動試錯迭代獲取反饋獎勵信息來優(yōu)化策略的智能算法,已經(jīng)逐步成為無人艇在未知環(huán)境下路徑規(guī)劃的研究重點[7]。傳統(tǒng)強化學習方法受到動作空間和樣本空間維數(shù)的限制,同樣難以處理更接近實際環(huán)境的復雜情形。近年來,以神經(jīng)網(wǎng)絡作為函數(shù)逼近器的強化學習得到了迅速發(fā)展。最新的深度強化學習框架在從游戲[8]到連續(xù)機器人控制[9]的各種任務中表現(xiàn)出了出色的性能,多數(shù)深度強化學習研究都采用了前饋神經(jīng)網(wǎng)絡來解決可以用馬爾可夫模型[10]建模的任務。Song 等[11]提出一種有效的Q 學習方法。Su 等[12]提出了將強化學習的方法加入路徑規(guī)劃的理論。Tan 等[13]提出基于 Dijkstra 算法的強化學習路徑規(guī)劃的理論。目前,在決策過程中,使用循環(huán)神經(jīng)網(wǎng)絡的強化學習框架越來越受到人們的關注[14]。循環(huán)神經(jīng)網(wǎng)絡的一個優(yōu)點在于其解決時間序列問題的能力。對于強化學習來說,智能體與環(huán)境交互所產(chǎn)生的數(shù)據(jù)顯然是時間相關的數(shù)據(jù)序列,為了更好地訓練神經(jīng)網(wǎng)絡,使之盡可能的收斂,一般使用記憶回放的技術來消除數(shù)據(jù)之間的時間關聯(lián)性。而循環(huán)神經(jīng)網(wǎng)絡是非常適合于對這類具有時間關聯(lián)數(shù)據(jù)序列的處理。本文提出一種基于雙層循環(huán)神經(jīng)網(wǎng)絡雙層循環(huán)神經(jīng)網(wǎng)絡(recurrent neural network, RNN)和Actor-Critic 結構的水面無人艇 (unmanned surface vessel, USV)路徑規(guī)劃算法。

        1 Actor-Critic 算法

        強化學習算法依據(jù)策略更新方式的不同,可以分為基于價值[15]的間接方法和基于策略[16]的直接方法2 種?;趦r值的方法通過計算每個狀態(tài)-動作對的值函數(shù)Q(s,a) 來尋找最佳策略,其中典型的就是深度Q 學習網(wǎng)絡(deep Q-learning network, DQN)?;诓呗缘姆椒▌t不同,這種算法不需要估算價值函數(shù),而是直接用神經(jīng)網(wǎng)絡去擬合策略函數(shù),通過訓練去更新策略參數(shù),直接生成最佳策略。這其中有代表性的則是策略梯度。這2 種算法各有特點,同時也有各自的短板。對于基于價值的方法,其缺點除了不能直接得到動作值輸出,難以擴展到連續(xù)動作空間上之外,還存在由于采樣不足導致的高偏差的問題,根據(jù)估算得到的價值函數(shù)與實際的值函數(shù)之間的誤差是很難消除的。而基于策略的方法,則屬于蒙特卡羅類方法,因為要對大量的狀態(tài)軌跡進行采樣,而每個狀態(tài)軌跡之間的差異可能是巨大的,結果就引入了高方差和較大的梯度噪聲,進而導致訓練的不穩(wěn)定和策略收斂困難。為了解決高方差和高偏差之間的矛盾,可以把它們結合在一起,利用2 類方法各自的優(yōu)勢,取長補短,這就是Actor-Critic 方法[17]。

        對于Actor-Critic 框架來說,需要2 種輸出網(wǎng)絡,一種負責管理產(chǎn)生決策的Actor 網(wǎng)絡,一種負責管理評價決策結果的Critic 網(wǎng)絡,并且二者都還在不斷更新,這樣互補式的訓練方法有時候也會比單純的決策網(wǎng)絡系統(tǒng)和值函數(shù)網(wǎng)絡系統(tǒng)更為高效。網(wǎng)絡的結構如圖1 所示。

        圖1 Actor-Critic 的網(wǎng)絡結構

        Actor-Critic 算法從名稱上看包括執(zhí)行者網(wǎng)絡(Actor)和評價者網(wǎng)絡(Critic)2 個組成部分。其中Actor 網(wǎng)絡用于逼近策略函數(shù),與DQN 算法是基于價值不同,Actor 的網(wǎng)絡輸出不是Q 值,而是直接輸出動作Action 來和環(huán)境進行交互。因此,由于Actor 使用的是策略梯度函數(shù),在基于策略的強化學習方式下,可以對策略進行近似描述。此時策略π可被表述為一個含有參數(shù)θ的函數(shù),s表示狀態(tài),a表示動作,策略就是一個概率函數(shù),表征某個狀態(tài)下采取某個動作的概率為

        此時的目標優(yōu)化函數(shù)為

        式(1)的目標優(yōu)化函數(shù)選擇狀態(tài)值函數(shù)V(s),狀態(tài)值函數(shù)也是累計獎勵G的數(shù)學期望E(G)。

        對式(1)取梯度得:

        式(2)為策略梯度公式,對狀態(tài)值函數(shù)的直接估算并不方便,在保持策略梯度恒定的情況下,策略梯度可改寫為

        式中δ有多種形式,一般比較常見的是時間差分形式:

        式中 γ為每次迭代的折扣率。

        Actor-Critic 網(wǎng)絡的參數(shù)更新順序是先更新Critic 網(wǎng)絡再更新Actor 網(wǎng)絡, α 與 β表示2 個網(wǎng)絡參數(shù)更新的學習率,分別對狀態(tài)值函數(shù)與策略函數(shù)求梯度,使用梯度下降法進行參數(shù)更新。

        評價者網(wǎng)絡(Critic)為

        執(zhí)行者網(wǎng)絡(Actor)為

        2 雙層循環(huán)神經(jīng)網(wǎng)絡結構及算法

        2.1 循環(huán)神經(jīng)網(wǎng)絡

        神經(jīng)網(wǎng)絡可以當做是能夠擬合任意函數(shù)的黑盒子,只要訓練數(shù)據(jù)足夠,給定特定的輸入,就能得到希望的輸出。然而全連接網(wǎng)絡只能單獨的處理一個個的輸入,前一個輸入和后一個輸入是完全沒有關系的。但是,某些任務需要能夠更好地處理序列的信息,即前面的輸入和后面的輸入有關系的序列。為了解決這類問題,循環(huán)神經(jīng)網(wǎng)絡出現(xiàn)了。圖2 為循環(huán)神經(jīng)網(wǎng)絡的結構。

        圖2 循環(huán)神經(jīng)網(wǎng)絡的結構

        循環(huán)神經(jīng)網(wǎng)絡的輸入除了來自于輸入層中的Xt,還有著一種循環(huán)的網(wǎng)絡結構來提供上一段時間的隱含狀態(tài)St-1。在每一段時間,循環(huán)神經(jīng)網(wǎng)絡在讀取了Xt和St-1后會產(chǎn)生新的隱含狀態(tài)St,從而產(chǎn)生原本時間的輸出Ot。循環(huán)神經(jīng)網(wǎng)絡中當前的狀態(tài)St,是由上一時刻的狀態(tài)St-1與當前的輸入Xt所共同確定的。因此描述循環(huán)神經(jīng)網(wǎng)絡的計算過程為

        通過式(3)、式(4)反復迭代就可以將t時刻之前的多個時間步的狀態(tài)輸入到網(wǎng)絡,基于這個性質(zhì),循環(huán)神經(jīng)網(wǎng)絡可以很好地處理時間序列的輸入。

        2.2 關于動作層級的說明

        人們處理復雜現(xiàn)象的方式是將它分解成一些小的、可控的過程。例如“做餡餅”便是由許多高級別的動作所構成的任務,取面粉、打蛋、設置烘烤溫度等。人們?yōu)榱丝梢愿杆佾@得新任務,依靠的便是將曾經(jīng)學習的基本操作結合起來,而即便每個步驟都可能需要由數(shù)百萬個基礎動作所組成,比如讓不同的肌肉做出不同的動作。當前的強化學習算法的目標大多是在較低級的行為上做暴力搜索,在處理問題的時間進行大規(guī)模的嘗試。對一個必須順序進行更多操作的任務而言,這種工作方式的有效性將會顯得非常低。因此OpenAI 的研發(fā)人員們提供了一個基于層次化強化方法的解決方案。這個方案中,智能體使用由多個基礎動作所構成的序列表征更復雜的動作。如此一來,智能體就能夠處理復雜得多的任務:在整個解決方案中,大概只需要2 000 步以內(nèi)的基礎動作,而層次化策略就能夠?qū)⑦@些動作轉(zhuǎn)化成由10 個層次動作所構成的序列,因為在這個10 步動作的序列中進行搜尋,就比在2 000 步的序列中進行搜尋有效得多。所以在強化學習問題中,某個任務可能涉及若干個并列的子目標,而每個子目標又能夠通過進行一些更細分的動作(抽象動作/動作組) 來實現(xiàn)。我們希望智能體也能夠很獨立地去將一個任務細分為各個層次,甚至是在學習過程中也能夠很自覺地去認識、發(fā)現(xiàn)任務中的動作層級。

        2.3 雙層循環(huán)神經(jīng)網(wǎng)絡結構

        神經(jīng)生物學家已經(jīng)在大腦皮層區(qū)域找到了一個時間尺度的上升層次,這被看作是處理更高層次的意識功能的區(qū)域,對應于更慢的時間尺度[18]。另外,人類大腦皮層的神經(jīng)元之間存在著高度隨機的神經(jīng)行為。所以,將采用雙層循環(huán)神經(jīng)網(wǎng)絡 (double-layer recurrent neural network,DRNN)作為本文的模型。DRNN 網(wǎng)絡結構參數(shù)設置如圖3 所示。

        圖3 雙層循環(huán)神經(jīng)網(wǎng)絡的結構

        由圖3 可以看出,雙層循環(huán)神經(jīng)網(wǎng)絡包括了高層網(wǎng)絡和下層網(wǎng)絡,高層網(wǎng)絡對應著慢時間尺度,隱藏層狀態(tài)隨時間而緩慢變化,提供比較長期的價值函數(shù),高層與低層相連。高層網(wǎng)絡類似于人類大腦做出決策,是相對比較抽象的策略,例如控制身體的某個部位做出一系列動作。底層網(wǎng)絡對應著快時間尺度,隱藏層狀態(tài)隨時間而快速變化,提供比較短期的價值函數(shù),在底層接收環(huán)境觀測狀態(tài),調(diào)整輸出策略。類似人體的下級神經(jīng)組織,負責人體肌肉器官的具體控制細節(jié)。

        圖4 顯示了網(wǎng)絡的結構參數(shù),網(wǎng)絡的輸入輸出關系為

        圖4 雙層循環(huán)神經(jīng)網(wǎng)絡的參數(shù)

        網(wǎng)絡的各項參數(shù)如式(5)~(8) 所示,其中c(t)為網(wǎng)絡輸入。DRNN 與傳統(tǒng)全連接網(wǎng)絡的輸入有所不同,全連接網(wǎng)絡的輸入一般是狀態(tài)向量s,具體對于本文所要研究的路徑規(guī)劃來說就是橫坐標x、縱坐標y和目標的偏航角 α等3 個標量所組成的一階張量(向量)。而DRNN 的輸入則為序列,輸入序列的形狀是[8, 16, 8]的三階張量,序列的長度為8(代表一個宏動作為8 個動作所組成的連續(xù)動作序列),樣本數(shù)量為16,當前狀態(tài)s、采取動作a、獲得獎勵r和下一狀態(tài)s'共同組成長度為8 的向量,作為輸入張量的第3 個維度。DRNN 的超參數(shù)設置如表1 所示。

        表1 雙層循環(huán)神經(jīng)網(wǎng)絡的超參數(shù)設置

        智能體采用Actor-Critic 結構,為了保證Critic網(wǎng)絡參數(shù)更新的穩(wěn)定性,加入目標網(wǎng)絡,共計3 個網(wǎng)絡。同時為了保證動作網(wǎng)絡和評價網(wǎng)絡正確的輸出動作和狀態(tài)價值,本文把DRNN 的輸出通過全連接網(wǎng)絡來進行維度變換。放大倍數(shù)K只是用來調(diào)整輸出大小,本文將其設置為0.15。

        2.4 算法流程

        基于雙層循環(huán)神經(jīng)網(wǎng)絡的水面無人艇路徑規(guī)劃算法具體實現(xiàn)步驟如下:

        1) 初始化神經(jīng)網(wǎng)絡參數(shù) ω、 θ、狀態(tài)序列緩存Memory 和訓練循環(huán)次數(shù)計數(shù)器Count;

        2) 初始化輸入序列input 和起始狀態(tài)s0;

        3) 利用Actor 值網(wǎng)絡獲取當前要采取的動作a, 執(zhí)行動作a獲 得環(huán)境反饋:下一狀態(tài)st+1、即時獎勵r、結束信號Done 和碰撞信號Collision;

        4) 判斷Done 是否為True,是則結束本次訓練,跳轉(zhuǎn)到2);

        5) 將st、a、r、st+1作為狀態(tài)動作序列儲存到狀態(tài)序列緩存Memory 中,以便從中采樣來訓練神經(jīng)網(wǎng)絡;

        6) 從狀態(tài)序列緩存Memory 采樣當前狀態(tài)序列輸入input_current 和下一狀態(tài)序列輸入input_next,分別輸入到Critic 值網(wǎng)絡和Critic 目標網(wǎng)絡得到當前狀態(tài)價值V(st)和下一狀態(tài)價值V(st+1);

        7) 計算時間差分(temporal difference, TD),并利用TD 更新Critic值網(wǎng)絡的參數(shù) ω。Critic 值網(wǎng)絡的損失函 數(shù)選擇均方誤差函數(shù)(mean square error,MSE)。時間差分TD 的表達式為

        式中i為樣本序號。

        Critic 網(wǎng)絡的損失函數(shù)定義為TD 誤差的平方:

        Critic 網(wǎng)絡參數(shù)的更新公式為

        8) 將當前狀態(tài)序列input 輸入到Actor 值網(wǎng)絡,得到當前狀態(tài)序列所對應動作輸出的概率分布。利用時間差分TD 更新Actor 值網(wǎng)絡的參數(shù)θ,Actor 網(wǎng)絡的損失函數(shù)表達式為

        Actor 網(wǎng)絡參數(shù)的更新公式為

        9) 智能體每執(zhí)行20 步動作,同步Critic 值網(wǎng)絡與Critic 目標網(wǎng)絡參數(shù);

        10) 判斷Collision 是否為True,是則退回到上一狀態(tài),跳轉(zhuǎn)到3);

        11) 判斷Count 是否達到最大值,是則結束訓練,跳轉(zhuǎn)到2)。

        為了便于訓練,本文采取 ε-greedy 策略作為基本策略框架, ε最小值為0.05,初始化為0.9,每次訓練遞減0.000 5 直至0.05。這么做是為了使得策略具備一定的動作探索能力,并且假設Actor網(wǎng)絡的輸出為動作的概率分布p(s,a), δ是符合(0,1)均勻分布的隨機數(shù),那么最終的策略結果為

        3 仿真實驗

        3.1 無人艇動作空間優(yōu)化

        無人艇在水面航行過程中,會自動地根據(jù)地圖信息進行航線優(yōu)化以避開障礙物。在此過程中,本文假設無人艇每次移動單位長度距離,這樣無人艇的動作空間就是每次移動時轉(zhuǎn)向的角度大小。一般的智能體,例如室內(nèi)機器人,其運動方向的變化是45°角甚至是90°角的倍數(shù),這是一種最常用的動作空間。但是也會導致規(guī)劃出的路徑軌跡比較長,同時也會導致規(guī)劃后的路徑軌跡中有較多的大角度轉(zhuǎn)向的動作,甚至是180°轉(zhuǎn)彎,這樣的路線軌跡不滿足無人艇在航行中的操縱特性。因此有必要考慮無人艇在航行過程中的轉(zhuǎn)向性能,對無人艇的動作空間進行專門優(yōu)化。無人艇轉(zhuǎn)向時會產(chǎn)生傾斜,本文使用橫傾角來描述無人艇與水面的傾斜角度,如果橫傾角過大將導致無人艇發(fā)生傾覆的可能,因此動作空間的設計務必要保證無人艇在航行及避障中盡可能地保持其航向的穩(wěn)定或者盡可能地減少其大角度轉(zhuǎn)彎的次數(shù),確保規(guī)劃好的路線軌跡相對光滑,這樣既能夠保障無人艇的航行安全,又可以降低無人艇在航行中的動力損耗。為使無人艇的轉(zhuǎn)角更為符合其在實際航行中的運動特性,將轉(zhuǎn)角按照小角度轉(zhuǎn)向的原則進行設計,動作空間設置為按照指定的方向前進一個單位距離,其中方向設置為正負15°角、正負30°角和0°角,動作空間優(yōu)化前后示意對比如圖5 所示。圖5(a)為經(jīng)典強化學習算法的動作空間示意,圖5(b)為根據(jù)無人艇的操作特性設計優(yōu)化的動作空間示意。

        圖5 動作空間優(yōu)化前后示意

        3.2 環(huán)境設置與獎勵函數(shù)的設計

        1)環(huán)境設置:仿真環(huán)境本文設置為320 m×320 m 大小的地圖,無人艇的目標就是尋找最優(yōu)路徑到達目標點。無人艇的狀態(tài)定義為一個三元組(x,y,α),其中x和y為無人艇在仿真地圖中的實時坐標, α為無人艇與目標點之間的偏航角。設無人艇的初始坐標為(x0,y0),則實際航向角初始化為θ=arctan(x0,y0),設當前坐標為(x,y),目標坐標為(p,q),則期望航向 β的計算公式為

        無人艇的實際航向角θ隨著每次執(zhí)行動作而改變,設動作a對 應的方向角度為aθ,則θ的更新公式為

        偏航角 α定義為

        轉(zhuǎn)向角 Δθ定義為

        顯然,在t時刻轉(zhuǎn)向角 Δθ的數(shù)值就是無人艇此時采取的動作角度為aθ。

        2)獎勵函數(shù)的設計:獎勵的設置也是需要本文精心思考的。不合理的獎勵設置將比一個隨機策略更加糟糕,因為它會錯誤地引導智能體的行為。一般來說,除非到達本文的目標,獎勵的設置是以懲罰性原則為主,并且獎勵規(guī)則不宜過于復雜。因此,到達目標給予一個較大的正向獎勵,未到達目標則給予一個小的懲罰是比較通用的獎勵設置。為了減少稀疏獎勵帶來的不利影響,本文針對無人艇進行進一步的獎勵優(yōu)化,無人艇與環(huán)境的交互獎勵規(guī)則設置如下:

        ①無人艇到達最終目標,獎勵+100,目的是給予無人艇一個較大的正向激勵,使得無人艇傾向于移動到目標位置。

        ②無人艇碰到障礙物或者邊界,獎勵-2,每次碰撞到障礙物或者邊界是不期望發(fā)生的動作,因此給予無人艇一個負向懲罰,使得無人艇航行時傾向于避免碰撞障礙或邊界。

        ③無人艇與目標距離減?。ㄔ黾樱?,獎勵+1(-1),鼓勵無人艇靠近目標位置的動作,避免無人艇遠離目標位置的動作。

        ④無人艇的偏航角 α越小,獎勵越大,這是為了鼓勵無人艇減小實際航向與期望航向的偏差,使得無人艇的航線相對平緩,避免無意義的軌跡,減少最終規(guī)劃的路徑長度。

        ⑤無人艇的轉(zhuǎn)向角 Δθ越小,獎勵越大,這是為了鼓勵無人艇減少轉(zhuǎn)向的角度,轉(zhuǎn)向角度過大會增加轉(zhuǎn)動力矩和無人艇與水面的傾角,會消耗無人艇更多能量降低其續(xù)航能力,同時也增大無人艇傾覆的風險。

        為了滿足④和⑤的要求,本文取相應角度的余弦值作為獎勵。

        利用記憶回放機制時,本文將長度為8 的狀態(tài)序列的獎勵進行求和作為這個宏動作的獎勵。這樣的獎勵設置可以允許Critic 網(wǎng)絡對于宏動作的好壞進行評價,增強網(wǎng)絡對于各種動作序列優(yōu)劣的判斷能力。

        3.3 環(huán)境設置與獎勵函數(shù)的設計

        本文將在2 張320 m×320 m 的地圖上進行仿真實驗,地圖一個單位代表5 m,無人艇每次沿著當前航向前進5 個單位,即25 m。這是為了減少動作搜索數(shù)量,更快速地驗證算法效果。每張地圖訓練2 000 次,每次訓練上限定為500 步,超過500 步還沒有到達最終目標則視為失敗。對比指標有平均步數(shù)、平均獎勵、成功率、路徑長度和大角度轉(zhuǎn)彎次數(shù)。為了便于仿真,將障礙物進行矩形膨脹處理。同時,本文將使用全連接神經(jīng)網(wǎng)絡構建的傳統(tǒng)Actor-Critic 算法作為對照組,增加Q目標網(wǎng)絡來提升迭代的收斂性保證訓練的穩(wěn)定性,提升訓練效果。

        DRNN 與Actor-Critic 的不同就在于用雙層循環(huán)神經(jīng)網(wǎng)絡與全連接網(wǎng)絡組合的方式代替僅使用全連接網(wǎng)絡。為了方便進行對比,3 種算法中的全連接網(wǎng)絡結構基本相同,不同的是本文在DQN 中用其來逼近行為價值函數(shù)Q(s,a),Actor-Critic 中逼近狀態(tài)價值函數(shù)V(s)。仿真環(huán)境如圖6所示,矩形塊代表障礙,三角符號代表起始點,五角星則代表目標點。本文訓練2 000 次,最后得出2 種算法的路徑規(guī)劃軌跡。

        圖6 DRNN 算法和Actor-Critic 算法仿真實驗1

        從圖6 可以看到2 種算法最終的路徑規(guī)劃軌跡,DRNN 算法規(guī)劃的軌跡相對更為平緩,軌跡長度為2 344.82 m,Actor-Critic 算法規(guī)劃的軌跡轉(zhuǎn)彎較多,軌跡長度也更長,為2 499.65 m。

        圖7 是另一張地圖的仿真結果,最終效果DRNN算法仍然要好于Actor-Critic 算法。DRNN 算法軌跡長度為2 326.53 m,Actor-Critic 算法的軌跡長度為 2 509.31 m。下面給出了仿真實驗的對比指標數(shù)據(jù),如圖8~圖13 所示。

        圖7 DRNN 算法和Actor-Critic 算法仿真實驗2

        圖8 仿真實驗1 成功率

        圖9 仿真實驗2 成功率

        圖10 仿真實驗1 累計獎勵

        圖11 仿真實驗2 累計獎勵

        圖12 仿真實驗1 步數(shù)

        圖13 仿真實驗2 步數(shù)

        表2 和表3 列出了2 次仿真實驗的統(tǒng)計數(shù)據(jù)。

        表2 仿真實驗1

        表3 仿真實驗2

        從2 次仿真實驗的結果可以看到,DRNN 算法相對于Actor-Critic 算法,平均獎勵高、平均步數(shù)小、轉(zhuǎn)彎次數(shù)少、路徑更短更光滑;仿真實驗1 中,DRNN 算法成功率從第250 幕開始超越 Actor-Critic 算法;仿真實驗2 中,DRNN 算法成功率從第400 幕開始超越 Actor-Critic 算法,成功率具有顯著優(yōu)勢。不過由于網(wǎng)絡結構更加復雜,所以DRNN 網(wǎng)絡的訓練需要更多的時間。前期大量的失敗探索導致學習率并不是很高,仿真實驗2 相比實驗1,地圖復雜了一些,因此平均獎勵和成功率均略有下降。

        4 結束語

        本文提出了一種采用雙層循環(huán)神經(jīng)網(wǎng)絡的USV 路徑規(guī)劃方法。利用2 張地圖進行仿真實驗,與Actor-Critic 算法不同,DRNN 的輸入并不是單獨的一個狀態(tài),而是由狀態(tài)、動作和獎勵所組成的具有一定長度的序列(宏動作)。因此,宏動作實質(zhì)上是符合時間順序、邏輯順序的信息序列。RNN 的重要作用就是處理信息序列,它可以用來刻畫某個信息序列中當前的輸出值和先前數(shù)據(jù)信息中間的關聯(lián)。從網(wǎng)絡架構上來看,RNN 會記住歷史信息,并且使用歷史信息影響當前的輸入輸出,基于RNN 結構的DRNN 也具有同樣的性質(zhì),由于DRNN 考慮了一定時間內(nèi)的環(huán)境交互歷史,它把之前的一連串動作狀態(tài)當成一個狀態(tài)來考慮,這有助于神經(jīng)網(wǎng)絡對于連續(xù)動作序列(宏動作)模式的識別。因此DRNN 框架下的Actor網(wǎng)絡和Critic 網(wǎng)絡將會考慮到宏動作而不僅僅是孤立的單個動作。本文從仿真實驗中可以看到DRNN 比一般的全連接網(wǎng)絡具有明顯優(yōu)勢,平均步數(shù)小、平均獎勵高、成功率高,規(guī)劃的路徑更短也更光滑。這表明DRNN 可以較快地到達目標,同時訓練次數(shù)較少時可以達到更好的效果,改進后的網(wǎng)絡達到了預期目標。

        猜你喜歡
        動作
        動作不可少(下)
        動作不能少(上)
        巧借動作寫友愛
        下一個動作
        動作描寫要具體
        畫動作
        讓動作“活”起來
        動作描寫不可少
        非同一般的吃飯動作
        神奇的手
        日本做受120秒免费视频| 男女下面进入的视频| 疯狂撞击丝袜人妻| 日本高清www无色夜在线视频| 99久热re在线精品99 6热视频| 毛片网站视频| 国产AV无码无遮挡毛片| 免费人成黄页网站在线观看国产 | 狠狠色噜噜狠狠狠狠7777米奇| 自拍偷拍亚洲一区| 久久久久久久久国内精品影视| 中文字幕有码手机视频| 婚外情长久的相处之道| 日本做受120秒免费视频| 18禁美女裸体网站无遮挡| 日韩偷拍视频一区二区三区| 日韩精品一区二区在线视| 午夜性刺激免费看视频| 五月丁香综合激情六月久久| 大肉大捧一进一出好爽视色大师| 亚洲AV永久无码制服河南实里| 久久精品免视看国产明星| 蜜桃av观看亚洲一区二区| 久久亚洲中文字幕精品熟| 东北老女人高潮大喊舒服死了| 中文字幕一区二区三区精华液| 中文字幕久久精品波多野结百度 | 日本免费视频| 国产精品久久久久久52avav| 国产美女精品aⅴ在线| 国产成人精品男人的天堂网站| 国产三级在线观看不卡| 国产国语按摩对白av在线观看 | 久久国产劲暴∨内射| 亚洲日韩乱码中文无码蜜桃臀| 国产丝袜高跟美腿一区在线| 森中文字幕一区二区三区免费| 欧美大片aaaaa免费观看| 欧美疯狂做受xxxx高潮小说| 久久精品无码一区二区三区不卡| 国产成人亚洲精品一区二区三区|