亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度強(qiáng)化學(xué)習(xí)的四旋翼無(wú)人機(jī)航線跟隨

        2022-02-17 02:56:04楊志鵬甘志剛梁詩(shī)陽(yáng)
        指揮與控制學(xué)報(bào) 2022年4期
        關(guān)鍵詞:動(dòng)作智能

        楊志鵬 李 波 甘志剛 梁詩(shī)陽(yáng)

        1.西北工業(yè)大學(xué)電子信息學(xué)院 陜西 西安 710072 2.湖北航天技術(shù)研究院總體設(shè)計(jì)所 湖北 武漢 430040 3.中國(guó)電子科技集團(tuán)公司數(shù)據(jù)鏈技術(shù)重點(diǎn)實(shí)驗(yàn)室 陜西 西安 710077 4.中航工業(yè)洛陽(yáng)電光設(shè)備研究所 河南 洛陽(yáng) 471000

        無(wú)人機(jī)在軍事預(yù)警、工業(yè)巡檢、搶險(xiǎn)救災(zāi)、生活輔助等諸多領(lǐng)域所扮演的角色愈演愈烈, 人們對(duì)其智能化要求也越來(lái)越高[1-3]. 由于諸多原因, 無(wú)人機(jī)自主決策與控制在智能控制領(lǐng)域仍然面臨巨大的挑戰(zhàn)[4].一方面, 無(wú)人機(jī)空氣動(dòng)力學(xué)建模十分困難;另一方面,受諸多因素影響, 無(wú)人機(jī)在高空飛行時(shí), 無(wú)法對(duì)外部或內(nèi)部不確定因素的改變作出合理反應(yīng), 這大大提高了旋翼無(wú)人機(jī)在軍事應(yīng)用領(lǐng)域的難度[5]. 因此, 為了使旋翼無(wú)人機(jī)的行為適應(yīng)未知的條件, 為無(wú)人機(jī)培養(yǎng)學(xué)習(xí)能力是至關(guān)重要的[6].學(xué)習(xí)和適應(yīng)行為的最常見(jiàn)框架之一就是強(qiáng)化學(xué)習(xí)(reinforcement learning)——在與環(huán)境交互的過(guò)程中, 智能體利用自身行為的經(jīng)驗(yàn), 和對(duì)行為獎(jiǎng)懲的反饋, 通過(guò)不斷嘗試, 從錯(cuò)誤中學(xué)習(xí), 最后找到規(guī)律, 作出合理的行為[7]. 因此, 強(qiáng)化學(xué)習(xí)方法已成為改善無(wú)人機(jī)自主行為的一種很有前途的工具[8].

        為了使無(wú)人機(jī)能夠?qū)崿F(xiàn)完全自主的飛行并作出智能決策以完成任務(wù), 有必要構(gòu)建一個(gè)合理有效的無(wú)人機(jī)控制模型[9]. 強(qiáng)化學(xué)習(xí)可以有效地應(yīng)用于高層決策系統(tǒng), 從而使無(wú)人機(jī)提前掌握航線跟隨的本領(lǐng),防止人為操縱使其受不可控因素影響. 本文的主要目的是, 將神經(jīng)網(wǎng)絡(luò)(neural networks, NNs)與強(qiáng)化學(xué)習(xí)算法結(jié)合所形成的深度強(qiáng)化學(xué)習(xí)算法, 作為無(wú)人機(jī)在不確定環(huán)境下的高層控制[10], 使無(wú)人機(jī)學(xué)習(xí)自主決策, 完成航線跟隨任務(wù)[11].

        本文所進(jìn)行的無(wú)人機(jī)航線跟隨實(shí)驗(yàn)代表了四旋翼無(wú)人機(jī)在軍事領(lǐng)域中的潛在應(yīng)用之一[12]. 通過(guò)提出一種基于深度強(qiáng)化學(xué)習(xí)的新方法, 采用離線學(xué)習(xí)對(duì)神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練, 將訓(xùn)練時(shí)產(chǎn)生的經(jīng)驗(yàn)存儲(chǔ)于經(jīng)驗(yàn)池中,為神經(jīng)網(wǎng)絡(luò)的優(yōu)化提供訓(xùn)練樣本[13]. 并結(jié)合四旋翼無(wú)人機(jī)飛行特性和姿態(tài)控制要求, 設(shè)計(jì)環(huán)境空間、狀態(tài)空間、動(dòng)作空間和獎(jiǎng)懲機(jī)制, 以提高深度強(qiáng)化學(xué)習(xí)模型的泛化能力[14]. 最后, 結(jié)合仿真結(jié)果, 驗(yàn)證了該方法對(duì)四旋翼無(wú)人機(jī)航線跟隨的有效控制.

        1 四旋翼無(wú)人機(jī)模型

        本文重點(diǎn)關(guān)注四旋翼無(wú)人機(jī)動(dòng)力學(xué)模型本身的系統(tǒng)性和規(guī)范性, 而不考慮風(fēng)向、風(fēng)速、電機(jī)損耗等外界或不可控因素的影響. 針對(duì)四旋翼無(wú)人機(jī)工作原理及其動(dòng)力學(xué)模型構(gòu)建過(guò)程, 作出詳細(xì)的解釋.

        1.1 四旋翼無(wú)人機(jī)工作原理

        四旋翼無(wú)人機(jī)通過(guò)調(diào)節(jié)4 個(gè)電機(jī)轉(zhuǎn)速來(lái)改變旋翼轉(zhuǎn)速, 從而改變無(wú)人機(jī)所受升力大小, 實(shí)現(xiàn)對(duì)無(wú)人機(jī)的運(yùn)動(dòng)控制和姿態(tài)控制, 進(jìn)而, 旋翼旋轉(zhuǎn)得越快,升力就越大, 反之亦然. 當(dāng)4 個(gè)旋翼轉(zhuǎn)動(dòng)所提供的升力之和等于無(wú)人機(jī)自身重力時(shí), 無(wú)人機(jī)就會(huì)保持懸停狀態(tài). 在懸停狀態(tài)下, 4 個(gè)電機(jī)轉(zhuǎn)速同時(shí)增大或減小, 無(wú)人機(jī)垂直上升或下降. 保持M1和M3電機(jī)轉(zhuǎn)速不變, 當(dāng)增加(減小)M2轉(zhuǎn)速或減?。ㄔ黾樱㎝4轉(zhuǎn)速時(shí),無(wú)人機(jī)滾動(dòng)運(yùn)動(dòng)(側(cè)向運(yùn)動(dòng)). 保持M2和M4電機(jī)轉(zhuǎn)速不變, 當(dāng)增加(減小)M1轉(zhuǎn)速或減?。ㄔ黾樱㎝3轉(zhuǎn)速,無(wú)人機(jī)俯仰(前后運(yùn)動(dòng)). 當(dāng)M1、M3電機(jī)轉(zhuǎn)速同時(shí)增加(減?。┗騇2、M4的電機(jī)轉(zhuǎn)速同時(shí)減小(增加),無(wú)人機(jī)會(huì)旋轉(zhuǎn), 實(shí)現(xiàn)偏航[15].

        通過(guò)組合以上的基本運(yùn)動(dòng), 可以實(shí)現(xiàn)小型四旋翼無(wú)人機(jī)的各種復(fù)雜運(yùn)動(dòng). 四旋翼飛行器的結(jié)構(gòu)俯視圖如圖1 所示.

        圖1 四旋翼無(wú)人機(jī)俯視圖Fig.1 The vertical view of quadrotor UAV

        1.2 四旋翼無(wú)人機(jī)動(dòng)力學(xué)模型

        四旋翼無(wú)人機(jī)的坐標(biāo)(x, y, z)是由其質(zhì)心相對(duì)于慣性坐標(biāo)系的位置決定的, 其姿態(tài)由歐拉角(滾動(dòng)角, 俯仰角θ 和偏航角)來(lái)描述. 因此, 可以使用上述歐拉角來(lái)定義從機(jī)體坐標(biāo)系Cb到慣性坐標(biāo)系Ci的轉(zhuǎn)換矩陣R:

        其中, s*表示角的正弦值, c*表示角的余弦值. 通過(guò)在機(jī)體坐標(biāo)系和慣性坐標(biāo)系之間使用這種轉(zhuǎn)換, 可以從其他的力中分離出重力, 在慣性坐標(biāo)系Ci中的轉(zhuǎn)換動(dòng)力學(xué)模型如下:

        結(jié)合旋轉(zhuǎn)矩陣R, 可得出:

        在慣性坐標(biāo)系Ci中,令r=[x,y,z]T,其中,x、y、z分別表示四旋翼無(wú)人機(jī)在慣性坐標(biāo)系中的位置. 令轉(zhuǎn)動(dòng)慣量矩陣J=diag(Jxx, Jyy, Jzz),對(duì)于本文所選用的“+”型結(jié)構(gòu)的四旋翼無(wú)人機(jī)來(lái)說(shuō), 高度通道的受力為:

        結(jié)合模型, 可以用3 個(gè)扭矩和總推力來(lái)描述四旋翼無(wú)人機(jī)的飛行輸入μ:

        圖2 四旋翼無(wú)人機(jī)模型與坐標(biāo)系Fig.2 Model and coordinate system of quadrotor UAV

        其中, d 表示每個(gè)電機(jī)到無(wú)人機(jī)中心的距離;cT表示推力系數(shù);cM表示力矩系數(shù). 在虛擬環(huán)境中, 四旋翼無(wú)人機(jī)的狀態(tài)輸入包括無(wú)人機(jī)的位置量、歐拉角、線速度和角速度, 其狀態(tài)輸入可表示為:

        本文訓(xùn)練所設(shè)定的四旋翼飛機(jī)質(zhì)量m=0.65 kg,力臂長(zhǎng)度d=0.23 m, 推力系數(shù)cT=0.000 03, 力矩系數(shù)cM=0.000 9, 每個(gè)電機(jī)提供最大推力為3.19 N, 參數(shù)[Jxx, Jyy, Jzz]=[0.007 5, 0.007 5, 0.013].

        2 深度強(qiáng)化學(xué)習(xí)算法

        本文所建立的四旋翼無(wú)人機(jī)航線跟隨模型, 采用的是基于深度強(qiáng)化學(xué)習(xí)的(deep deterministic policy gradient, DDPG)算法, 包括強(qiáng)化學(xué)習(xí)理論和基于神經(jīng)網(wǎng)絡(luò)運(yùn)用的深度強(qiáng)化學(xué)習(xí)算法. 對(duì)于DDPG 算法而言,如何導(dǎo)入四旋翼無(wú)人機(jī)運(yùn)動(dòng)學(xué)、動(dòng)力學(xué)模型和如何優(yōu)化算法使之更易收斂是本文要解決的兩個(gè)重要問(wèn)題.

        2.1 強(qiáng)化學(xué)習(xí)

        強(qiáng)化學(xué)習(xí)是一種機(jī)器學(xué)習(xí)方法. 當(dāng)環(huán)境中的智能體需要完成某種決策或任務(wù)時(shí), 首要的步驟是采取相應(yīng)的動(dòng)作(action)與環(huán)境進(jìn)行交互溝通, 在該動(dòng)作變量的作用下, 智能體會(huì)產(chǎn)生新的狀態(tài)量(state),并在環(huán)境的反饋下, 得到一個(gè)相應(yīng)的回報(bào)值(reward).隨著智能體不斷試錯(cuò), 強(qiáng)化學(xué)習(xí)算法利用產(chǎn)生的數(shù)據(jù)來(lái)完善并更新自身的策略. 通過(guò)不斷地與環(huán)境交互, 智能體會(huì)逐漸學(xué)習(xí)到能夠獲取高額回報(bào)的動(dòng)作值, 并不斷改善自身的行為以適應(yīng)不斷變化的環(huán)境,最終學(xué)習(xí)到完成相應(yīng)任務(wù)的最優(yōu)策略.

        圖3 展示了強(qiáng)化學(xué)習(xí)實(shí)現(xiàn)的基本過(guò)程, 該過(guò)程可以用馬爾可夫決策過(guò)程表示. 馬爾科夫決策過(guò)程由元組表示, 其中,為智能體的狀態(tài)量集合;為智能體的動(dòng)作量集合;表示智能體在狀態(tài)量為s, 且采取動(dòng)作量為a 的條件下, 能夠到達(dá)狀態(tài)量s'的概率;R 為設(shè)定的獎(jiǎng)勵(lì)函數(shù), 是智能體學(xué)習(xí)的“動(dòng)力”和“方向”;γ 為折扣系數(shù), 用于計(jì)算整個(gè)過(guò)程中的回報(bào)累計(jì)值. 折扣系數(shù)越大, 表示越注重長(zhǎng)期收益. 根據(jù)已知量, 可推導(dǎo)出智能體的累計(jì)回報(bào)值為:

        圖3 強(qiáng)化學(xué)習(xí)理論基本框架Fig.3 Basic framework of reinforcement learning theory

        強(qiáng)化學(xué)習(xí)的目的是學(xué)習(xí)到完成任務(wù)的最佳策略,使得累計(jì)回報(bào)最高, 即:

        累計(jì)回報(bào)在狀態(tài)s 處的期望值定義為狀態(tài)-值函數(shù):

        與之對(duì)應(yīng)的, 狀態(tài)-行為值函數(shù)為:

        從強(qiáng)化學(xué)習(xí)的基本原理可以得出, 強(qiáng)化學(xué)習(xí)的學(xué)習(xí)行為是一個(gè)不斷交互、不斷變化的過(guò)程. 其中采取的動(dòng)作、得到的獎(jiǎng)懲和收集到的數(shù)據(jù), 也是隨著與環(huán)境不斷交互得到的, 因此, 整個(gè)學(xué)習(xí)過(guò)程較其他機(jī)器學(xué)習(xí)算法更為智能化. 由于傳統(tǒng)的強(qiáng)化學(xué)習(xí)算法如Q-learning 算法、Sarsa 算法等只能用于解決簡(jiǎn)單的離散化動(dòng)作的環(huán)境, 無(wú)法解決四旋翼無(wú)人機(jī)飛行產(chǎn)生的連續(xù)性動(dòng)作改變. 故本文選取的算法為基于深度強(qiáng)化學(xué)習(xí)的DDPG 算法.

        2.2 基于深度強(qiáng)化學(xué)習(xí)的DDPG 算法

        圖4 為基于深度強(qiáng)化學(xué)習(xí)DDPG 算法的四旋翼無(wú)人機(jī)航線跟隨策略學(xué)習(xí)過(guò)程示意圖. 該算法通過(guò)actor 動(dòng)作網(wǎng)絡(luò)產(chǎn)生飛行策略, 并加入隨機(jī)探索因子保證無(wú)人機(jī)有一定幾率學(xué)習(xí)到未知?jiǎng)幼? 通過(guò)無(wú)人機(jī)模型對(duì)數(shù)據(jù)處理, 得到無(wú)人機(jī)的狀態(tài)信息, 并通過(guò)設(shè)計(jì)好的獎(jiǎng)勵(lì)函數(shù), 得到無(wú)人機(jī)從狀態(tài)st作出動(dòng)作a到達(dá)下一狀態(tài)st+1所獲得的獎(jiǎng)勵(lì)值rt, 并將“狀態(tài), 動(dòng)作, 獎(jiǎng)勵(lì), 下一狀態(tài)”存入經(jīng)驗(yàn)池, 每過(guò)一段回合隨機(jī)從經(jīng)驗(yàn)池中抽取一定數(shù)目的數(shù)據(jù), 采用梯度下降的方法對(duì)動(dòng)作網(wǎng)絡(luò)和評(píng)估網(wǎng)絡(luò)進(jìn)行訓(xùn)練, 并用主網(wǎng)絡(luò)參數(shù)替代目標(biāo)網(wǎng)絡(luò)參數(shù). DDPG 算法的核心是深度Q網(wǎng)絡(luò)(deep Q network, DQN)算法和演員評(píng)論家(actor critic, AC)算法.

        圖4 基于DDPG 算法的策略學(xué)習(xí)過(guò)程示意圖Fig.4 Diagram of strategy learning process based on DDPG

        DQN 算法是在傳統(tǒng)Q-learning 算法的基礎(chǔ)加入神經(jīng)網(wǎng)絡(luò), 有效避免了Q 表格存儲(chǔ)爆炸的問(wèn)題. 再通過(guò)添加target 目標(biāo)網(wǎng)絡(luò), 并定期將主網(wǎng)絡(luò)的參數(shù)更新至目標(biāo)網(wǎng)絡(luò)中, 有效打亂了數(shù)據(jù)的相關(guān)性.

        AC 算法是基于策略的算法, 通過(guò)建立動(dòng)作網(wǎng)絡(luò)(action, A)和評(píng)估網(wǎng)絡(luò)(critic, C), 其中, A 網(wǎng)絡(luò)負(fù)責(zé)識(shí)別智能體與環(huán)境交互的信息并產(chǎn)生的策略動(dòng)作a,C 網(wǎng)絡(luò)通過(guò)學(xué)習(xí)環(huán)境和獲得獎(jiǎng)懲之間的關(guān)系, 以評(píng)判A 網(wǎng)絡(luò)產(chǎn)生的動(dòng)作a 好壞. 較傳統(tǒng)Policy Gradient算法, 該算法能夠?qū)崿F(xiàn)單步更新, 使訓(xùn)練更為高效.

        本實(shí)驗(yàn)中,設(shè)定神經(jīng)網(wǎng)絡(luò)的輸入s 為無(wú)人機(jī)各項(xiàng)狀態(tài)量ζ,神經(jīng)網(wǎng)絡(luò)的輸出a 為無(wú)人機(jī)4 個(gè)電機(jī)轉(zhuǎn)速量.為方便神經(jīng)網(wǎng)絡(luò)的計(jì)算,對(duì)神經(jīng)網(wǎng)絡(luò)輸入的狀態(tài)空間O 和神經(jīng)網(wǎng)絡(luò)輸出的動(dòng)作空間M 作歸一化處理,即:

        其中, ωmax表示無(wú)人機(jī)電機(jī)最大轉(zhuǎn)速. 歸一化處理后的狀態(tài)空間內(nèi)和動(dòng)作空間內(nèi)各變量滿足sn∈[1, -1]、an∈[0, 1]. 再綜合考慮無(wú)人機(jī)飛行距離、飛行姿態(tài)、飛行線速度、飛行角速度等因素權(quán)重, 對(duì)無(wú)人機(jī)智能體進(jìn)行相應(yīng)的獎(jiǎng)懲. 本實(shí)驗(yàn)中, 設(shè)定獎(jiǎng)勵(lì)函數(shù)為:

        其中, d1表示無(wú)人機(jī)到航線終點(diǎn)的距離, d2表示無(wú)人機(jī)到航線的偏差距離, V、分別表示無(wú)人機(jī)飛行的合線速度值、合角速度值, t 為實(shí)驗(yàn)中無(wú)人機(jī)智能體保持安全飛行的時(shí)間. 在經(jīng)驗(yàn)池收集滿后, 每次抽取一定量的數(shù)據(jù), 對(duì)神經(jīng)網(wǎng)絡(luò)參數(shù)進(jìn)行更新. 再將學(xué)習(xí)效率進(jìn)行周期性指數(shù)衰減, 使學(xué)習(xí)更易收斂.

        3 仿真實(shí)驗(yàn)與結(jié)果分析

        3.1 仿真環(huán)境

        為了驗(yàn)證DDPG 算法對(duì)四旋翼無(wú)人機(jī)航線跟隨策略學(xué)習(xí)的真實(shí)、有效性, 本次實(shí)驗(yàn)在GPU 服務(wù)器、Tensorflow 1.8.0、OpenAIGym、Python3.6 的環(huán)境(如圖5 所示)對(duì)四旋翼無(wú)人機(jī)進(jìn)行訓(xùn)練. 通過(guò)將四旋翼無(wú)人機(jī)動(dòng)力學(xué)模型整合到建立的gym-aero 環(huán)境中,再導(dǎo)入DDPG 算法對(duì)無(wú)人機(jī)進(jìn)行訓(xùn)練.

        圖5 基于gym-aero 的四旋翼無(wú)人機(jī)飛行仿真環(huán)境Fig.5 Simulation environment of quadrotor UAV based on gym-aero

        本實(shí)驗(yàn)構(gòu)建的A 網(wǎng)絡(luò)、C 網(wǎng)絡(luò)及其目標(biāo)網(wǎng)絡(luò)為BP 神經(jīng)網(wǎng)絡(luò), 其中, 輸入層一層、隱藏層一層、輸出層一層, 設(shè)定隱藏層中神經(jīng)元個(gè)數(shù)為150. 實(shí)驗(yàn)中, 設(shè)定無(wú)人機(jī)每個(gè)電機(jī)的最大轉(zhuǎn)速為319.15 rad/s, 無(wú)人機(jī)懸停轉(zhuǎn)速為225.67 rad/s. 在DDPG 算法的應(yīng)用中,設(shè)立var 表示探索變量. 當(dāng)每次和環(huán)境交互時(shí), A 網(wǎng)絡(luò)會(huì)生成動(dòng)作值a, 系統(tǒng)再?gòu)囊詀 為均值、var 為方差的正態(tài)分布中隨機(jī)取出新的值, 有利于無(wú)人機(jī)學(xué)習(xí)未知?jiǎng)幼? 設(shè)定探索變量初始值為3, 隨著四旋翼無(wú)人機(jī)不斷地訓(xùn)練學(xué)習(xí), var 值進(jìn)行指數(shù)衰減. 設(shè)定A 網(wǎng)絡(luò)和C 網(wǎng)絡(luò)學(xué)習(xí)速率分別為0.001 和0.002, 獎(jiǎng)勵(lì)折扣系數(shù)為0.97. 當(dāng)設(shè)定的經(jīng)驗(yàn)池存滿數(shù)據(jù)后,神經(jīng)網(wǎng)絡(luò)中采用自適應(yīng)矩估計(jì)(adaptive moment estimation, Adam)的梯度下降優(yōu)化方法更新參數(shù), 每次從經(jīng)驗(yàn)池抽取的經(jīng)驗(yàn)數(shù)量為32.

        3.2 實(shí)驗(yàn)結(jié)果

        為實(shí)現(xiàn)安全的自主飛行, 四旋翼無(wú)人機(jī)應(yīng)該時(shí)刻監(jiān)視當(dāng)前的時(shí)間狀態(tài), 以保證在有限資源、有限時(shí)間內(nèi), 完成相應(yīng)的航線跟隨任務(wù). 因此, 在仿真環(huán)境中, 將時(shí)間狀態(tài)t 加入到無(wú)人機(jī)的狀態(tài)輸入量ζ 之中.設(shè)定T=15 s 為虛擬環(huán)境中無(wú)人機(jī)滿電量時(shí)的飛行續(xù)航時(shí)間, 當(dāng)無(wú)人機(jī)在設(shè)定時(shí)間T 內(nèi)未完成飛行任務(wù)時(shí), 無(wú)人機(jī)能源耗盡, 航線跟隨任務(wù)失敗.

        所有的實(shí)驗(yàn)中, 設(shè)立固定的四軸飛行器的初始位置和隨機(jī)的目標(biāo)航線. 在仿真實(shí)驗(yàn)中, 四旋翼無(wú)人機(jī)需要連續(xù)飛行到4 個(gè)連續(xù)的航路點(diǎn), 且每個(gè)航路點(diǎn)從一個(gè)球體的體積均勻采樣. 實(shí)驗(yàn)中, 用綠線表示飛行時(shí)無(wú)人機(jī)需要跟隨的航線, 用紅線表示四軸無(wú)人機(jī)的真實(shí)航跡.

        按照上述環(huán)境和參數(shù)值, 根據(jù)2.2 節(jié)給出的基于深度強(qiáng)化學(xué)習(xí)的DDPG 算法步驟從初始狀態(tài)開(kāi)始運(yùn)行, 當(dāng)完成航線跟隨任務(wù)或飛行續(xù)航時(shí)間內(nèi)未完成航線跟隨任務(wù)時(shí), 回合終止, 進(jìn)入下一回合學(xué)習(xí). 在訓(xùn)練前期, 環(huán)境中的智能體進(jìn)行地圖探索, 并學(xué)習(xí)策略以使獲得的獎(jiǎng)勵(lì)達(dá)到更大. 圖6 為四旋翼無(wú)人機(jī)訓(xùn)練4 000 回合后的航線跟隨任務(wù)展示. 在時(shí)間T4000=8.55 s 時(shí), 無(wú)人機(jī)成功完成航線跟隨任務(wù). 可以看到, 在第2 段路徑中, 無(wú)人機(jī)飛行軌跡與預(yù)設(shè)航線有較大的偏差, 這表明本文算法對(duì)無(wú)人機(jī)的訓(xùn)練是有效的, 但還無(wú)法保證無(wú)人機(jī)的持續(xù)穩(wěn)定飛行.

        圖6 訓(xùn)練4 000 回合后的航線跟隨任務(wù)展示圖Fig.6 Exploded view of track following mission after 4 000 rounds of training

        隨著神經(jīng)網(wǎng)絡(luò)的訓(xùn)練進(jìn)行, 算法的收斂程度不斷提高. 如圖7 所示, 當(dāng)訓(xùn)練7 000 回合后, 四旋翼無(wú)人機(jī)已基本能夠按照任務(wù)航線完成飛行. 此時(shí)T7000=11.65 s>T4000, 表示無(wú)人機(jī)在訓(xùn)練過(guò)程中提升了精度但降低了飛行效率, 未達(dá)到理想效果.

        圖7 訓(xùn)練7 000 回合后的航線跟隨任務(wù)展示圖Fig.7 Exploded view of track following mission after 7 000 rounds of training

        此外, 由于任務(wù)中航路的不斷變化, 四旋翼無(wú)人機(jī)對(duì)不同的環(huán)境作出反應(yīng)需要一定的時(shí)間, 所以需要對(duì)無(wú)人機(jī)進(jìn)行持續(xù)訓(xùn)練. 在算法中, 設(shè)定A 網(wǎng)絡(luò)和C 網(wǎng)絡(luò)學(xué)習(xí)速率每千回合衰減一半, 防止由于學(xué)習(xí)速率持續(xù)過(guò)大造成神經(jīng)網(wǎng)絡(luò)過(guò)擬合而產(chǎn)生低效學(xué)習(xí)、無(wú)效學(xué)習(xí)等問(wèn)題.

        經(jīng)過(guò)足夠的訓(xùn)練后, 無(wú)人機(jī)能夠跟隨任意隨機(jī)航線進(jìn)行飛行, 這表明訓(xùn)練出的神經(jīng)網(wǎng)絡(luò)能夠?qū)﹄S機(jī)航線作出應(yīng)對(duì), 泛化能力較強(qiáng). 圖8 為四旋翼無(wú)人機(jī)訓(xùn)練10 000 回合后的航線跟隨任務(wù)展示圖. 可以清楚地看到, 在時(shí)間T10000=6.70 s 時(shí), 無(wú)人機(jī)已經(jīng)能夠高精度完成任務(wù)航線的跟隨, 此時(shí)訓(xùn)練效果較為理想.

        圖8 訓(xùn)練10 000 回合后的航線跟隨任務(wù)展示圖Fig.8 Exploded view of track following mission after 10 000 rounds of training

        隨著訓(xùn)練回合的遞增, 無(wú)人機(jī)受到的平均獎(jiǎng)勵(lì)逐漸遞增, 最終趨于穩(wěn)定. 圖9 為四旋翼無(wú)人機(jī)的訓(xùn)練效果圖, 其中, 橫坐標(biāo)表示訓(xùn)練回合數(shù), 縱坐標(biāo)表示每回合內(nèi)無(wú)人機(jī)得到的平均獎(jiǎng)勵(lì). 該訓(xùn)練效果圖清晰展示了基于深度強(qiáng)化學(xué)習(xí)的DDPG 算法對(duì)四旋翼無(wú)人機(jī)航線跟隨任務(wù)學(xué)習(xí)的促進(jìn)作用.

        圖9 四旋翼無(wú)人機(jī)訓(xùn)練效果圖Fig.9 The training renderings of quadrotor UAV

        4 結(jié)論

        本文基于深度強(qiáng)化學(xué)習(xí)算法, 導(dǎo)入四旋翼飛行器非線性飛行運(yùn)動(dòng)學(xué)和動(dòng)力學(xué)模型, 并建立了無(wú)人機(jī)航線跟隨決策規(guī)則的產(chǎn)生方法, 避免了在不確定性環(huán)境中人為操作無(wú)人機(jī)飛行的繁瑣性和粗疏性,使得無(wú)人機(jī)完成航線跟隨任務(wù)更為有效. 動(dòng)態(tài)學(xué)習(xí)的過(guò)程和訓(xùn)練方法使無(wú)人機(jī)智能決策和控制更為高效和精準(zhǔn), 從而能夠使四旋翼無(wú)人機(jī)在接近真實(shí)的環(huán)境中學(xué)習(xí)到航線跟隨等相關(guān)任務(wù), 有利于實(shí)現(xiàn)無(wú)人機(jī)自主飛行與決策.

        猜你喜歡
        動(dòng)作智能
        下一個(gè)動(dòng)作
        智能制造 反思與期望
        智能前沿
        文苑(2018年23期)2018-12-14 01:06:06
        智能前沿
        文苑(2018年19期)2018-11-09 01:30:14
        智能前沿
        文苑(2018年17期)2018-11-09 01:29:26
        智能前沿
        文苑(2018年21期)2018-11-09 01:22:32
        智能制造·AI未來(lái)
        商周刊(2018年18期)2018-09-21 09:14:46
        動(dòng)作描寫(xiě)要具體
        畫(huà)動(dòng)作
        讓動(dòng)作“活”起來(lái)
        亚洲乱码中文字幕综合69堂 | 曰韩无码无遮挡a级毛片| 天堂新版在线资源| 日韩a∨精品日韩在线观看| 手机看片国产日韩| 久久久一本精品久久久一本| 精品极品视频在线观看| 亚洲第一网站免费视频| 黄片视频免费在线播放观看| 深夜福利啪啪片| 国模少妇一区二区三区| 一级二级中文字幕在线视频| 在线a人片免费观看国产| 精品人妻夜夜爽一区二区| 在线观看一区二区三区在线观看 | 亚洲精品欧美二区三区中文字幕| 亚洲成人电影在线观看精品国产| 亚洲av日韩片在线观看| 国产熟女乱综合一区二区三区| 草青青在线视频免费观看| 亚洲成人中文字幕在线视频| 国产精品亚洲色婷婷99久久精品 | 久久人人爽人人爽人人片av麻烦 | 日韩亚洲欧美精品| 国产一区二区三区免费在线播放| 亚洲无人区乱码中文字幕能看| av人摸人人人澡人人超碰下载 | 色一情一乱一伦一区二区三区 | 黄色大片一区二区中文字幕| 少妇特殊按摩高潮对白| 少妇人妻中文久久综合| 伊人色综合久久天天五月婷| 国产无遮挡又黄又爽在线视频| 国产精品亚洲专区无码web | 精品熟女少妇免费久久| 精品亚洲乱码一区二区三区| 国产极品大奶在线视频| 激情综合婷婷色五月蜜桃| 免费毛片a线观看| 中文字幕第八页| 日韩av一区二区无卡|