亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于維和訓(xùn)練的控制系統(tǒng)仿真技術(shù)研究

        2021-09-18 10:10:28田聚波,趙建,李寶蓮,岳云鶴,劉晶
        河北工業(yè)科技 2021年6期
        關(guān)鍵詞:虛擬現(xiàn)實(shí)人工智能

        田聚波,趙建,李寶蓮,岳云鶴,劉晶

        摘要:為了解決聯(lián)合國(guó)維和行動(dòng)長(zhǎng)期存在的國(guó)內(nèi)訓(xùn)練基礎(chǔ)環(huán)境難逼真、執(zhí)行任務(wù)標(biāo)準(zhǔn)運(yùn)用不熟練、突發(fā)情況應(yīng)急處置不到位的問(wèn)題,開(kāi)展了基于維和訓(xùn)練的控制系統(tǒng)仿真技術(shù)研究。運(yùn)用虛擬現(xiàn)實(shí)、建模仿真、沉浸體驗(yàn)、人工智能等先進(jìn)技術(shù),提出一種大空間定位和姿態(tài)捕獲方法,研發(fā)空間位置與動(dòng)作姿態(tài)數(shù)據(jù)融合算法,靈活支撐對(duì)抗仿真;提出一種三維影像構(gòu)建方法,建立人員、裝備、設(shè)施、建筑、道路等三維模型,構(gòu)建國(guó)外任務(wù)區(qū)虛擬戰(zhàn)場(chǎng)環(huán)境,支持開(kāi)展沉浸式模擬演練。研究結(jié)果表明,新方法能幫助維和官兵提前逼真體驗(yàn),規(guī)范執(zhí)行標(biāo)準(zhǔn),模擬紅藍(lán)對(duì)抗,尤其是大空間定位技術(shù)的研究可有效延伸虛擬戰(zhàn)場(chǎng)環(huán)境,顯著提高聯(lián)合訓(xùn)練效果,并可節(jié)省訓(xùn)練經(jīng)費(fèi),避免訓(xùn)練事故,提高訓(xùn)練的針對(duì)性。虛擬仿真訓(xùn)練技術(shù)研究能夠有效支撐多分隊(duì)協(xié)同處置訓(xùn)練,甚至多兵種聯(lián)合訓(xùn)練,在軍事訓(xùn)練領(lǐng)域有較大的推廣價(jià)值。

        關(guān)鍵詞:控制系統(tǒng)仿真技術(shù);虛擬現(xiàn)實(shí);建模仿真;沉浸體驗(yàn);人工智能;大空間定位技術(shù)

        中圖分類(lèi)號(hào):TP183文獻(xiàn)標(biāo)識(shí)碼:ADOI: 10.7535/hbgykj.2021yx06004

        Research on simulation technology of control system based on

        peacekeeping training

        TIAN Jubo,ZHAO Jian,LI Baolian,YUE Yunhe,LIU Jing

        (The 54th Research Institute of CETC,Shijiazhuang,Hebei 050081,China)

        Abstract:The research on simulation technology of control system based on peacekeeping training was developed in order to solve the long-standing problems in the United Nations peacekeeping operations,such as unlifelike basic domestic training environment,unskilled implementation of mission standards and inadequate emergency response.By using virtual reality,modeling and simulation,immersive experience,artificial intelligence and other advanced technologies,a large space positioning and attitude acquisition method was proposed,and the spatial position and action attitude data fusion algorithm was developed to flexibly support confrontation simulation.A three-dimensional image construction method was proposed to establish three-dimensional models of personnel,equipment facilities,buildings and roads,then the virtual battlefield environment in foreign mission areas was built to support immersive simulation exercises.The results show that it can help soldiers experience realistically in advance,standardize the implementation of standards,simulate red-blue confrontation.And the research of large space positioning technology can effectively extend the virtual battlefield environment,significantly improve the effect of joint training,save training funds,avoid training accidents and improve the training pertinence.The research on virtual simulation training technology can effectively support multi unit cooperative disposal training and even multi arms joint training,and has great popularization value in the field of military training.

        Keywords:simulation technology of control system;virtual reality;modeling and simulation;immersive experience;artificial intelligence;large space positioning technology

        虛擬現(xiàn)實(shí)(VR)技術(shù)是20世紀(jì)末以來(lái)逐漸興起的一項(xiàng)先進(jìn)的綜合性信息技術(shù),該技術(shù)融合了計(jì)算機(jī)圖形學(xué)、仿真學(xué)以及傳感器應(yīng)用等多學(xué)科專(zhuān)業(yè),為作戰(zhàn)訓(xùn)練等高風(fēng)險(xiǎn)類(lèi)型的仿真研究探索出了一條新的道路[1]。VR技術(shù)具有3個(gè)突出特征:沉浸性、交互性和想象性[2],與傳統(tǒng)的桌面虛擬現(xiàn)實(shí)系統(tǒng)相比,虛擬仿真訓(xùn)練將用戶(hù)所處場(chǎng)景封閉,使用戶(hù)完全置身于虛擬環(huán)境中,強(qiáng)調(diào)將人在現(xiàn)實(shí)世界中的各種行為和虛擬環(huán)境融為一體,使人們能像控制現(xiàn)實(shí)物體一樣控制虛擬環(huán)境中的物體[3]。近年來(lái),世界軍事強(qiáng)國(guó)將虛擬現(xiàn)實(shí)技術(shù)運(yùn)用于新型軍事戰(zhàn)爭(zhēng)的情況層出不窮,而且特別注重利用虛擬現(xiàn)實(shí)技術(shù)進(jìn)行信息戰(zhàn)的演練和研究[4]。美國(guó)陸軍2012年推出步兵訓(xùn)練系統(tǒng)(DSTS),是世界上首次投入使用的沉浸式戰(zhàn)術(shù)級(jí)模擬訓(xùn)練系統(tǒng)。英國(guó)耗資 260 萬(wàn)美元研制了炮兵虛擬訓(xùn)練系統(tǒng),并在炮兵部隊(duì)投入使用[5]。21世紀(jì)以來(lái),中國(guó)陸續(xù)將 VR 應(yīng)用于包括飛行員、艦艇、炮兵、坦克等多個(gè)兵種的軍事訓(xùn)練中。

        聯(lián)合國(guó)維和行動(dòng)環(huán)境復(fù)雜危險(xiǎn),形勢(shì)嚴(yán)峻,沖突不斷,突發(fā)情況頻發(fā)。傳統(tǒng)的維和部隊(duì)行前訓(xùn)練采用實(shí)兵實(shí)裝模式,訓(xùn)練效果難以保證。有必要開(kāi)展基于VR技術(shù)的維和仿真訓(xùn)練研究,融合并運(yùn)用先進(jìn)仿真技術(shù)手段,逼真模擬維和任務(wù)區(qū)環(huán)境,構(gòu)建維和訓(xùn)練場(chǎng)景,模擬訓(xùn)練對(duì)手和突發(fā)事件,開(kāi)展標(biāo)準(zhǔn)作業(yè)訓(xùn)練和應(yīng)急處置訓(xùn)練,促進(jìn)維和部隊(duì)高效遂行維和任務(wù)。

        1虛擬仿真關(guān)鍵技術(shù)研究

        1.1大空間定位和姿態(tài)捕捉技術(shù)

        大范圍空間定位系統(tǒng)包括發(fā)射端和接收端兩部分,為了實(shí)現(xiàn)一發(fā)多收、便攜性等功能多采用收發(fā)分離式設(shè)計(jì)[6],發(fā)射端包括光塔、HUB和控制器組成,光塔包含激光掃描裝置及過(guò)零信號(hào)發(fā)射裝置,接收端包括追蹤器和定位計(jì)算單元。利用激光定位技術(shù)延遲低、受遮擋干擾小等特點(diǎn),在室內(nèi)訓(xùn)練環(huán)境四周覆蓋激光發(fā)射塔,保證追蹤器在任何位置都能夠捕獲。

        1.1.1定位系統(tǒng)部署原理

        1)發(fā)射端

        在單個(gè)定位空間內(nèi),各個(gè)光塔與HUB呈星形連接,每個(gè)光塔都與單位區(qū)間內(nèi)唯一的面光源相連,各個(gè)定位空間之間依靠HUB連接,如圖1所示,矩形代表光塔,菱形代表HUB,形成星形結(jié)構(gòu)。

        2)接收端

        追蹤器內(nèi),所有的Sensor傳感器與九軸傳感器將所接收到的數(shù)據(jù)信息傳給CPU及內(nèi)存,進(jìn)行自身的位姿計(jì)算,然后通過(guò)網(wǎng)絡(luò)傳輸給計(jì)算單元,如圖2所示。

        1.1.2定位及姿態(tài)捕捉工作原理

        定位及姿態(tài)捕捉工作原理如圖3所示。主HUB控制各分HUB的同步,分HUB控制本單元的4個(gè)光塔同步,光塔分時(shí)工作,發(fā)射過(guò)零信號(hào)和掃描信號(hào),追蹤器接收到光塔信號(hào)后,自行計(jì)算位姿信息,傳遞給計(jì)算單元處理,最終傳給顯示單元進(jìn)行顯示。由于激光雷達(dá)系統(tǒng)需要有很好的實(shí)時(shí)性,因此算法的計(jì)算復(fù)雜度與計(jì)算時(shí)間都需要低于一幀數(shù)據(jù)的采樣周期,即需要在下一組數(shù)據(jù)導(dǎo)入算法之前,完成上一次數(shù)據(jù)的計(jì)算[7]。本課題以卡爾曼濾波算法作為基礎(chǔ)跟蹤算法,研發(fā)能夠滿(mǎn)足姿態(tài)動(dòng)作和位置數(shù)據(jù)進(jìn)行融合的算法。

        1.2三維影像構(gòu)建技術(shù)

        虛擬環(huán)境的建立是虛擬現(xiàn)實(shí)技術(shù)的核心內(nèi)容,環(huán)境建模的目的是獲取實(shí)際環(huán)境的三維數(shù)據(jù),并根據(jù)應(yīng)用需要,利用獲取的三維數(shù)據(jù)建立相應(yīng)的虛擬環(huán)境模型[8]。

        美軍采用綜合了航空照片、衛(wèi)星影像和數(shù)字高程地形數(shù)據(jù)來(lái)分析生成高分辨率的作戰(zhàn)區(qū)域三維地形環(huán)境,以幾乎一致的三維環(huán)境來(lái)訓(xùn)練參戰(zhàn)人員[9]。

        本文采集任務(wù)區(qū)多源數(shù)據(jù),包括建筑物信息、開(kāi)源影像數(shù)據(jù)、人員裝備等近景數(shù)據(jù),無(wú)人機(jī)航拍影像、直升機(jī)航拍影像等航空遙感影像數(shù)據(jù),突破三維影像特征檢測(cè)與匹配、三維影像表面重建技術(shù),構(gòu)建逼真三維影像。

        1.2.1三維影像特征檢測(cè)與匹配技術(shù)

        三維影像特征檢測(cè)與匹配技術(shù)主要包括三維特征檢測(cè)、三維特征快速匹配和自動(dòng)剔除粗差。三維特征檢測(cè)技術(shù)采用SURF特征檢測(cè)算子,研究多特征融合檢測(cè)技術(shù)、特征描述符提取技術(shù)和GPU并行優(yōu)化加速技術(shù);三維特征快速匹配技術(shù)采用基于FLANN的快速檢索算法、基于哈希表的快速檢索算法和基于GPU并行加速檢索算法等,研究多基線(xiàn)立體匹配基準(zhǔn)、多基線(xiàn)立體匹配模型和多基線(xiàn)立體匹配約束技術(shù);自動(dòng)剔除粗差技術(shù)采用RANSAC算法加歸一化的DLT算法魯棒估計(jì)基礎(chǔ)矩陣、重投影誤差最小化估計(jì)基礎(chǔ)矩陣,局部單應(yīng)約束剔除粗差點(diǎn),具體流程如圖4所示。

        在特征點(diǎn)檢測(cè)與提取上,目前匹配能力較強(qiáng)的特征點(diǎn)檢測(cè)算法是SIFT算法,具有較高的重現(xiàn)性和滿(mǎn)覆蓋性,但其提取過(guò)程時(shí)間復(fù)雜度和空間復(fù)雜度較高,無(wú)法直接應(yīng)用到三維影像的特征提取,本文主要采用SURF算法和KAZE算法進(jìn)行特征點(diǎn)檢測(cè)。

        1)SURF算法

        步驟1:計(jì)算積分圖像

        積分圖像可通過(guò)卷積的盒子濾波器進(jìn)行快速計(jì)算,在I∑(x)的位置輸入卷積圖像,X=(x,y)T代表了包括原點(diǎn)和x的輸入圖像I的所有像素之和。

        I∑(x)=∑i≤xi=0∑j≤xj=0I(i,j)。(1)

        步驟2:計(jì)算基于興趣點(diǎn)的Hessian矩陣

        給定點(diǎn)為x=(x,y),計(jì)算其Hessian矩陣H(x,σ)行列式的決定值,來(lái)判斷特征點(diǎn)。

        H(x,σ)=Lxx(x,σ)Lxy(x,σ)

        Lxy(x,σ)Lyy(x,σ)。(2)

        步驟3:構(gòu)建尺度空間

        使原始圖像保持不變,通過(guò)變化模板大小對(duì)原圖像進(jìn)行濾波,從而構(gòu)建出尺度金字塔,把相應(yīng)圖像分成多組,每組由多層組成,各組采用逐漸增大的濾波器尺寸進(jìn)行處理[10],不需對(duì)圖像進(jìn)行二次抽樣,從而提高算法性能。

        步驟4:精確定位特征點(diǎn)

        檢測(cè)過(guò)程中使用與該尺度層圖像解析度相對(duì)應(yīng)大小的濾波器進(jìn)行檢測(cè),丟棄所有小于預(yù)設(shè)極值的取值,最終保留幾個(gè)特征最強(qiáng)點(diǎn)。

        2)KAZE算法

        步驟1:對(duì)圖像進(jìn)行高斯濾波,計(jì)算圖像的梯度直方圖,利用AOS算法來(lái)構(gòu)造非線(xiàn)性尺度空間。

        Li+1=I-(ti+1-ti)∑ml=1Al(Li)Li+1。(3)

        步驟2:檢測(cè)感興趣特征點(diǎn),通過(guò)判斷經(jīng)過(guò)尺度歸一化后的Hessian局部極大值來(lái)實(shí)現(xiàn)。判斷過(guò)程中,每一個(gè)像素點(diǎn)和周?chē)南噜忺c(diǎn)比較,當(dāng)其大于圖像域和尺度域的所有相鄰點(diǎn)時(shí),即為感興趣特征點(diǎn)。

        L(hessian)=σ2(LxxLxy-L2yy)。(4)

        步驟3:計(jì)算特征點(diǎn)的主方向,并且基于一階微分圖像提取具有尺度和旋轉(zhuǎn)不變性的描述向量。對(duì)圖像搜索圈內(nèi)所有鄰點(diǎn)的一階微分值進(jìn)行高斯加權(quán),將這些微分值視作向量空間中的點(diǎn)集,在一個(gè)角度為60°的扇形滑動(dòng)窗口內(nèi)對(duì)點(diǎn)集進(jìn)行向量疊加,遍歷整個(gè)區(qū)域,獲得最長(zhǎng)向量的角度就是主方向。

        1.2.2三維影像表面重建技術(shù)

        三維表面重建技術(shù)主要是實(shí)現(xiàn)散亂點(diǎn)云數(shù)據(jù)的曲面重建,重建三維模型。先對(duì)模型表面采樣的有向點(diǎn)云數(shù)據(jù)集進(jìn)行粗差探測(cè)與分塊,同時(shí)進(jìn)行稠密點(diǎn)云抽稀,以提高系統(tǒng)運(yùn)行效率;在曲面生成之后,進(jìn)行曲面優(yōu)化重建結(jié)果;最后進(jìn)行網(wǎng)格簡(jiǎn)化,減少重建模型中的冗余數(shù)據(jù),為模型的存儲(chǔ)與瀏覽提供方便。

        1)點(diǎn)云數(shù)據(jù)的粗差探測(cè)與分塊技術(shù)

        點(diǎn)云數(shù)據(jù)的粗差探測(cè)技術(shù)如下:首先,計(jì)算待測(cè)點(diǎn)p的k個(gè)最鄰近點(diǎn)。然后計(jì)算k+1個(gè)點(diǎn)的高程平均值Mp ,對(duì)于點(diǎn)p ,可以得到一個(gè)高程差值Vp ,計(jì)算公式如式(5)所示:

        Vp=Mp-Hp。(5)

        所有點(diǎn)的高程差值都將用來(lái)計(jì)算統(tǒng)計(jì)值,作為決定最終閾值的基礎(chǔ)。算術(shù)平均值U與標(biāo)準(zhǔn)偏差 SD分別按照式(6)計(jì)算:

        U=∑ni=1Vin,SD=∑ni=1(Vi-U)2/(n-1),(6)

        式中:n為點(diǎn)的總個(gè)數(shù)。若|Vp-U|>T,則點(diǎn)p被判斷為粗差點(diǎn),否則就認(rèn)為點(diǎn)p不是粗差點(diǎn),其中閾值T一般設(shè)置為SD的3倍。

        點(diǎn)云數(shù)據(jù)的分塊首先根據(jù)影像及其空三參數(shù),獲取整個(gè)測(cè)區(qū)的地理坐標(biāo)范圍,規(guī)劃設(shè)置分塊參數(shù)D,較平緩的數(shù)據(jù)可以將D適當(dāng)放大,這樣可以提高重建效率,比較復(fù)雜時(shí),可以適當(dāng)縮小D的取值[11],保證整個(gè)測(cè)區(qū)分塊格網(wǎng)的精度。然后按分塊參數(shù)對(duì)測(cè)區(qū)進(jìn)行劃分,得到整個(gè)測(cè)區(qū)的分塊格網(wǎng)。

        2)三維影像數(shù)據(jù)的密集點(diǎn)云抽稀技術(shù)

        為解決數(shù)據(jù)密度和應(yīng)用精度不符的情況,采用基于TIN的抽稀方法和基于網(wǎng)格流的抽稀方法使其達(dá)到平衡。

        基于TIN的抽稀方法,輸入數(shù)據(jù),構(gòu)建不規(guī)則三角網(wǎng)DEM模型。在TIN模型上,抽稀是對(duì)模型影響最小的點(diǎn)。首先加載點(diǎn)云數(shù)據(jù),構(gòu)建TIN;選取數(shù)據(jù)點(diǎn),查找以這個(gè)點(diǎn)為頂點(diǎn)的所有三角形;求該點(diǎn)的相鄰三角形的兩兩法向量的夾角,并求最大夾角max θ;將max θ與設(shè)定的閾值T作比較,如果小于T,則刪除這個(gè)點(diǎn),否則保留;繼續(xù)處理不規(guī)則網(wǎng)中的下一個(gè)點(diǎn),直到所有數(shù)據(jù)處理完。

        基于網(wǎng)格流的抽稀方法,每次網(wǎng)格流處理構(gòu)建TIN的時(shí)候,當(dāng)讀取到格網(wǎng)穩(wěn)定標(biāo)識(shí)時(shí),就要判斷穩(wěn)定三角形,將當(dāng)前條件成熟的活躍三角形變化為穩(wěn)定三角形;查找在內(nèi)存中的數(shù)據(jù)點(diǎn),并找到這些點(diǎn)的相鄰三角形,當(dāng)點(diǎn)的所有相鄰三角形都穩(wěn)定了,對(duì)該點(diǎn)進(jìn)行抽稀處理,采用基于TIN的壓縮方法,判斷該點(diǎn)的兩兩三角面的最大夾角是否大于閾值,來(lái)決定是否保留該點(diǎn),并標(biāo)記該點(diǎn)已經(jīng)作了抽稀處理;如果三角形參與了3次抽稀計(jì)算,即它的3個(gè)頂點(diǎn)都已經(jīng)進(jìn)行了抽稀處理,那么將該三角形的內(nèi)存釋放。如果點(diǎn)的所有相鄰三角形都參與了3次抽稀計(jì)算,就可以釋放該點(diǎn)的內(nèi)存;直到將格網(wǎng)流中的點(diǎn)數(shù)據(jù)處理完成。

        3)基于區(qū)域生長(zhǎng)策略的構(gòu)網(wǎng)重建技術(shù)

        針對(duì)三維影像匹配點(diǎn)云數(shù)據(jù)量大的特點(diǎn),采用基于局部區(qū)域生長(zhǎng)的構(gòu)網(wǎng)算法來(lái)進(jìn)行三維表面重建,然后利用網(wǎng)格的簡(jiǎn)化策略生成多層次的網(wǎng)格模型。算法流程如圖 5所示。

        其中,良好的種子三角形的選取是快速進(jìn)行區(qū)域生長(zhǎng)的關(guān)鍵:根據(jù)空間索引理清點(diǎn)云的空間分布狀況,設(shè)置多個(gè)起始點(diǎn),搜索各起始點(diǎn)的最鄰近點(diǎn),連接起始點(diǎn)與其最鄰近點(diǎn),將其作為待選種子三角形的一條邊。以該邊的中點(diǎn)為球心,邊長(zhǎng)的k倍為半徑,建立搜索球,遍歷搜索球內(nèi)的每一個(gè)點(diǎn),將其與已知邊組成三角形,驗(yàn)證該三角形的最小外接球內(nèi)是否存在其他點(diǎn)。如果不存在,則該三角形為待選種子三角形,驗(yàn)證該三角形是否在點(diǎn)云數(shù)據(jù)表面,如果滿(mǎn)足要求則種子三角形構(gòu)建完成。

        區(qū)域生長(zhǎng)策略是整個(gè)點(diǎn)云數(shù)據(jù)進(jìn)行構(gòu)網(wǎng)的關(guān)鍵步驟:首先搜索活動(dòng)邊指定范圍內(nèi)的候選點(diǎn),在活動(dòng)三角形所在的平面上作活動(dòng)邊的中垂線(xiàn),在其中垂線(xiàn)上距活動(dòng)邊一定距離處確定搜索球的球心。根據(jù)球心和球上的兩點(diǎn)即活動(dòng)邊的端點(diǎn)確定搜索球的半徑,根據(jù)球心和半徑計(jì)算球內(nèi)所包含的點(diǎn),即活動(dòng)邊指定范圍內(nèi)的待選點(diǎn)。根據(jù)待選點(diǎn)和活動(dòng)邊確定多個(gè)搜索球,比較后確定最佳候選三角形,對(duì)新增的兩條活動(dòng)邊進(jìn)行驗(yàn)證,判斷其是否屬于其他三角形,根據(jù)判斷情況,修改活動(dòng)邊列表,遞歸完成構(gòu)網(wǎng)。

        2綜合仿真研發(fā)

        研發(fā)綜合仿真引擎技術(shù),融合仿真引擎和游戲渲染引擎,采用基于步長(zhǎng)的連續(xù)型時(shí)間步進(jìn)仿真機(jī)制,把仿真時(shí)間等分為時(shí)間序列,按時(shí)間步長(zhǎng)依次推進(jìn),通過(guò)一步一步地重復(fù)計(jì)算仿真新?tīng)顟B(tài)來(lái)填充時(shí)空?qǐng)D。同時(shí)實(shí)現(xiàn)實(shí)時(shí)仿真和超實(shí)時(shí)仿真的時(shí)空一致性,為戰(zhàn)術(shù)級(jí)對(duì)抗仿真提供靈活的引擎支撐。

        2.1雙引擎工作機(jī)制

        雙引擎工作機(jī)制下的基本工作流程如圖 6所示。

        仿真開(kāi)始后進(jìn)行仿真初始化,主要完成配置信息的讀取、環(huán)境數(shù)據(jù)加載、仿真任務(wù)的加載等,然后進(jìn)入系統(tǒng)主循環(huán),處理對(duì)應(yīng)的仿真任務(wù)。其中仿真引擎和融合引擎相互融合,分別負(fù)責(zé)不同的工作,完成虛擬想定和虛擬場(chǎng)景的結(jié)合。

        仿真引擎根據(jù)仿真時(shí)間的驅(qū)動(dòng)機(jī)制不同,采用線(xiàn)程同步和線(xiàn)程非同步2種仿真推進(jìn)策略,同步線(xiàn)程負(fù)責(zé)與主線(xiàn)程交互的任務(wù),非同步線(xiàn)程負(fù)責(zé)數(shù)據(jù)加載等非實(shí)時(shí)處理類(lèi)輔助工作。

        渲染引擎具有更高維度布局空間以及性能上的優(yōu)勢(shì)[12],根據(jù)初始參數(shù)完成虛擬戰(zhàn)場(chǎng)的渲染,按照時(shí)間軸的方式進(jìn)行計(jì)算渲染,按照無(wú)限循環(huán)的模式處理Windows消息,完成三幀預(yù)測(cè)、閾值檢測(cè)、仿真倍率以及虛擬戰(zhàn)場(chǎng)空間中的各類(lèi)活動(dòng)檢測(cè),及時(shí)調(diào)用引擎各子系統(tǒng)更新?tīng)顟B(tài)。

        2.2仿真任務(wù)中的時(shí)間管理

        時(shí)間管理上重點(diǎn)處理2個(gè)時(shí)間:仿真時(shí)間(Glob.Time)和真實(shí)時(shí)間(Glob.uiTime)。其中(Glob.uiTime)從引擎啟動(dòng)完成初始化操作后開(kāi)始累計(jì),是仿真運(yùn)行所流逝的真實(shí)時(shí)間;(Glob.Time)是仿真系統(tǒng)中表現(xiàn)出來(lái)的時(shí)間,是仿真開(kāi)始后累加的時(shí)間,受時(shí)間加速因子影響,可以加速、減速和暫停。

        在仿真引擎中,幀間隔以ms為單位,采用32位的浮點(diǎn)數(shù)來(lái)存儲(chǔ),推進(jìn)流程如圖 7所示。

        第1步:deltaTMs=(當(dāng)前系統(tǒng)Tick-上次系統(tǒng)Tick)×0.001;//Tick是啟動(dòng)后所經(jīng)歷的毫秒數(shù);

        第2步:判斷是否處于仿真狀態(tài),是跳轉(zhuǎn)到第4步,否則,執(zhí)行第3步;

        第3步:如果deltaTMs<0.05時(shí),等待(0.05-deltaTMs),deltaTMs=0.05;

        第4步:通過(guò)deltaTMs得到幀間隔deltaT;

        第5步:判斷游戲引擎是否處于仿真狀態(tài),如果是進(jìn)行三幀預(yù)測(cè),重置deltaT;

        第6步:將deltaT值存儲(chǔ)到真實(shí)步長(zhǎng)noAccDeltaT;

        第7步:deltaT*=加速減速時(shí)間因子,此時(shí)deltaT變?yōu)榉抡娌介L(zhǎng);

        第8步: 如果deltaT大于0.1,則deltaT=0.1;

        第9步:判斷是否處于推演狀態(tài),如果是,真實(shí)時(shí)間累加仿真步長(zhǎng),否則deltaT=0,真實(shí)時(shí)間不變。

        仿真任務(wù)啟動(dòng)后在不同場(chǎng)景下仿真推進(jìn)時(shí),仿真時(shí)間與真實(shí)時(shí)間的對(duì)應(yīng)情況如圖 8所示。

        3仿真驗(yàn)證與結(jié)果分析

        3.1搭建仿真訓(xùn)練平臺(tái)

        搭建一個(gè)仿真訓(xùn)練平臺(tái),利用單兵虛擬現(xiàn)實(shí)設(shè)備、空間定位設(shè)備、VR眼鏡等硬件設(shè)備配合開(kāi)展大空間定位和姿態(tài)捕捉技術(shù)研究;利用實(shí)體模型、裝備模型和影像數(shù)據(jù)配合開(kāi)展三維影像構(gòu)建技術(shù)研究;研發(fā)軟件統(tǒng)一架構(gòu)、接口規(guī)范、場(chǎng)景構(gòu)建工具等開(kāi)展綜合仿真引擎技術(shù)研究;研發(fā)業(yè)務(wù)軟件驗(yàn)證虛擬仿真技術(shù)研究成果。

        測(cè)試場(chǎng)地長(zhǎng)×寬為24 m×18 m,安裝布設(shè)大范圍空間定位設(shè)備一套,4個(gè)HUB,31個(gè)光塔,仿真控制計(jì)算機(jī)3臺(tái),仿真訓(xùn)練平臺(tái)業(yè)務(wù)軟件一套,可安排24人的分隊(duì)進(jìn)行聯(lián)合訓(xùn)練,每人穿戴一套頭戴式單兵虛擬訓(xùn)練套裝,VR眼鏡中顯示預(yù)定的戰(zhàn)場(chǎng)環(huán)境,空間定位設(shè)備捕捉人員位置和姿態(tài)信息,傳遞到電腦,進(jìn)行三維場(chǎng)景更新。搭建環(huán)境如圖 9所示。

        本文選擇Unity 3D作為仿真訓(xùn)練平臺(tái)業(yè)務(wù)軟件的開(kāi)發(fā)工具。Unity 3D是應(yīng)用于實(shí)時(shí)視景仿真、虛擬現(xiàn)實(shí)及其他可視化領(lǐng)域的主流軟件之一[13],可以輕松地創(chuàng)建諸如三維視頻游戲,建筑可視化以及三維動(dòng)畫(huà)等效果,是一個(gè)全面整合的專(zhuān)業(yè)游戲引擎。Unity 3D里面提供了聲音、圖形、渲染和物理等多種功能,內(nèi)置了強(qiáng)大的編輯器,支持 3D Max,Maya等多種文件格式[14]。

        3.2仿真結(jié)果分析

        3.2.1實(shí)現(xiàn)大空間定姿捕獲

        目前市場(chǎng)上大量的沉浸式體驗(yàn)都是基于小范圍、固定空間的設(shè)備,大范圍定位技術(shù)還沒(méi)有應(yīng)用到沉浸式體驗(yàn),尤其沒(méi)有應(yīng)用到維和訓(xùn)練中。小范圍空間定位技術(shù)的有效定位面積一般為4.5 m× 4.5 m,而本文實(shí)現(xiàn)了400 m2以上面積的有效空間定位和姿態(tài)捕捉;另外通過(guò)模擬武器上配備萬(wàn)向輪裝置,在軟件中進(jìn)行虛擬場(chǎng)景和室內(nèi)訓(xùn)練環(huán)境的映射轉(zhuǎn)換,使得室內(nèi)訓(xùn)練環(huán)境在虛擬場(chǎng)景中實(shí)現(xiàn)上萬(wàn)倍延伸。該技術(shù)研究能夠有效支撐多分隊(duì)協(xié)同處置訓(xùn)練,甚至多兵種聯(lián)合訓(xùn)練。

        在大空間定姿捕獲試驗(yàn)中,隨機(jī)選擇訓(xùn)練位置進(jìn)行測(cè)試,測(cè)試記錄如表1所示。

        測(cè)試過(guò)程中,在測(cè)試人員身上多個(gè)部位分別部署接收端追蹤器,采集測(cè)試人員的姿態(tài)及位置信息,同時(shí)接收光塔信號(hào),然后進(jìn)行自身的位姿計(jì)算,測(cè)試者手持模擬武器,在測(cè)試場(chǎng)地隨機(jī)選取位置,按照站立姿態(tài)、舉手姿態(tài)、跪地姿態(tài)、俯臥姿態(tài)的次序進(jìn)行動(dòng)作,在顯示端虛擬場(chǎng)景中,同步顯示測(cè)試人員的位姿信息,記錄各個(gè)姿態(tài)的定位誤差和動(dòng)作時(shí)延,取平均值作為該位置的最終結(jié)果。在定位誤差的測(cè)試結(jié)果中,最大為0.36 cm,定位精度為毫米級(jí),對(duì)于虛擬場(chǎng)景中的戰(zhàn)術(shù)動(dòng)作計(jì)算沒(méi)有影響,在動(dòng)作時(shí)延的測(cè)試中,最大時(shí)延為25 ms,從視覺(jué)感受方面也察覺(jué)不到,保證指揮員口令、參訓(xùn)人員動(dòng)作、虛擬場(chǎng)景展現(xiàn)的一致性。通過(guò)對(duì)定位設(shè)備進(jìn)行隨機(jī)抽檢測(cè)試,驗(yàn)證大空間定位設(shè)備工作正常,在規(guī)定的訓(xùn)練范圍內(nèi),定位姿態(tài)捕獲動(dòng)作姿態(tài)無(wú)誤、定位精度均小于1 cm,動(dòng)作時(shí)延小于30 ms,能夠滿(mǎn)足訓(xùn)練系統(tǒng)的需要。

        3.2.2構(gòu)建虛擬訓(xùn)練場(chǎng)景

        構(gòu)建大范圍野外地形環(huán)境、城市街區(qū)環(huán)境、重點(diǎn)目標(biāo)設(shè)施模型、建筑物室內(nèi)環(huán)境、人物角色、交通工具等實(shí)體模型和裝備模型,構(gòu)建相應(yīng)的行為組件模型和服務(wù)組件模型,隨后全部導(dǎo)入到Unity資源中,進(jìn)行規(guī)劃和擺放,最終形成虛擬場(chǎng)景的整體模型[15]。仿真試驗(yàn)創(chuàng)建了數(shù)千個(gè)模型,構(gòu)建了50多個(gè)典型國(guó)外任務(wù)場(chǎng)景,幫助官兵提前體驗(yàn)任務(wù)區(qū)環(huán)境。

        系統(tǒng)構(gòu)建的訓(xùn)練場(chǎng)虛擬場(chǎng)景如圖 10所示。

        3.2.3雙引擎機(jī)制支撐靈活對(duì)抗仿真

        傳統(tǒng)的仿真引擎機(jī)制和渲染引擎機(jī)制各有優(yōu)點(diǎn),仿真引擎偏數(shù)據(jù)計(jì)算服務(wù),渲染引擎偏展現(xiàn)畫(huà)面呈現(xiàn)服務(wù),但分別使用、交叉切換時(shí),操作繁瑣,界面不一致,操作不友好,隨遇接入困難。

        綜合仿真引擎機(jī)制解決了上述不便,支持實(shí)時(shí)仿真和超實(shí)時(shí)仿真的時(shí)空一致性,并可同步提供三維態(tài)勢(shì)展現(xiàn),為戰(zhàn)術(shù)級(jí)對(duì)抗仿真提供靈活支撐。

        4結(jié)語(yǔ)

        虛擬現(xiàn)實(shí)技術(shù)是未來(lái)軍事模擬訓(xùn)練的關(guān)鍵技術(shù)之一[16]。開(kāi)展虛擬仿真技術(shù)在維和訓(xùn)練中的應(yīng)用研究,是利用虛擬仿真和人工智能技術(shù)解決維和任務(wù)訓(xùn)練中的實(shí)際問(wèn)題。尤其是開(kāi)展大空間定位和姿態(tài)捕捉技術(shù)、三維影像構(gòu)建技術(shù)和綜合仿真引擎技術(shù)等關(guān)鍵技術(shù)研究,并設(shè)計(jì)了一種“體驗(yàn)逼真、要素齊全、集約高效、擴(kuò)展靈活”的虛擬仿真訓(xùn)練平臺(tái)。

        通過(guò)平臺(tái)可以構(gòu)建維和任務(wù)區(qū)虛擬場(chǎng)景,利用三維影像構(gòu)建技術(shù)將真實(shí)場(chǎng)景高度還原到虛擬平臺(tái)中,維和官兵可以頭戴VR眼鏡在虛擬場(chǎng)景中沉浸式漫游,足不出戶(hù)即可熟悉萬(wàn)里之外的維和任務(wù)區(qū)環(huán)境;通過(guò)平臺(tái)可以進(jìn)行想定編輯,將聯(lián)合國(guó)標(biāo)準(zhǔn)作業(yè)程序、任務(wù)區(qū)突發(fā)情況處置規(guī)范融入想定事件中,利用空間定位和姿態(tài)捕捉技術(shù)和綜合仿真引擎技術(shù),維和官兵可以穿戴單兵背包,在虛擬場(chǎng)景中沉浸式模擬演練,扮演想定中的各種角色,體驗(yàn)維和任務(wù)區(qū)中突發(fā)事件的處置流程。依托該平臺(tái)開(kāi)展虛擬仿真訓(xùn)練,能有效解決目前維和實(shí)戰(zhàn)訓(xùn)練中存在的任務(wù)區(qū)作業(yè)環(huán)境不熟悉、執(zhí)行任務(wù)作業(yè)程序不標(biāo)準(zhǔn)、突發(fā)情況應(yīng)急處置不到位等問(wèn)題。讓維和官兵在國(guó)內(nèi)行前訓(xùn)練就對(duì)任務(wù)區(qū)環(huán)境、標(biāo)準(zhǔn)作業(yè)程序、突發(fā)事件處置流程有著深度體驗(yàn),到達(dá)任務(wù)區(qū)后馬上能夠投入維和任務(wù)中,大大縮減維和官兵對(duì)任務(wù)區(qū)新環(huán)境的適應(yīng)時(shí)間,面對(duì)突發(fā)情況時(shí)減少不必要的傷亡。為培養(yǎng)維和官兵過(guò)硬軍事技能、有效遂行維和任務(wù)提供了有益探索。

        受目前VR技術(shù)局限性和硬件條件限制,虛擬仿真訓(xùn)練平臺(tái)尚不能逼真模擬人體觸感和對(duì)環(huán)境的感受,在VR頭顯分辨率、處理技術(shù)等方面也無(wú)法達(dá)到最優(yōu)效果。未來(lái)隨著觸覺(jué)沉浸、嗅覺(jué)沉浸、身體感受沉浸等系列VR技術(shù)的成熟,虛擬仿真訓(xùn)練必將引領(lǐng)中國(guó)軍事訓(xùn)練領(lǐng)域的發(fā)展趨勢(shì)。

        參考文獻(xiàn)/References:

        [1]陳志,凌麗,王程,等.基于虛擬現(xiàn)實(shí)技術(shù)的便攜式防空導(dǎo)彈訓(xùn)練裝備研究[J].飛航導(dǎo)彈,2016(6):39-42.

        [2]高博,黃昉,侯春牧.虛擬現(xiàn)實(shí)技術(shù)在美軍實(shí)戰(zhàn)化訓(xùn)練中的應(yīng)用及啟示[J].國(guó)防科技,2014,35(2):94-97.

        GAO Bo,HUANG Fang,HOU Chunmu.Virtual reality technology in the U.S.army combat training and its implications[J].National Defense Science & Technology,2014,35(2):94-97.

        [3]郎躍東.面向裝配的球面虛擬環(huán)境系統(tǒng)的建立以其關(guān)鍵技術(shù)研究[D].哈爾濱:哈爾濱工業(yè)大學(xué),2010.

        LANG Yuedong.Research on the Key Technologies of Assembly-Oriented Virtual Environment with Spherical Screen[D].Harbin:Harbin Institute of Technology,2010.

        [4]許路鐵,張猛,俞衛(wèi)博.虛擬作戰(zhàn)訓(xùn)練的研究現(xiàn)狀[J].飛航導(dǎo)彈,2017(6):58-62.

        [5]周寶林,劉軍,董曉峰.VR技術(shù)在軍事訓(xùn)練中的研究與應(yīng)用[J].科技傳播,2017,9(11):38-39.

        [6]向振佼.高精度激光定位系統(tǒng)的性能提高研究[D].哈爾濱:哈爾濱工業(yè)大學(xué),2019.

        XIANG Zhenjiao.Research on Performance Improvement of High-Precision Laser Positioning System[D].Harbin:Harbin Institute of Technology,2019.

        [7]趙弋峰.激光運(yùn)動(dòng)目標(biāo)空間定位與KF算法跟蹤研究[D].西安:西安電子科技大學(xué),2016.

        ZHAO Yifeng.Spatial Orientation and KF Algorithm Tracking of Moving Target in Laser[D].Xi′an:Xidian University,2016.

        [8]張育軍.虛擬現(xiàn)實(shí)技術(shù)在軍事領(lǐng)域的應(yīng)用與發(fā)展[J].科技創(chuàng)新與應(yīng)用,2014(15):290-291.

        [9]徐軍,安寶航.軍事訓(xùn)練中的虛擬現(xiàn)實(shí)技術(shù)現(xiàn)狀及啟示[J].產(chǎn)業(yè)與科技論壇,2015,14(1):51-52.

        [10]王曉紅,鄧仕雄,何志偉,等.結(jié)合SURF算法和單應(yīng)性矩陣的無(wú)人機(jī)影像匹配[J].測(cè)繪通報(bào),2018(7):38-42.

        WANG Xiaohong,DENG Shixiong,HE Zhiwei,et al.Study of UAV image matching based on SURF algorithm and homography matrix[J].Bulletin of Surveying and Mapping,2018(7):38-42.

        [11]蒼鵬.基于激光雷達(dá)點(diǎn)云數(shù)據(jù)的建筑物三維重建技術(shù)[D].長(zhǎng)春:長(zhǎng)春理工大學(xué),2019.

        CANG Peng.3D Reconstruction of Buildings Based on Lidar Point Cloud Data[D].Changchun:Changchun University of Science and Technology,2019.

        [12]唐前昭.基于三維圖像引擎實(shí)時(shí)渲染復(fù)雜網(wǎng)絡(luò)數(shù)據(jù)的研究與應(yīng)用[D].成都:電子科技大學(xué),2018.

        TANG Qianzhao.Research and Application of Real-Time Rendering of Complex Network Data Based on 3D Render Engine[D].Chengdu:University of Electronic Science and Technology of China,2018.

        [13]李志,李艦,付玉峻.基于Unity 3D的某型地空導(dǎo)彈戰(zhàn)斗場(chǎng)景可視化研究[J].電腦編程技巧與維護(hù),2016(3):71-72.

        [14]喬毛毛.基于Unity3D的虛擬仿真訓(xùn)練系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)[D].西安:西安電子科技大學(xué),2014:14.

        QIAO Maomao.Design and Implementation of Virtual Simulation Training System Based on Unity3D[D].Xi′an:Xidian University,2014.

        [15]張策.基于Unity3D的三維游戲場(chǎng)景設(shè)計(jì)與實(shí)踐[D].合肥:合肥工業(yè)大學(xué),2016.

        ZHANG Ce.Practice of 3D Game Scene Design Based on Unity3D[D].Hefei:Hefei University of Technology,2016.

        [16]張玉軍,邢輝,洪增.沉浸式虛擬戰(zhàn)場(chǎng)3維音效仿真研究[J].兵工自動(dòng)化,2017,36(1):59-63.

        ZHANG Yujun,XING Hui,HONG Zeng.Research on immersive virtual battlefield 3D sound effect simulation[J].Ordnance Industry Automation,2017,36(1):59-63.

        猜你喜歡
        虛擬現(xiàn)實(shí)人工智能
        我校新增“人工智能”本科專(zhuān)業(yè)
        2019:人工智能
        商界(2019年12期)2019-01-03 06:59:05
        人工智能與就業(yè)
        論虛擬現(xiàn)實(shí)藝術(shù)的“沉浸”
        數(shù)讀人工智能
        小康(2017年16期)2017-06-07 09:00:59
        REALITY BITES
        風(fēng)口上的虛擬現(xiàn)實(shí)
        商周刊(2017年24期)2017-02-02 01:42:55
        虛擬現(xiàn)實(shí)技術(shù)向科幻小說(shuō)借靈感
        海外星云(2016年7期)2016-12-01 04:18:00
        下一幕,人工智能!
        下一幕,人工智能!
        性色av无码中文av有码vr| 国内激情一区二区视频| 国产69精品麻豆久久| 久久亚洲av成人无码国产最大| 国产又色又爽又刺激在线播放| 欧美日韩不卡中文字幕在线| 性色av成人精品久久| 三级日韩视频在线观看| 67194熟妇人妻欧美日韩| 国产精品一区二区 尿失禁| 玖玖资源站无码专区| 一本色道久久亚洲av红楼| 曰本女人与公拘交酡| 亚洲av有码在线天堂| 亚洲A∨日韩Av最新在线| 日韩女优视频网站一区二区三区| 国产成人综合美国十次| 国产手机在线αⅴ片无码观看| 在线亚洲AV不卡一区二区 | 91精品全国免费观看青青| 美腿丝袜网址亚洲av| 久久国产劲爆∧v内射| 内射少妇36p九色| 亚洲第一区无码专区| 日本高清视频在线观看一区二区 | 日韩欧美第一页| 一级黄片草逼免费视频| 国产精品偷窥熟女精品视频| 射死你天天日| 99久久久69精品一区二区三区| 亚洲午夜经典一区二区日韩| 亚洲午夜久久久久久久久久| 国产剧情国产精品一区| 在线免费观看亚洲天堂av| 在线免费观看黄色国产强暴av| av一区二区三区人妻少妇| 亚洲激情人体艺术视频| 亚洲精品中文字幕乱码| 亚洲性无码一区二区三区| 丝袜国产高跟亚洲精品91| 国产一区二区三区蜜桃|