亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于云平臺的消防員自主導(dǎo)航與搜救系統(tǒng)設(shè)計與實現(xiàn)

        2023-08-31 03:05:28李婷婷徐勇軍安郎平
        指揮與控制學(xué)報 2023年3期
        關(guān)鍵詞:信息系統(tǒng)

        李婷婷 王 琪,2 徐勇軍 安郎平 王 莽

        火災(zāi)給人們的生命及財產(chǎn)帶來了極大的威脅,火場救援面臨的環(huán)境結(jié)構(gòu)復(fù)雜、封閉性強、信號較弱且易受干擾,這嚴重影響了消防員火場救援效率,甚至給救援人員帶來生命威脅.在復(fù)雜的室內(nèi)環(huán)境下,如何精準定位、有效部署、科學(xué)救援、多方協(xié)同作戰(zhàn)是消防救援領(lǐng)域研究的重點問題.

        消防員的火場救援還存在以下難點:

        1)消防員自主定位難.室內(nèi)環(huán)境下由于衛(wèi)星拒止、建筑物遮擋的影響,無法很好地接收到衛(wèi)星信號,引起較大的定位誤差,單一定位手段難以實現(xiàn)衛(wèi)星拒止環(huán)境下的準確定位.

        2)消防員環(huán)境感知難.由于火場煙霧彌漫,消防員配備的視覺傳感設(shè)備工作性能大大下降,難以獲取現(xiàn)場的清晰圖像,致使難以探測到障礙物信息.另外,火災(zāi)容易致使建筑物的結(jié)構(gòu)破壞,造成搜救環(huán)境的目標檢測和地圖重建難度增大,使得自主定位的精度受限,搜救環(huán)境的環(huán)境感知信息缺少,影響消防員搜救路徑和逃生路徑的選擇.

        3)消防班組指揮控制協(xié)同難.消防官兵在救援現(xiàn)場的位置信息不能實時共享,現(xiàn)場監(jiān)控指揮人員缺乏對室內(nèi)救援的消防員進行定位以及運動狀態(tài)等信息的監(jiān)測.指揮中心通過喊話的方式與救援人員溝通,效率低下,信息交互質(zhì)量和協(xié)同作戰(zhàn)效率都有待提高.另外當消防員出現(xiàn)安全問題時,指揮終端無法及時發(fā)現(xiàn)并對隊員實施有效救援.

        本文針對以上問題,重點研究消防火場環(huán)境下的自主導(dǎo)航與救援的問題,主要貢獻有:

        1)設(shè)計了一個面向火場環(huán)境的消防員火場自主導(dǎo)航與搜救系統(tǒng).實現(xiàn)了消防員的精準定位、運動分析和狀態(tài)監(jiān)督,動態(tài)火場下的自適應(yīng)導(dǎo)航和三維場景重構(gòu).

        2)提出一種基于因子圖的多源融合導(dǎo)航方法.融合多源信息實現(xiàn)了室內(nèi)復(fù)雜環(huán)境下消防員的高精度自主導(dǎo)航,并通過信息源的即插即用實現(xiàn)自適應(yīng)智能導(dǎo)航.

        3)設(shè)計了一種面向火場環(huán)境的視覺定位與建圖(simultaneous localization and mapping,SLAM)動態(tài)場景自適應(yīng)方法.在傳統(tǒng)SLAM 算法的基礎(chǔ)上增加目標識別和語義分割模塊,檢測場景中有價值的目標,過濾掉火場中與移動對象相關(guān)的數(shù)據(jù),并融合多源信息實現(xiàn)了對復(fù)雜火場環(huán)境的自適應(yīng)導(dǎo)航算法.

        1 相關(guān)工作

        國內(nèi)外對救援場景下搜救導(dǎo)航定位技術(shù)的研究很多,提高導(dǎo)航定位系統(tǒng)的精度是一個備受關(guān)注的研究課題.在國內(nèi)研究中目前關(guān)于消防員室內(nèi)導(dǎo)航定位算法主要以慣性導(dǎo)航、無線射頻識別(radio frequency identification,RFID)、ZigBee、WIFI、超寬帶(ultra wide band,UWB)等方面的研究為主.文獻[1]提出了一種基于慣性導(dǎo)航技術(shù)的消防室內(nèi)三維定位系統(tǒng),利用慣性導(dǎo)航技術(shù),利用位置估算、步伐估計以及零速修正等算法來提供救援人員的三維位置信息;文獻[2]利用計算機視覺來輔助RFID 定位,通過目標檢測行人的腳步坐標,融合RFID 的標簽坐標,從而得到救援人員的位置坐標;文獻[3]將BP 神經(jīng)網(wǎng)絡(luò)加入到ZigBee 的室內(nèi)定位系統(tǒng)中,彌補了ZigBee 的缺陷與不足,改善了目標節(jié)點的定位精度;文獻[4]提出了一種基于擴展卡爾曼濾波的WIFI-PDR 融合定位算法,通過降低WIFI 定位回跳和行人航位推算(pedestrian dead reckonin,PDR)累計誤差,來提高定位精度;文獻[5]提出了一種火場惡劣環(huán)境下救援人員的定位方法,該方法通過雙極卡爾曼濾波框架慣性導(dǎo)航系統(tǒng),并利用UWB 技術(shù)具有的低功耗、高速度、良好的抗多徑效應(yīng)、高安全性獲得了較高的定位精度.但是它受室內(nèi)障礙物的影響,很大程度上取決于基站的事前布置.目前國內(nèi)的很多研究都無法滿足實際需求,存在實時性差、依賴定位基站等問題,在復(fù)雜的室內(nèi)環(huán)境下不能得到很好的適用,且現(xiàn)有產(chǎn)品的成本高,體積大,不便于救援人員攜帶和部署.相較于國內(nèi),國外很多關(guān)于室內(nèi)搜救導(dǎo)航定位的相關(guān)研究更加成熟.文獻[6]提出了一種利用UWB 和到達相位差估計實現(xiàn)無基礎(chǔ)設(shè)施三維自定定位的新方法,以支持救援部隊在低能見度危險行動中執(zhí)行任務(wù);文獻[7]提出了一個基于AR 技術(shù)的六自由度(6 degree of freedom,6DoF)定位系統(tǒng)LocAR,LocAR 設(shè)計了一個協(xié)同粒子濾波器,聯(lián)合估計所有AR 用戶相對于彼此的6DoF 姿勢,使用來自視覺慣性里程計(visual-inertial odometry,VIO)的運動信息和UWB 無線電用戶之間的距離測量,建立一個精確的相對坐標系來解決消防員協(xié)調(diào)定位難的問題;文獻[8]通過追蹤難以進入的倒塌地點和未知障礙的位置,識別危險因素障礙物信息,生成最新的災(zāi)難現(xiàn)場數(shù)字地圖,為消防人員快速搜救工作提供有效解決方案.

        雖然消防員火場自主導(dǎo)航與搜救在國內(nèi)外的消防領(lǐng)域均存在不同程度上的研究與應(yīng)用,但單一方法存在一定的局限性,尤其是在室內(nèi)、障礙物多的火災(zāi)場景導(dǎo)航精度會大大降低,導(dǎo)航質(zhì)量變差.因此,本文在現(xiàn)有消防導(dǎo)航搜救研究成果的技術(shù)上,綜合考慮了多源信息融合的導(dǎo)航定位、動態(tài)場景下視覺導(dǎo)航、三維場景重建、自主學(xué)習(xí)等方法,設(shè)計了一個消防員火場救援的體系化系統(tǒng),并首次將毫米波雷達應(yīng)用于火場環(huán)境的探測,實現(xiàn)了復(fù)雜火場環(huán)境的高精度自主導(dǎo)航定位.

        2 系統(tǒng)設(shè)計

        2.1 系統(tǒng)功能概述

        系統(tǒng)基于因子圖框架融合慣性、視覺、GPS、毫米波雷達、UWB 和激光等信息源,實現(xiàn)對復(fù)雜火場環(huán)境的搜救人員精準定位和煙霧夜晚等復(fù)雜環(huán)境下的場景感知構(gòu)建三維場景與智能目標識別,在此基礎(chǔ)上基于增強現(xiàn)實頭盔智能顯示指揮控制信息,并利用云平臺實現(xiàn)信息的交互共享、健康監(jiān)測、人人協(xié)同/人機協(xié)同,來提高消防班組的救援和指揮能力.

        系統(tǒng)體系設(shè)計框架圖如圖1 所示:系統(tǒng)第1 層實現(xiàn)消防員對自身狀態(tài)的感知;第2 層實現(xiàn)消防員對自身及環(huán)境的感知;第3 層實現(xiàn)人人協(xié)同、人機協(xié)同;第4 層與云平臺交互,實現(xiàn)系統(tǒng)整體的指揮控制.消防員火場自主導(dǎo)航與搜救系統(tǒng)以火災(zāi)救援需求為牽引,針對火場救援的自主定位難、環(huán)境感知難和指揮控制協(xié)同難的問題,設(shè)計了以下5 個主要功能:

        圖1 系統(tǒng)體系設(shè)計框架圖Fig.1 System of systems design framework

        1)實現(xiàn)復(fù)雜火場環(huán)境的高精度自主導(dǎo)航定位.基于北斗系統(tǒng)和北斗錨點,結(jié)合慣性、UWB 和地圖約束等多源信息,實現(xiàn)消防員的高精度自主導(dǎo)航定位,通過信息源的即插即用實現(xiàn)自適應(yīng)智能導(dǎo)航.

        2)實現(xiàn)復(fù)雜環(huán)境下的三維場景重建和視覺SLAM自適應(yīng).系統(tǒng)通過視覺SLAM、激光雷達和毫米波雷達等傳感器感知三維場景,尤其是毫米波雷達的高穿透性有助于在火場的煙霧環(huán)境下對場景重建.系統(tǒng)采集環(huán)境中的圖像信息,并進行智能目標監(jiān)測,有助于消防員的定位搜救目標和選擇求生通道,解決消防救援火場環(huán)境感知難題.

        3)實現(xiàn)多成員多平臺自組網(wǎng)深層協(xié)同.基于北斗錨點和UWB 基站,提高室內(nèi)導(dǎo)航的精度并賦予全局坐標,實現(xiàn)天地協(xié)同、室內(nèi)外協(xié)同和班組協(xié)同三位一體,提高消防救援分隊協(xié)同定位能力,提高搜救效率.

        4)實現(xiàn)救援平臺一體化顯示與控制.將系統(tǒng)的指揮控制信息集成于增強現(xiàn)實智能顯示終端,結(jié)合增強現(xiàn)實方法,設(shè)計增強現(xiàn)實智能信息交互系統(tǒng),有助于智能顯示、信息交互和指揮控制協(xié)同[9].

        5)消防員健康監(jiān)測.基于云平臺對消防員救援信息的大數(shù)據(jù)分析,并基于自主學(xué)習(xí)算法和慣性數(shù)據(jù)分析方法實現(xiàn)消防員健康監(jiān)測,對消防員傷病情況作出及時的預(yù)警.此外,將模擬實戰(zhàn)從各個角度記錄下來,并上傳動作數(shù)據(jù)到云端,對消防員后續(xù)訓(xùn)練提供數(shù)據(jù)參考.

        2.2 系統(tǒng)硬件架構(gòu)

        消防員火場自主導(dǎo)航與搜救系統(tǒng)在硬件上以可穿戴傳感器組件和增強現(xiàn)實智能終端為核心,輔以云平臺進行數(shù)據(jù)分析與處理.系統(tǒng)的硬件結(jié)構(gòu)如圖2所示.

        圖2 系統(tǒng)在消防員身上的安裝示意圖Fig.2 Installation diagram of the system on firefighters

        系統(tǒng)硬件組成如表1 所示.可穿戴傳感器組件有微型慣性測量單元(miniature inertial measurement unit,MIMU)(包括陀螺儀、加速度計、磁力計氣壓計)、UWB、北斗模塊、毫米波雷達、激光雷達和視覺傳感器.定位信息、建圖數(shù)據(jù)、目標檢測信息和上級與隊友的指揮控制信息,通過HoloLens2 解算并實現(xiàn)實時顯示.云平臺負責(zé)記錄每名運動人員的狀態(tài)數(shù)據(jù)和傳感器數(shù)據(jù)進行大數(shù)據(jù)分析和處理.

        表1 系統(tǒng)硬件組成Table 1 Composition of system hardware

        MIMU:可結(jié)合零速修正提供相對位置和方向信息,實現(xiàn)姿態(tài)測量、加速度測量、高度測量、方向測量等功能,適用于消防員自主導(dǎo)航和定位系統(tǒng)的導(dǎo)航定位跟蹤.

        UWB:可以實現(xiàn)高精度的定位和距離測量,還可以提供距離觀測量,降低MIMU 陀螺和加速度計漂移帶來的誤差發(fā)散,提高導(dǎo)航定位的精度,實現(xiàn)消防員間的協(xié)同定位.

        北斗模塊:可以提供絕對位置信息,但無法適用于室內(nèi)等拒止環(huán)境中.結(jié)合衛(wèi)星基站、北斗模塊、MIMU 和UWB 等其他傳感器,系統(tǒng)可實時獲得消防員的絕對位置信息,實現(xiàn)室內(nèi)火場環(huán)境消防員的精準定位.

        毫米波雷達:可以穿透煙霧和濃霧等環(huán)境,可以檢測到人、障礙物、墻壁和其他結(jié)構(gòu)物,適用于火場內(nèi)障礙物檢測和導(dǎo)航.

        激光雷達:可以用于生成火場內(nèi)的三維稠密地圖,適用于消防員自主導(dǎo)航和搜救系統(tǒng)的地圖生成和路徑規(guī)劃.

        視覺傳感器:可以實現(xiàn)物體識別、跟蹤、測距、測量和導(dǎo)航等功能.在消防員自主導(dǎo)航系統(tǒng)中,視覺傳感器可以用于檢測和識別火場內(nèi)的人員和障礙物,為消防員提供更加直觀的導(dǎo)航和搜救支持,同時可以輔助其他傳感器進行定位和距離測量,提高系統(tǒng)的準確度和穩(wěn)定性,適用于消防員自主導(dǎo)航和搜救系統(tǒng)中提供直觀的導(dǎo)航和搜救支持.

        融合上述多個傳感器可以彌補單個傳感器的不足之處,提高系統(tǒng)的魯棒性和可靠性,為消防員提供更加精準的導(dǎo)航和搜救支持.在導(dǎo)航定位方面,衛(wèi)星導(dǎo)航提供絕對位置信息,但無法適用于室內(nèi)等拒止環(huán)境,MIMU 受環(huán)境影響較小但誤差隨時間累積,UWB 利用消防員與錨點之間以及消防員之間的距離測量提供相對位置信息,本系統(tǒng)采用在室外架設(shè)衛(wèi)星基站,室內(nèi)設(shè)置UWB 錨點,MIMU 實時慣性導(dǎo)航的方法,可以實現(xiàn)室內(nèi)等環(huán)境的消防員準確定位,為指揮決策和搜救行動提供基礎(chǔ)信息支撐.在感知和搜救支持方面,視覺傳感器信息豐富但在低光環(huán)境下可能無法正常運行,激光雷達對物體反射率敏感但建圖稠密,毫米波雷達可以穿透煙霧和濃霧等環(huán)境,因此,結(jié)合視覺、毫米波雷達和激光雷達,可以實現(xiàn)復(fù)雜火場環(huán)境的實時準確感知.

        2.3 系統(tǒng)算法框架

        系統(tǒng)的算法設(shè)計架構(gòu)如圖3 所示.導(dǎo)航定位算法模塊在卡爾曼濾波框架下組合慣性和衛(wèi)星信息,并結(jié)合人體運動約束實現(xiàn)準確的導(dǎo)航定位.解決了在室內(nèi)衛(wèi)星拒止環(huán)境下消防員定位難的問題.在第3章將詳細介紹基于因子圖的多源融合導(dǎo)航方法.

        智能目標檢測算法模塊基于MASK R-CNN[10]檢測場景中的目標,獲得語義信息,并對圖像進行實例分割.基于目標檢測的視覺SLAM 動態(tài)場景自適應(yīng)方法將在第4 章詳細介紹.

        三維場景重建算法模塊結(jié)合深度學(xué)習(xí),在SLAM點云地圖的基礎(chǔ)上融合場景語義信息,構(gòu)建三維語義場景.將毫米波雷達應(yīng)用于消防員火場救援,通過高穿透性的特征,實現(xiàn)在火場煙霧環(huán)境下的場景重建.

        人員狀態(tài)監(jiān)測算法模塊以慣性測量和深度學(xué)習(xí)為基礎(chǔ),將原始慣性數(shù)據(jù)進行預(yù)處理,解算出基礎(chǔ)運動指標,如觸地騰空比、左右平衡和配速等.該模塊基于深度學(xué)習(xí)方法解算更加準確的基礎(chǔ)指標,并分析更深層次的運動信息,如是否跨步、觸地方式等.

        智能自學(xué)習(xí)算法模塊通過多時間尺度采集的用戶運動大數(shù)據(jù),分析人體運動規(guī)律和能量消耗等指標,挖掘更有價值的深層次信息,提供損傷預(yù)防建議和健康方案.本文基于Hadoop 構(gòu)建用于大數(shù)據(jù)分析的云平臺,通過足部慣性信息和北斗衛(wèi)星數(shù)據(jù),采用衛(wèi)星/慣性組合導(dǎo)航算法、數(shù)據(jù)驅(qū)動的運動指標解算算法,對救援過程采集到的數(shù)據(jù)進行分析,實現(xiàn)對消防員救援的過程監(jiān)控、運動分析、效果評估和救援指導(dǎo),從而提高救援效率,預(yù)防訓(xùn)練傷病,增強消防員體能水平.

        3 基于因子圖的多源融合導(dǎo)航方法

        本文設(shè)計的多源融合導(dǎo)航方法面向消防員設(shè)計,在慣性導(dǎo)航的基礎(chǔ)上融合視覺、GPS、磁力計等輔助信息建立因子圖,并對全局位姿進行優(yōu)化.根據(jù)步態(tài)特征對救援人員的運動過程進行分割,確定變量節(jié)點,并以運動約束和場景約束為因子構(gòu)建因子圖,建立誤差能量函數(shù),再通過優(yōu)化的方法求取誤差能量函數(shù)的最小值,得到位姿最小二乘意義下的最優(yōu)估計.

        融合過程如圖4 所示,足部MIMU 數(shù)據(jù)經(jīng)捷聯(lián)慣導(dǎo)解算后的位姿信息,與視覺/慣性SLAM 位姿估計結(jié)果相結(jié)合,實現(xiàn)對消防員的局部位姿的融合估計.在此基礎(chǔ)上,全局優(yōu)化模塊融合了視覺回環(huán)信息和其他傳感器,如Wi-Fi 指紋、GPS、UWB 測距信息和地圖信息,評估導(dǎo)航系統(tǒng)的全局誤差,并批量優(yōu)化位姿圖.

        圖4 多源融合導(dǎo)航框圖Fig.4 Block diagram of multi-source fusion navigation

        基于零速修正的捷聯(lián)慣導(dǎo)解算算法利用消防員運動約束進行誤差修正.運動約束主要指零速修正,若第k 時刻,足部處于靜止狀態(tài),則足部此時的速度為零,利用足部MIMU 解算的速度vk作為系統(tǒng)速度誤差的觀測量,修正卡爾曼濾波的其他誤差量,可以抑制誤差發(fā)散.在零速階段,系統(tǒng)的觀測量Z 為

        式中,δvk=vk-[0 0 0] 為第k 時刻的速度誤差.那么,系統(tǒng)的觀測矩陣H為:

        由此在消防員捷聯(lián)慣性導(dǎo)航系統(tǒng)(strapdown inertial navigation system,SINS)誤差模型的基礎(chǔ)上,建立起了15 狀態(tài)的卡爾曼濾波器,并把腳步落地或靜止時的零速作為系統(tǒng)觀測量,對系統(tǒng)在零速階段的誤差進行修正,進而抑制導(dǎo)航誤差的發(fā)散,提高消防員的導(dǎo)航定位精度.

        全局位姿優(yōu)化的因子圖結(jié)構(gòu)如圖5 所示.因子圖節(jié)點為救援人員六自由度的位姿(包含相對于初始點的位置和方向),各節(jié)點的采樣頻率由步態(tài)更新頻率決定.相鄰節(jié)點之間的位姿約束由MIMU 提供.視覺信息不僅可利用相鄰節(jié)點之間的位姿變化約束節(jié)點狀態(tài),也可以通過圖像特征匹配提供全局約束,抑制誤差的漂移.磁強計提供航向信息,約束航向的發(fā)散.WIFI 指紋和GPS 因子提供全局位置的約束信息,地圖因子以通過特征匹配對比地圖中儲存的特征點及其對應(yīng)的相機幀的位姿,提供回環(huán)約束.

        圖5 全局位姿優(yōu)化因子圖結(jié)構(gòu)Fig.5 Global attitude optimization factor graph structure

        圖6 基于語義信息和深度信息的視覺SLAM 場景自適應(yīng)算法框架Fig.6 Visual SLAM scene adaptive algorithm framework based on semantic information and depth information

        本文將系統(tǒng)在第ti時刻的位姿狀態(tài)定義為:

        若測量值是條件獨立的,并且噪聲服從零均值高斯分布,則MAP 估計值可以寫成殘差平方和:

        在算法體系中,各因子及其信息矩陣的定義是由信息源的數(shù)量和質(zhì)量而定.

        4 視覺SLAM 動態(tài)場景自適應(yīng)方法

        典型的動態(tài)SLAM 基于先驗信息不加判斷地剔除具有動態(tài)性的物體,這將嚴重影響SLAM 算法的導(dǎo)航精度,而傳統(tǒng)的SLAM 系統(tǒng)仍采用動態(tài)物體進行特征匹配和位姿估計,將導(dǎo)致更大的導(dǎo)航誤差[11-12].為了解決這一問題,本文在結(jié)合深度信息和語義信息,基于ORB-SLAM2 設(shè)計了面向消防員的視覺SLAM 動態(tài)場景自適應(yīng)算法.ORB-SLAM2[13]是目前比較完善、成熟的視覺SLAM 系統(tǒng),主要包括追蹤定位線程(tracking)、局部地圖構(gòu)建線程(local mapping)和回環(huán)檢測線程(looping closing),同時還維護場景識別中的特征點BoW 字典和識別數(shù)據(jù)庫,可以在閉環(huán)檢測時計算關(guān)鍵幀相似度.場景自適應(yīng)算法過濾掉與移動對象相關(guān)的數(shù)據(jù),從而減少SLAM 前端中不正確的數(shù)據(jù)關(guān)聯(lián).算法主要包括面向消防員自主導(dǎo)航的目標識別和邊界分割方法,以及基于區(qū)域分割和多視圖幾何的動態(tài)物體去除方法.

        4.1 面向消防員導(dǎo)航的目標識別算法設(shè)計

        面向消防員導(dǎo)航的目標識別融合了圖像分割與目標識別兩個任務(wù),其目標是將圖像分割為若干組具有某種特定語義含義的像素區(qū)域,并逐像素地判斷每一像素所屬的類別,最終生成標注有像素語義的圖像,完成圖像的像素級分類[14-16].本文在傳統(tǒng)語義分割的基礎(chǔ)上,根據(jù)物體的剛性結(jié)構(gòu)進行動態(tài)區(qū)域分割,并結(jié)合深度信息確定區(qū)域邊界.通過MASK R-CNN[10]實例分割網(wǎng)絡(luò)對RGB 圖像進行處理,實現(xiàn)像素級語義分割.在此基礎(chǔ)上,結(jié)合MASK R-CNN的目標檢測,對邊界框內(nèi)外延一定像素值之后進行邊界分割,從而克服語義分割網(wǎng)絡(luò)對邊界的欠分割問題.由于目標識別可以完成對圖像中物體的檢測與位置識別,因此,可以用于檢測火場場景中的潛在運動物體.具體算法流程為:

        使用大小為2×2 的滑塊遍歷深度圖像,并記錄滑塊中的深度值:

        其中,(u,v)表示與滑塊左上角的像素對應(yīng)的圖像坐標.可通過以下方式獲得邊緣點的集合Edge:

        4.2 面向消防員導(dǎo)航的目標邊界分割算法

        實例分割網(wǎng)絡(luò)可以基于先驗信息實現(xiàn)對圖像幀中動態(tài)對象的識別和像素級分割,而基于深度學(xué)習(xí)的目標邊界分割算法基于目標是凸的假設(shè),通過對比滑動塊內(nèi)對角像素的深度,實現(xiàn)對物體的邊界檢測.然后,基于Mask R-CNN 的實例分割網(wǎng)絡(luò)在處理高動態(tài)性對象時常常無法對其邊界進行準確檢測,且實時性較差.而“圖像中的目標是凸的”的假設(shè)在某些情況下并不一定適用.

        由于基于先驗信息與基于深度學(xué)習(xí)兩種方法的優(yōu)點和缺點是互補的,而它們的組合使用是實現(xiàn)精確且實時性更高的邊界分割的有效方式.因此,本文設(shè)計了一種結(jié)合語義標簽和深度信息的邊界分割算法,算法框圖如圖7 所示.將圖像輸入Mask R-CNN網(wǎng)絡(luò)進行實例分割,獲得圖像中的對象數(shù)目,以及每一類對象所對應(yīng)的像素點和邊界框.在每個物體的邊界框的基礎(chǔ)上,對圖像所對應(yīng)的深度圖分別向兩邊擴展n 個像素點(在本文中,n 取3),然后對物體的邊界進行分割,并于Mask R-CNN 輸出的掩模向結(jié)合,生成準確的物體邊界.

        圖7 結(jié)合語義標簽和深度信息的邊界分割算法圖Fig.7 Boundary segmentation algorithm combining semantic labels and depth information

        由圖7 可知,僅使用Mask R-CNN 網(wǎng)絡(luò),則對物體邊界無法實現(xiàn)準確分割,而在Mask R-CNN 的基礎(chǔ)上結(jié)合深度信息,可以獲得較為準確的動態(tài)物體掩模,從而實現(xiàn)對動態(tài)物體的準確去除.

        4.3 抑制環(huán)境動態(tài)信息影響的視覺導(dǎo)航算法

        環(huán)境中的運動物體對于圖像的特征匹配會產(chǎn)生較大影響且使相機視場被大面積遮擋,進而影響SLAM 算法位姿估計的精度,因此,基于多視圖幾何對動態(tài)物體檢測并基于語義分割和深度信息,對動態(tài)物體邊界分割、去除.在去除運動目標后對背景進行修復(fù),通過環(huán)境靜態(tài)結(jié)構(gòu)的合成框架可提升SLAM系統(tǒng)的位姿估計精度.

        動態(tài)物體檢測:基于多視圖通過當前幀和其高重疊關(guān)鍵幀之間的幾何約束關(guān)系,來去除圖像中的動態(tài)特征點.具體來講,對當前幀與具有較高相似度的關(guān)鍵幀之間的所有特征點進行匹配,并去除視差角大于30°的特征點.這是由于當視角大于30°時,圖像中可能會出現(xiàn)對物體深度測量的遮擋,從而影響對特征點動態(tài)性的判斷.利用重投影求得空間點的深度值Δz,并與深度圖像對比,求得深度值

        當深度差Δz 大于動態(tài)閾值時,則判定該點屬于動態(tài)點集合Dynapoint.即

        動態(tài)物體去除:當檢測到場景中的目標為動態(tài)性時,結(jié)合4.2 節(jié)所述的物體邊界分割和多視圖幾何方法,去除該物體上面的所有特征點,實現(xiàn)環(huán)境動態(tài)物體去除.

        動態(tài)場景下圖像背景修復(fù):在去除運動目標后,根據(jù)先前的靜態(tài)觀察結(jié)果修復(fù)被遮擋的背景,可合成一個沒有動態(tài)內(nèi)容的真實圖像,如圖8 所示.這種包含環(huán)境靜態(tài)結(jié)構(gòu)的合成框架對于SLAM 系統(tǒng)后端的循環(huán)閉合和映射非常有用.

        圖8 動態(tài)場景下圖像背景修復(fù)圖Fig.8 Background restoration image in dynamic scene

        5 實驗及結(jié)果

        5.1 基于多源融合的導(dǎo)航算法驗證實驗

        如圖9 所示,在某室內(nèi)復(fù)雜環(huán)境下進行實驗.行走路線為二樓折線,中間穿插辦公室、會議室、裝備室等復(fù)雜場景,設(shè)定3 個標記點作為誤差計算依據(jù),正常行走3 圈,實驗的起點和終點為同一標記點.

        圖9 室內(nèi)復(fù)雜場景局部位姿融合實驗測試路線Fig.9 Experimental test route of local attitude fusion in indoor complex scene

        實驗時間約為1 200.98 s(20 min 0.98 s),運動距離約為923.22 m.圖10(a)中,藍色曲線為腳部解算軌跡,圖10(b)中,紅色曲線為融合軌跡.融合結(jié)果終點與起點的水平誤差距離為0.64 m.

        圖10 室內(nèi)復(fù)雜場景局部位姿融合實驗結(jié)果Fig.10 Experimental results of local attitude fusion in complex indoor scenes

        從實驗結(jié)果可以看出,慣性導(dǎo)航系統(tǒng)的誤差隨時間發(fā)散,而結(jié)合慣性和視覺的局部位姿優(yōu)化抑制了導(dǎo)航誤差的發(fā)散,提高了導(dǎo)航系統(tǒng)的性能.

        5.2 動態(tài)場景下視覺導(dǎo)航自適應(yīng)算法驗證實驗

        為驗證算法對復(fù)雜室內(nèi)動態(tài)場景的適應(yīng)性,本文在某實驗室內(nèi)搭建實驗平臺,設(shè)計了室內(nèi)動態(tài)場景實驗.實驗人員攜帶RealsenseD455 深度相機,從室內(nèi)一個已知起點出發(fā),沿著固定線路行走一個閉環(huán),最終回到起點,實驗時長13 min 43 s,約行走43.22 m.實驗人員不僅途經(jīng)動態(tài)物體占主要視場的場景,而且還遇到行走中的人.

        將實驗結(jié)果與ORB-SLAM2 進行對比.由圖11可知,在實驗前期的靜止場景和低動態(tài)場景下,ORB-SLAM2 和本文提出的算法都能保持較高精度,且精度相近.但大約在第783 s 時,遇到動態(tài)物體占相機大部分視野的場景,這直接導(dǎo)致ORB-SLAM2算法無法進行正確的特征匹配,從而無法進行位姿估計;本文提出的算法去除了場景中的動態(tài)物體,可以克服動態(tài)場景的不利影響,在復(fù)雜場景下依然保持較高的定位精度,實現(xiàn)了對場景的自適應(yīng).

        圖11 動態(tài)場景實驗本文算法估計軌跡與ORB-SLAM2軌跡對比圖Fig.11 Dynamic scene experiment:comparison between the trajectory estimated by the proposed algorithm and the ORB-SLAM2 trajectory

        5.3 場景重構(gòu)算法驗證實驗

        實驗人員攜帶LivoxMid-40 小型固態(tài)激光雷達、毫米波雷達,以及足部安裝的微慣性傳感器在復(fù)雜室內(nèi)場景下采集得到相關(guān)數(shù)據(jù),利用三維場景重建相關(guān)算法構(gòu)建3D 室內(nèi)場景.

        圖12(a)為整體的建圖效果,圖12(b)為點云地圖在實際地圖上的位置.由圖12(a)和圖12(b)可知,室內(nèi)建筑和道路部分建圖效果較好,點云地圖基本可以和實際地圖相匹配.

        圖12 場景重構(gòu)效果圖Fig.12 Scene reconstruction rendering

        5.4 云平臺健康監(jiān)測驗證實驗

        消防員通過佩戴運動傳感器組件獲取其運動狀態(tài)和運動數(shù)據(jù)并上傳至云平臺,通過云平臺對數(shù)據(jù)的分析和處理,選取典型訓(xùn)練階段的運動數(shù)據(jù)(2 387條)進行指標解算,結(jié)果如表2 所示.利用指標結(jié)算結(jié)果,從爆發(fā)力、耐力、運動效率、健康檢測和傷病預(yù)警5 個方面進行評估.根據(jù)評估結(jié)果可指導(dǎo)訓(xùn)練和健康維護.

        圖13(a)所示為運動初期的加速度特征,三軸加表數(shù)據(jù)整合峰值約150 m/s,由此可見,受訓(xùn)人員爆發(fā)力較強.圖13(b)所示為運動末期的加速度特征,加表數(shù)據(jù)整合峰值約60 m/s,對比運動初期和末期沖刺的加速度特征,可見其耐力較差.典型訓(xùn)練階段觸地騰空比為1.48,垂直幅度為8.1,故該受訓(xùn)人員運動效率一般,需要下一步改變運動姿勢,提高運動效率.在跑步的全程,左右不平衡,左腳受力較大,說明其右腿部有勞損,需加強右腿肌群的訓(xùn)練.因此,在綜合大量的運動數(shù)據(jù)后,可以根據(jù)運動特征曲線判斷潛在的運動風(fēng)險對其進行傷病預(yù)警.

        圖13 典型路段的加速度峰值特征Fig.13 Acceleration peak characteristics of typical road sections

        6 結(jié)論

        本文著眼于解決消防火場環(huán)境下的自主導(dǎo)航與救援的問題,重點開展了基于多源信息融合的自主導(dǎo)航算法、復(fù)雜環(huán)境下視覺SLAM 自適應(yīng)方法、三維場景重構(gòu)方法等內(nèi)容研究,設(shè)計了一個消防員火場自主導(dǎo)航與搜救系統(tǒng).該系統(tǒng)基于北斗系統(tǒng)和北斗錨點,結(jié)合慣性、UWB 和地圖約束等多源信息,實現(xiàn)對復(fù)雜火場環(huán)境下消防員的高精度自主導(dǎo)航定位;系統(tǒng)通過視覺SLAM、激光雷達和毫米波雷達等傳感器感知三維場景,實現(xiàn)火場煙霧環(huán)境下的場景重建;提出了基于語義信息和深度信息的視覺SLAM 場景自適應(yīng)方法,設(shè)計了邊界分割方法和基于運動一致性的動態(tài)物體去除方法,提高了系統(tǒng)在復(fù)雜場景下的適應(yīng)性;在此基礎(chǔ)上利用云平臺實現(xiàn)信息的交互共享、健康監(jiān)測、人/人協(xié)同和人/機協(xié)同,來提高消防班組的救援和指揮能力.最后通過豐富的實驗展示了本文算法的有效性.

        猜你喜歡
        信息系統(tǒng)
        Smartflower POP 一體式光伏系統(tǒng)
        WJ-700無人機系統(tǒng)
        ZC系列無人機遙感系統(tǒng)
        北京測繪(2020年12期)2020-12-29 01:33:58
        基于PowerPC+FPGA顯示系統(tǒng)
        半沸制皂系統(tǒng)(下)
        連通與提升系統(tǒng)的最后一塊拼圖 Audiolab 傲立 M-DAC mini
        訂閱信息
        中華手工(2017年2期)2017-06-06 23:00:31
        展會信息
        中外會展(2014年4期)2014-11-27 07:46:46
        信息
        健康信息
        祝您健康(1987年3期)1987-12-30 09:52:32
        午夜人妻中文字幕福利| 一卡二卡国产av熟女| 有坂深雪中文字幕亚洲中文| 99久热在线精品视频观看| 国产乱了真实在线观看| 久久中文字幕无码专区| 久久天天躁夜夜躁狠狠躁2022| 在线精品国内视频秒播| 亚洲免费成年女性毛视频| 中文字幕日本av网站| 国产性虐视频在线观看| 久久久久亚洲精品无码蜜桃| 99久久久无码国产精品免费砚床| 无码片久久久天堂中文字幕 | 男女调情视频在线观看| 日韩精品成人无码专区免费| 国产肥熟女视频一区二区三区| 亚洲乱码日产精品bd在线观看 | 亚洲乱亚洲乱妇50p| 亚洲国产av导航第一福利网| 色系免费一区二区三区| 人妻爽综合网| 9丨精品国产高清自在线看| 风韵丰满妇啪啪区老老熟女杏吧| 国产一区二区视频在线看| 免费a级毛片无码a∨蜜芽试看 | 人妻少妇av中文字幕乱码| 国产亚洲欧美在线| 日韩国产自拍成人在线| 中文字幕高清不卡视频二区| 亚洲av成人无码久久精品老人| 无码任你躁久久久久久| 午夜精品久视频在线观看| av免费观看网站大全| 国产精品麻豆va在线播放| 人妻有码中文字幕| 乱码午夜-极国产极内射| 亚洲人成18禁网站| 伊人狼人激情综合影院| 日本国产精品久久一线| 日韩日韩日韩日韩日韩日韩|