李豐陽,賈學東,董 明
(1.信息工程大學 導航與空天目標工程學院,河南 鄭州 450001;2.地理信息工程國家重點實驗室,陜西 西安 710054;3.衛(wèi)星導航工程中心,北京 100094)
?
慣性/視覺組合導航在不同應用場景的發(fā)展
李豐陽1,2,賈學東1,董 明2,3
(1.信息工程大學 導航與空天目標工程學院,河南 鄭州 450001;2.地理信息工程國家重點實驗室,陜西 西安 710054;3.衛(wèi)星導航工程中心,北京 100094)
針對慣性導航難以滿足長時高精度的需求問題,提出利用視覺導航對相對導航信息敏感、精度隨距離減少而提高的特點,來彌補慣性導航在水下、深空等封閉或復雜環(huán)境下的不足:根據(jù)地面、空中、水下和深空4種不同的應用場景,歸納慣性/視覺組合導航的發(fā)展現(xiàn)狀;并對不同應用環(huán)境對慣性/視覺組合導航系統(tǒng)的需求和指標進行比較;最后展望慣性/視覺組合導航的發(fā)展趨勢。
視覺導航;慣性導航;組合導航;聯(lián)合精確空投系統(tǒng);火星探測器
隨著無人智能化應用及未來信息化戰(zhàn)場對高精度、可靠性、實時性導航需求的日益增長,慣性導航憑借其高精度、抗干擾、不需要外界提供信息的優(yōu)點,發(fā)揮著越來越重要的作用;但慣性導航系統(tǒng)誤差隨時間增大而不斷漂移,不可避免地束縛了其作為單獨導航系統(tǒng)的發(fā)展。隨著視覺傳感器、圖像處理技術等不斷進步,視覺導航在無人車、水下航行器、火星探測器等諸多具有相對導航需求的領域飛速發(fā)展;但高采樣率所帶來的計算處理時耗為系統(tǒng)實時性帶來隱患,同時光照等復雜環(huán)境因素難以保證導航的可靠性。
顯然單一導航方式難以滿足導航系統(tǒng)對精確度、可靠性及實時性的要求,組合導航信息融合技術逐漸成為導航技術研究的主要方向[1]。目前較為成熟的組合系統(tǒng)是衛(wèi)星和慣性的組合導航,但當載體進入城市峽谷等存在遮擋的環(huán)境,衛(wèi)星不能作為可靠的導航手段為載體提供高質(zhì)量的導航服務。為保證導航數(shù)據(jù)的可靠性,國內(nèi)外已相繼開展了一系列模塊化、體系化的多源導航系統(tǒng)的研究,旨在解決以衛(wèi)星失鎖為代表的導航可用性與完好性問題,其中基于慣性/視覺組合導航的信息融合是重要的發(fā)展趨勢之一。
得益于軍事武器裝備小型化、緊湊化的發(fā)展趨勢,以及民用智能設備的集成化、微型化的迫切需求,長期定位精度高、設備小型化與低成本成為慣性技術發(fā)展的新方向。光學、微機電、量子力學等領域的技術突破為光子晶體光纖陀螺、微光機電(micro optic electro mechanical system,MOEMS)陀螺、原子陀螺等新型慣性器件的研制注入了新的動力。到2020年,干涉式光纖陀螺儀的零偏穩(wěn)定性將達到0.000 1(°)/h,MOEMS陀螺將達到0.01(°)/h,這將使微型慣性系統(tǒng)的精度提高2個數(shù)量級左右[2];此外,有報道稱基于量子效應的新型慣性系統(tǒng)的理論精度高達10~12(°)/h:這有望擺脫慣性系統(tǒng)不能作為單一導航系統(tǒng)使用的魔咒。慣性技術憑借其高精度、抗電磁干擾、不需要外界提供信息的特點,在智能無人車、武器制導以及太空探索等領域的作用愈發(fā)明顯。
隨著視覺里程計(visual odometry,VO)[3-4]、從運動到結(jié)構(structure from motion,SFM)[5],同時定位與地圖構建(simultaneous localization and mapping,SLAM)[5-7]等技術的不斷成熟,電荷耦合器件(charge couple device,CCD)等視覺傳感器和高性能處理器向小型化低成本方向不斷發(fā)展,視覺導航技術憑借不受電磁干擾、自主性強,且精度隨距離減少而增強的獨特優(yōu)勢,迅速在情報偵察、水下回收引導(autonomous underwater vehicle,AUV)、深空交會對接等各個領域發(fā)揮重要作用。
慣性/視覺組合導航通過CCD傳感器感知環(huán)境,由計算機對圖像進行處理分析,獲取載體的位姿等導航信息,進而修正慣性誤差。一方面,視覺導航為慣性導航提供誤差補償信息,彌補了慣性誤差隨時間漂移的不足;另一方面,慣性導航憑借系統(tǒng)數(shù)據(jù)更新率高、不受光照等環(huán)境影響且短時定位精度高的優(yōu)勢,彌補了視覺導航處理實時性不足的缺陷。值得一提的是,基于視覺導航對目標相對位姿等導航參數(shù)更為敏感的特點,慣性視覺組合系統(tǒng)可以用于室內(nèi)、水下、深空等封閉或復雜環(huán)境,從而進一步完善北斗系統(tǒng),解決“最后一米”的難題。
3.1 發(fā)展現(xiàn)狀
慣性/視覺組合導航根據(jù)應用場景不同,可分為基于地面、空中、水下和太空的4種模式。
3.1.1 地面環(huán)境
較早將視覺相關技術用于導航應用領域的是地面無人車。
2004年,文獻[9]設計了一種智能交通系統(tǒng),在未知的無標志的城市環(huán)境中,自主車輛可以做到全球范圍內(nèi)的導航。該系統(tǒng)利用視覺技術,檢測識別非結(jié)構化地標,實現(xiàn)道路跟蹤和復雜路段(十字路口)的導航任務,這賦予全球定位系統(tǒng)(global positioning system,GPS) 導航子系統(tǒng)一定的反應能力。系統(tǒng)能夠完成上千千米的自動駕駛,最高車速達50 km/h,在考慮陰影環(huán)境、路面紋理、天氣狀況和照明變化時,依舊具備較好的魯棒性。
2011年,國防科技大學的賀漢根團隊主導研制的紅旗HQ3 無人駕駛汽車采用基于視覺輔助的衛(wèi)星/慣性/里程計組合的導航系統(tǒng),在長沙至武漢286 km的無人駕駛實驗中,實現(xiàn)最高110 km/h的行駛速度,其中人工干預路段僅占0.78%。目前,該無人車系統(tǒng)已進行了優(yōu)化與改進,加裝了多目CCD傳感器、三維掃描儀等設備,如圖1所示。
圖1 國防科大無人車
綜上所述,在以慣性/視覺為主的多源組合導航的無人車跑道跟蹤領域研究中,國內(nèi)已趨于國際領先水平。目前研究逐漸從單純地識別、匹配具有明顯形狀特征的預設地標(如道路線)來實現(xiàn)基于點集的導航,發(fā)展到對城市、道路等具有非結(jié)構化特征的復雜環(huán)境的特征目標檢測,來實現(xiàn)基于結(jié)構的導航,國內(nèi)尚處于理論研究和試驗階段。
3.1.2 空中飛行環(huán)境
在軍事應用中,為了滿足現(xiàn)代化戰(zhàn)爭對高精度、無人化、遠程打擊作戰(zhàn)模式的需求,面向空域的無人作戰(zhàn)平臺成為了軍事武器裝備發(fā)展的熱潮。
2015-06,美空軍戰(zhàn)機在飛行過程中隨機投放“Perdix”微型無人機群,重0.45 kg,尺寸不足12 cm,由常用材料3D打印而成?!癙erdix”可利用多種傳感器(如MEMS、微型視覺傳感器等)在高空強風中平穩(wěn)飛行,同時感知周圍環(huán)境,實現(xiàn)“蜂群”間協(xié)作控制。由于成本低廉,該無人機蜂群有望被用于情報監(jiān)視和偵察(ISR),替代傳統(tǒng)誘餌彈“MALD”(單位成本3 萬美元),成為更加高效、低成本的微型空射誘餌彈。
2016年,美陸軍試研發(fā)一種新型“聯(lián)合精確空投系統(tǒng)”(joint precision airdrop system,JPADS),該系統(tǒng)配備“空中制導裝置”,利用慣性設備控制翼傘姿態(tài),光學傳感器則用來捕捉地形特征,與衛(wèi)星圖像進行匹配,實現(xiàn)定位。建設該系統(tǒng)意在發(fā)展不依賴于GPS的精確空投替代方案。JPADS預計將于7 260 m高空精確降落在32 km半徑范圍內(nèi)的指定位置,目前已在3 000 m高空進行試驗,效果良好。
在民用市場中,隨著“大疆”消費級無人機等一系列的民用無人機應用的興起,面向無人載體平臺的導航技術成為了研究熱點。
2001年,文獻[10]設計了基于慣導/視覺組合導航的著陸方法。無人機根據(jù)從圖像序列獲取特征點的延時與概略位置,依據(jù)沿著陸軌跡方向角速度最小化的策略[11]建立著陸軌跡模型,實時評估有利著陸位置,從而導航無人機至屋頂?shù)容^高地勢區(qū)域。該方法在著陸過程中不依靠場景圖像信息或航拍飛機,以及如GPS等的其他導航手段進行輔助。
2016-01,德國航空航天中心實現(xiàn)了無人機自主降落在以75 km/h速度行駛的汽車頂部。通過車頂放置的視覺標記,無人機追蹤系統(tǒng)利用慣性/視覺組合手段實時跟蹤汽車位置并以相同的速度同步飛行,當2者速度一致時,無人機就降落到汽車頂部的網(wǎng)上,最終實現(xiàn)50 cm的降落精度,如圖2所示。
圖2 動基自主著陸平臺及著陸標志
以慣性/視覺導航為主的空中救援、偵察設備系統(tǒng)逐漸發(fā)展,并且拓展到民用領域。由于導航設備不斷集成化、微型化發(fā)展,應用于其上的導航系統(tǒng)與地面大型系統(tǒng)相比,主要向著更輕盈、傳感器表現(xiàn)水平更低,以及導航計算消耗的資源更少[12]發(fā)展。國外已經(jīng)基本將上述關鍵技術應用于武器裝備應用,國內(nèi)目前尚處于理論研究階段,并在民用領域取得了一定的進展。
3.1.3 水下環(huán)境
常用的水下導航技術有聲吶定位、多普勒計程儀等;但由于這些技術和設備均具有一定局限,慣性/視覺導航手段在彌補慣性系統(tǒng)誤差隨時間不斷累積的基礎上,為研究人員提供了“零距離”遠程水下場景復現(xiàn),在沉船勘察、水下航行器對接等領域應用效果明顯。
2008年,文獻[14]設計了面向AUV水下對接的慣性/視覺的組合導航系統(tǒng),當接近對接目標時,通過慣導航航位推算實現(xiàn)近距離定位,再利用雙目視覺測距實現(xiàn)對接;在仿真實驗中,測距耗時為258 ms,測距精度得到mm 級,同時進行了對比試驗,效果良好。2011年,文獻[15]針對無人水下航行器(unmanned underwater vehicle,UUV)近距離端對接過程中聲吶導航存在盲區(qū)的問題,研究利用單目視覺傳感器進行目標的局部定位;在UUV模擬對接試驗中,相對距離誤差達到0.1 m。
2011年,文獻[13]針對載體在水下環(huán)境中姿態(tài)的實時估計進行論述,建立了基于擴展卡爾曼濾波(extended Kalman filter,EKF)的慣性/視覺融合的位姿量測系統(tǒng)。其中主要對特征檢測、描述和匹配以及從結(jié)構到運動的視覺定位算法進行重點研究;同時比較了不同特征檢測、匹配算法在不同位置、光照和可見度的水下場景的效果,如圖3所示。
圖3 在水下標志區(qū)上的Aqua機器人
綜上所述,國內(nèi)外對慣性/視覺組合導航模式的水下航行研究主要集中在基于特征提取檢測的水下目標的測量與識別上。如何在清晰度復雜變化、圖像色彩不均的情況下,利用視覺傳感器從低質(zhì)圖像中實時獲取有效信息,更好地完成導航任務,將是下一步研究的難點與突破點。
3.1.4 太空環(huán)境
在遠距離、非接觸式的太空環(huán)境中,視覺技術實現(xiàn)研究人員對不可到達場景的“多維度”“零距離”接觸,以及對未知環(huán)境的動態(tài)認知與多維狀態(tài)的辨識,逐漸發(fā)展為未來太空戰(zhàn)場和外太空探索領域的重要支撐技術。
自主交會對接是在不依賴地面測控站的情況下,利用航天器測控系統(tǒng)完成交會對接任務[16]。自主交會對接必須精確測量航天器間的相對位姿;因此基于視覺測量的慣性導航手段成為最常用的方式。目前大多數(shù)自主交會都在航天器端預裝可主動發(fā)光的合作目標標志用于特征識別。2011年,文獻[17]針對交會對接最終逼近段相對位姿測量,提出了慣性/視覺組合相對導航算法;仿真結(jié)果表明該相對導航系統(tǒng)的姿態(tài)角估計偏差小于0.05°,速度估計偏差小于0.03 m/s,位置估計偏差小于0.03 m,滿足交會對接導航精度要求。
2013年,文獻[18]提出面向飛行載體進場、下降和著陸(entry,descent and landing,EDL)過程的景象匹配/慣性組合導航算法,將提取得到的視覺特征與慣性觀測量進行緊組合;再用擴展卡爾曼濾波方法得到實時精確著陸器的地表相對位姿和速度。該方法經(jīng)過探空火箭測試飛行實驗表明,速度估計誤差達到0.16 m/s,著陸點的位置估計誤差達到6.4 m。
2016年,文獻[19]設計了基于慣性/視覺組合導航的月球精密進近系統(tǒng)。為了解決月球著陸器的太陽能供電、月球地形起伏大以及光照不均等問題,該系統(tǒng)實現(xiàn)了可在月球表面任意飛行,并利用局域范圍內(nèi)的著陸點提取算法(如圖4所示)搜索理想的著陸點,為平臺進行長時間充電;在半物理仿真試驗中,著陸點的平面位置誤差在4 m,當高度為3 000 m時,高程誤差達47 m(3 倍標準差),符合精確著陸的需求。
圖4 真實月球表面的特征提取
綜上所述,基于航天器平臺的導航技術研究主要集中于航天器自主交會對接、航空器的自主著陸以及面向星球探測的載體導航。在以非接觸為特點的航空航天領域,由于難以對導航載體進行有效且直接的控制,視覺導航可充分發(fā)揮其在復雜環(huán)境下便于人機交互的優(yōu)勢,視覺測量技術也必將成為太空領域未來發(fā)展的重要趨勢;此外巨大的飛行成本和設備成本、航空器小型化的趨勢等因素也在不斷對導航系統(tǒng)的精確性和設備體積的合理性提出更高的要求。
3.2 需求與指標分析
隨著導航設備逐漸向著微型化、高精度化、低成本化的方向發(fā)展,導航的應用領域也不斷拓寬;因此對硬件設備的精度指標和軟件的可靠實時處理能力提出了新要求(如表1所示)。
3.3 展望
根據(jù)4種應用場景對慣性/視覺組合導航進行如下展望:
目前,基于慣性/視覺導航的地面無人車研究已實現(xiàn)對靜態(tài)環(huán)境進行感知,如十字路口等常規(guī)路況下的自主駕駛;但目前無人車測試地點均對環(huán)境有特殊要求,如晴天,平坦路段等,在極端天氣環(huán)境(暴雨雪等)、復雜路況下,視覺圖像的實時處理能力難以保證。此外基于人工智能的導航算法需要累積大量的真實行駛數(shù)據(jù)作為先驗信息,在數(shù)據(jù)積累階段,難免會出現(xiàn)交通事故,因此無人車從局域試駕到全球全天候?qū)嶋H應用的發(fā)展中,穩(wěn)定安全的無人車自主導航功能是當前以及今后的研究重點。對慣性/視覺等多元數(shù)據(jù)(環(huán)境信息、車輛形狀與顏色、行人運動趨勢等)進行智能融合,利用深度學習機制實現(xiàn)對動態(tài)物體的避障識別與監(jiān)視預測,將是其發(fā)展趨勢。
表1 不同應用環(huán)境對慣性/視覺導航的需求
注:“√”表示不同應用領域間對導航參數(shù)及指標的相對需求程度,“√”越多,相對需求程度越明顯。
在空中環(huán)境中,衛(wèi)星干擾、無人機誘騙屢見不鮮;現(xiàn)有基于空域的武器裝備制導不能滿足當前信息化協(xié)同作戰(zhàn)體系下的軍事需求。隨著未來戰(zhàn)爭向著“分布式殺傷”的作戰(zhàn)模式發(fā)展,無人機一方面承擔在衛(wèi)星拒絕環(huán)境下對敵方定位、戰(zhàn)場態(tài)勢感知(包括ISR)的任務,另一方面需要實現(xiàn)有人機或巡航武器與無人機群間的協(xié)同編隊,這對慣性/視覺導航信息的融合技術提出了更高的要求;此外在局域戰(zhàn)爭成為主要作戰(zhàn)模式的未來戰(zhàn)場,垂直起降無人機融合了旋翼式與固定翼式的優(yōu)勢,航時長、無需跑道起降,滿足了未來空中局域作戰(zhàn)即起即落的導航需求,因此是未來戰(zhàn)爭的有力作戰(zhàn)力量??芍_展不依賴于衛(wèi)星導航的慣性/視覺協(xié)同導航系統(tǒng)勢在必行。在面向民用的消費級無人機領域,輕量化的MOEMS以及CCD傳感器已屢見不鮮,隨著基于靜態(tài)特征目標的著陸精度不斷提升,對無人機在更為通用的環(huán)境下的引導著陸能力提出新的要求:當在電量低、系統(tǒng)故障時,無人機可以緊急監(jiān)測到安全著陸點并實現(xiàn)著陸;當超出飛控手可視范圍時,無人機可隨時隨地恢復穩(wěn)定的航行狀態(tài)。因此基于慣性/視覺導航的自動駕駛/降落技術將成為下一階段的研究重點與發(fā)展趨勢。
在水下領域,慣性/視覺導航主要應用在對相對距離和姿態(tài)有需求的任務中,當不能提供足夠亮度的光源時,視覺系統(tǒng)基本無法工作。因此應該尋求慣性/視覺導航與其他導航模式(如聲吶、地磁等)組合的方式,解決水下“尋北”問題,提高“北斗系統(tǒng)”的水下應用功能。隨著“蛟龍?zhí)枴陛d人潛水器、“潛龍二號”水下航行器的深入發(fā)展,深??臻g站的建設逐漸步入正軌,深海環(huán)境下的應用,如深海交會對接等,即將成為慣性/視覺導航新的發(fā)展方向。
在深空探測領域,“Ex-oMars 2016”的成功發(fā)射使火星探測器再次成為研究熱點。隨著深空自主導航、環(huán)火星遙感探測等多個導航領域的關鍵技術的實現(xiàn),安全穩(wěn)健的行星自主著陸成為現(xiàn)階段的技術與工程難點,這也為下一階段的載人行星著陸奠定重要基礎。在空間交會對接方面,人工控制方式可修正系統(tǒng)錯誤、排除故障,提高交會對接的成功率;但僅限于目前的空間交會于近地球高度。隨著深空探測的距離越來越遠,在保證可靠性、成功率的同時提高對接的靈活性、自主性成為主要發(fā)展趨勢。
綜上所述,目前在導航領域,精確性、穩(wěn)定性以及實時性,依然是最重要的3個指標;但隨著人們對不同應用領域的需求不斷變化,導航性能不能簡單地憑借上述指標來衡量。在未來發(fā)展中,我們要以性能指標作為基準,具體任務需求放在首位,完善導航系統(tǒng),最終完成各種任務。
[1] 馬芮,董景新.GNSS/MIMU組合導航技術綜述[J].飛航導彈,2007,11(4):42-46.
[2] 董明.衛(wèi)星/慣性/視覺組合導航信息融合關鍵技術研究[D].鄭州:信息工程大學,2014:5-6.
[3] SCARAMUZZA D,F(xiàn)RAUNDORFER F.Visual odometry (Part 1: the first 30 years and fundamentals)[J].IEEE Robotics & Automation Magazine,2011,18(4):80-92.
[4] YEBES J J,LUIS M B,MIGUEL A G.Visual object recognition with 3D-aware features in KITTI urban scenes[J].Sensors,2015,15:9228-9250.DOI: 10.3309/s150409228.
[5] SHAH R,DESHPANDE A,NA RAYANAN P J.Multistage SFM revisiting incremental structure from motion[C]//The Institute of Industrial Science,University of Tokyo.Proceedings of the International Conference on 3D Vision.Tokyo:The Institute of Industrial Science,University of Tokyo,2014:417-424.DOI: 10.1109/3DV.2014.95.
[6] YIN Zhouhao,KAI Ni,QIAN Zhou,et al.An SfM algorithm with good convergence that addresses outliers for realizing mono-SLAM[J].IEEE Transactions on Industrial Informatics,2015,12(2):515-523.DOI: 10.1109/TII.2016.2518481.
[7] YIN Zhouhao,TAO Zhang.The combination of SfM and monocular SLAM[C]//《控制與決策》編輯部.第26屆中國控制與決策會議論文集.長沙:《控制與決策》編輯部,2014:5282-5286.
[8] CARR J R,SOBEK J S.Digital scene matching area correlator(DSMAC)[J].SPIE Image Processing for Missile Guidance,1980,238:36-41.
[9] SOTELO M A,RODRIGUEZ F J,MAGDALENA L.Virtuous: vision-based road transportation for unmanned operation on urban-like scenarios[J].IEEE Transactions on Intelligent Transportation Systems,2004,5(2):69-83.
[10]VISHNU R,MICHAEL N,HUMENBERGER M,et al.Vision-based landing site evaluation and trajectory generation toward rooftop landing[EB/OL].(2015-06-22)[2016-01-22].http://www.roboticsproceedings.org/rss10/p44.pdf.
[11]SHEN S,MULGAONKAR Y,MICHAEL N,et al.Vision-based state estimation and trajectory control towards high-speed flight with a quadrotor[EB/OL].(2015-06-22)[2016-01-22].http://roboticsproceedings.org/rss09/p32.pdf.
[12]SCHERER S,CHAMBERLAIN L,SINGH S.Autonomous landing at unprepared sites by a full-scale helicopter[J].Robot Autonomous System,2012,60(12):1545-1562.
[13]SHKURTI F,REKLEITIS I.Feature tracking evaluation for pose estimation in underwater environments[EB/OL].(2011-12-12)[2016-01-22].http://www.cim.mcgill.ca/~yiannis/Publications/CRV-2011.pdf.
[14]施小成,王曉娟.一種面向 AUV 水下對接的雙目視覺測距方法[J].計算機測量與控制,2008,16(10):1460-1462.
[15]姜玲.UUV 對接過程中單目視覺導引方法研究[D].哈爾濱:哈爾濱工程大學,2011:1-6.
[16]吳宏鑫,胡海霞,解永春.自主交會對接若干問題[J].宇航學報,2003,24(2):132-137.
[17]張力軍,錢山.逼近段慣性/視覺組合相對導航算法[J].上海航天,2011,28(3):8-16.
[18]ANASTASIOS I,TRAWNY M N,ROUMELIOTIS S I,et al.Vision-aided inertial navigation for spacecraft entry,descent,and landing[J].IEEE Transactions on Robotics,2013,25(2):264-280.
[19]DELAUNE J,BESBERAIS G L,VOIRUN T,et al.Visual-inertial navigation for pinpoint planetary landing using scale-based landmark matching[J].Robotics and Autonomous Systems,2016(78):63-82.
Development of vision/inertial integrated navigation in different application scenarios
LI Fengyang1,2,JIA Xuedong1,DONG Ming2,3
(1. Institution of Navigation and Aerospace Engineering, Information Engineering University,Zhengzhou,Henan 450001,China;2.State Key Laboratory of Geo-information Engineering, Xi’an,Shanxi 710054,China;3.Satellite Navigation Engineering Center, Beijing 100094,China)
Aiming at the problem that inertial navigation cannot meet the requirement of long term and high precision,the paper proposed to use vision navigation which has the characteristics of highly sensitive to relative navigation information and of increased precision with reduced distance,to make up for the drawback of inertial navigation under underwater,deep space and other closed and complicated environment: the current development of the vision/inertial integrated navigation was induced according to four different application scenarios of ground,air,underwater,and deep space,and the needs and quota of difference application environment to the integrated navigation were compared.Finally,the developing trend of vision/inertial integrated navigation was given.
vision navigation;inertial navigation;integrated navigation;JPADS;Mars rover
2016-04-25
地理信息工程國家重點實驗室重點基金項目(SKLGIE2014-Z-2-1)。
李豐陽(1992—),男,陜西西安人,碩士研究生,研究方向為組合導航、衛(wèi)星/慣性/視覺導航信息融合。
賈學東(1975—),男,河南南陽人,博士,副教授,研究方向為導航時間與頻率系統(tǒng)、導航裝備等。
李豐陽,賈學東,董明.慣性/視覺組合導航在不同應用場景的發(fā)展[J].導航定位學報,2016,4(4):30-35.(LI Fengyang,JIA Xuedong,DONG Ming.Development of vision/inertial integrated navigation in different application scenarios[J].Journal of Navigation and Positioning,2016,4(4):30-35.)
10.16547/j.cnki.10-1096.20160406.
V249.32
A
2095-4999(2016)04-0030-06