摘 要:無(wú)人機(jī)被廣泛應(yīng)用于搶險(xiǎn)救災(zāi),自主著陸是無(wú)人機(jī)應(yīng)用中的關(guān)鍵技術(shù)之一。由于精度和干擾的影響,傳統(tǒng)的導(dǎo)航技術(shù)如GPS和INS往往不能滿(mǎn)足著陸階段的導(dǎo)航要求?;谝曈X(jué)的自主著陸系統(tǒng)具有自主性強(qiáng)、成本低、功耗低、抗干擾能力強(qiáng)等優(yōu)點(diǎn),適合應(yīng)用于無(wú)人機(jī)自主著陸階段的導(dǎo)航。本文總結(jié)了當(dāng)前基于視覺(jué)的無(wú)人機(jī)自主著陸領(lǐng)域的研究成果,按相機(jī)安裝位置和著陸平臺(tái)類(lèi)型進(jìn)行梳理,對(duì)其中的關(guān)鍵技術(shù)進(jìn)行了比較和分析,并指出了未來(lái)的發(fā)展趨勢(shì)。
關(guān)鍵詞:無(wú)人機(jī); 自主著陸; 計(jì)算機(jī)視覺(jué); 標(biāo)識(shí)檢測(cè); 導(dǎo)航
中圖分類(lèi)號(hào):TJ760; V279
文獻(xiàn)標(biāo)識(shí)碼: A
文章編號(hào):1673-5048(2023)05-0104-11
DOI: 10.12132/ISSN.1673-5048.2023.0045
0 引" 言
無(wú)人機(jī)(Unmanned Aerial Vehicle,UAV)正在改變多種行動(dòng)的執(zhí)行方式。無(wú)人機(jī)技術(shù)的發(fā)展為數(shù)據(jù)和圖像采集[1]、特定目標(biāo)的定位和跟蹤[2]、地圖構(gòu)建[3]、通信中繼[4]、管道勘測(cè)[5]、軍事行動(dòng)[6]、邊境巡邏、持續(xù)廣域監(jiān)視[7]、搜索救援[8]以及交通監(jiān)測(cè)等任務(wù)帶來(lái)了更高的效率。然而無(wú)人機(jī)的自主著陸是事故發(fā)生率最高的階段,精確穩(wěn)定的測(cè)量出無(wú)人機(jī)的實(shí)時(shí)位置和姿態(tài)是準(zhǔn)確引導(dǎo)著陸的關(guān)鍵點(diǎn)。常規(guī)的飛行參數(shù)估計(jì)方法包括: 全球定位系統(tǒng)(Global Positioning System,GPS)、慣性導(dǎo)航系統(tǒng)(Inertial Navigation System,INS)。GPS通過(guò)衛(wèi)星進(jìn)行定位,精度較高且誤差不隨時(shí)間累積,但GPS只能在開(kāi)闊地形中獲得很高的精度,而在森林、峽谷、城市高樓間通常無(wú)法獲得正確位置信息,其在軍事上是完全不可取的。INS通常由陀螺儀和加速度計(jì)組成,通過(guò)對(duì)角加速度和加速度進(jìn)行積分得到載體位姿參數(shù),具有自主性,不依賴(lài)外界信息,但其誤差隨時(shí)間累積,不能用于長(zhǎng)時(shí)間導(dǎo)航。為有效避免傳統(tǒng)定位方法的缺陷,研究人員對(duì)視覺(jué)著陸技術(shù)進(jìn)行了更深入的研究,這項(xiàng)技術(shù)的發(fā)展將成為無(wú)人機(jī)著陸究領(lǐng)域中新的里程碑。
基于視覺(jué)的導(dǎo)航方法由于能夠在沒(méi)有GPS的環(huán)境下正常工作且不漂移,受到廣泛關(guān)注。視覺(jué)導(dǎo)航利用攝像頭等視覺(jué)傳感器獲得圖像,通過(guò)圖像識(shí)別、深度學(xué)習(xí)等相關(guān)技術(shù)計(jì)算載體導(dǎo)航參數(shù),具有成本低、信息量大、高自主和完全無(wú)源性等優(yōu)點(diǎn)。首先,基于視覺(jué)的著陸系統(tǒng)可以提供無(wú)人機(jī)與著陸場(chǎng)地的相對(duì)位姿參數(shù); 其次,視覺(jué)傳感器是主動(dòng)傳感器,一定程度上保證了無(wú)人機(jī)在對(duì)抗環(huán)境中的安全; 最后,視覺(jué)傳感器的體積小且重量輕,不會(huì)對(duì)無(wú)人機(jī)造成載荷負(fù)擔(dān)。
近年來(lái),國(guó)內(nèi)外研究者對(duì)無(wú)人機(jī)導(dǎo)航技術(shù)[9-10]、無(wú)人機(jī)目標(biāo)檢測(cè)技術(shù)[11]、無(wú)人機(jī)安全著陸區(qū)探測(cè)技術(shù)[12]、無(wú)人機(jī)自主著艦[13-14]、機(jī)艦協(xié)同技術(shù)[15]等進(jìn)行了研究與總結(jié),但對(duì)利用視覺(jué)傳感器的自主著陸系統(tǒng)介紹較少。為進(jìn)一步促進(jìn)無(wú)人機(jī)視覺(jué)自主著陸技術(shù)的發(fā)展,本文對(duì)國(guó)內(nèi)外使用視覺(jué)傳感器進(jìn)行無(wú)人機(jī)自主著陸的研究現(xiàn)狀進(jìn)行了集中整理分析。無(wú)人機(jī)按機(jī)翼結(jié)構(gòu)可分為固定翼、旋翼(直升機(jī)和多旋翼)、撲翼等,不同的機(jī)翼構(gòu)造導(dǎo)致無(wú)人機(jī)的起降方式各不相同。旋翼無(wú)人機(jī)可空中懸停,可垂直起降。與旋翼無(wú)人機(jī)相比,固定翼無(wú)人機(jī)無(wú)法在
空中懸停,需要跑道滑行起降。本文主要總結(jié)了固定翼和旋翼無(wú)人機(jī)的視覺(jué)自主著陸方法, 雖然二者降落方式略有不同,但二者視覺(jué)降落的技術(shù)可以相互借鑒。根據(jù)相機(jī)安裝位置將視覺(jué)系統(tǒng)分為機(jī)載系統(tǒng)和非機(jī)載系統(tǒng),
并根據(jù)著陸目的地類(lèi)型將其分為靜態(tài)、動(dòng)態(tài)目標(biāo)場(chǎng)地。其中,靜態(tài)場(chǎng)景包括兩類(lèi): 合作標(biāo)識(shí)物和自然環(huán)境特征; 動(dòng)態(tài)場(chǎng)景分為兩類(lèi): 車(chē)載平臺(tái)和船艦平臺(tái)。
1 非機(jī)載視覺(jué)系統(tǒng)
非機(jī)載相機(jī)系統(tǒng)通常依靠固定在地面上的單目或多目視覺(jué)系統(tǒng)[16]。該系統(tǒng)從3D-2D對(duì)應(yīng)關(guān)系中估計(jì)無(wú)人機(jī)的姿態(tài),這意味著必須知道圖像上突出特征的3D布局。非機(jī)載系統(tǒng)配置支持使用高質(zhì)量圖像系統(tǒng)且更容易獲得足夠的計(jì)算能力,這使得部署更復(fù)雜的方法成為可能,且不必?fù)?dān)心無(wú)人機(jī)因視覺(jué)系統(tǒng)造成的能源消耗和載荷負(fù)擔(dān)。
非機(jī)載相機(jī)系統(tǒng)早期的研究是在2006年,Wang等[17]提出一種使用步進(jìn)電機(jī)控制的網(wǎng)絡(luò)攝像頭識(shí)別貼有標(biāo)記的微型飛機(jī)上的系統(tǒng)。然而,此地面系統(tǒng)的視場(chǎng)較窄,距離相機(jī)1 m時(shí)識(shí)別區(qū)域只有140 cm×140 cm。為了擴(kuò)大視場(chǎng)范圍,研究人員提出使用多個(gè)相機(jī)的方法。Martinez等[18]引入了一種三目地面系統(tǒng),如圖1所示。該系統(tǒng)由三臺(tái)固定在鋁制平臺(tái)上的相機(jī)組成,用于提取飛機(jī)的關(guān)鍵特征,以獲得魯棒性好的3D位置估計(jì)。文獻(xiàn)[19]在2010年提出一種地面立體視覺(jué)系統(tǒng),該系統(tǒng)用于估計(jì)四旋翼飛行器的三維位置,并實(shí)現(xiàn)自主懸停和戶(hù)外自主降落。系統(tǒng)采用連續(xù)自適應(yīng)均值漂移的檢測(cè)算法,可以檢測(cè)到6 m高度內(nèi)的無(wú)人機(jī)。文獻(xiàn)[20]建立了一個(gè)地面立體視覺(jué)系統(tǒng),如圖2所示。系統(tǒng)由兩個(gè)獨(dú)立模塊組成,對(duì)稱(chēng)布置在無(wú)人機(jī)著陸點(diǎn)附近的跑道兩側(cè),每個(gè)獨(dú)立模塊由云臺(tái)搭配攝像頭組成并獨(dú)立連接到計(jì)算機(jī),兩個(gè)相機(jī)捕獲的圖像序列同時(shí)發(fā)送到數(shù)據(jù)處理計(jì)算機(jī),檢測(cè)算法從捕獲的序列圖像中提取無(wú)人機(jī)的圖像位置并利用標(biāo)定數(shù)據(jù)和云臺(tái)傾斜角度還原出無(wú)人機(jī)的空間位置。但此算法中無(wú)人機(jī)被簡(jiǎn)化為一個(gè)單點(diǎn),無(wú)人機(jī)位置由三角測(cè)量法解算,丟失了無(wú)人機(jī)的姿態(tài)信息。由于相機(jī)具有固定的視場(chǎng),導(dǎo)致大多數(shù)都受到工作距離的限
制,為了擴(kuò)大工作距離,Guan等[21]使用多個(gè)不同焦距的相機(jī)以覆蓋飛機(jī)的所有降落軌跡, 可以在不增加飛機(jī)載荷的情況下實(shí)現(xiàn)飛機(jī)的精確著陸。此外,Liu等[22]提出一
個(gè)用于飛機(jī)相對(duì)姿態(tài)測(cè)量的機(jī)外視覺(jué)系統(tǒng)。該系統(tǒng)結(jié)合了一個(gè)變焦成像單元和一個(gè)平移/傾斜伺服單元,能夠在大距離范圍內(nèi)測(cè)量飛機(jī)姿態(tài)。Li等[23]開(kāi)發(fā)了一個(gè)級(jí)聯(lián)深度學(xué)習(xí)模型,用于無(wú)人機(jī)自主著陸的圖像檢測(cè)和精度提升。實(shí)際飛行實(shí)驗(yàn)結(jié)果表明該系統(tǒng)能夠在飛機(jī)下降和滑行階段引導(dǎo)飛機(jī)在視場(chǎng)內(nèi)移動(dòng),完成自主著陸。
由于光學(xué)相機(jī)只能在晴朗天氣下進(jìn)行工作,當(dāng)天氣惡劣和夜晚時(shí)以上的非機(jī)載相機(jī)系統(tǒng)無(wú)法正常工作。為了擴(kuò)展工作時(shí)間,達(dá)到能夠全天候使用,部分系統(tǒng)采用紅外相機(jī)作為視覺(jué)傳感器。Fu等[24]設(shè)計(jì)了一個(gè)單眼紅外視覺(jué)系統(tǒng),通過(guò)安裝在地面上的紅外相機(jī)觀察四旋翼飛機(jī)上的4個(gè)紅外發(fā)光二極管(Light Emitting Diode,LED)標(biāo)記來(lái)估計(jì)無(wú)人機(jī)姿態(tài)。2020年,該團(tuán)隊(duì)將其擴(kuò)展為一個(gè)多相機(jī)系統(tǒng)[25]并提出一種融合機(jī)外多個(gè)相機(jī)信息的基于擴(kuò)展卡爾曼濾波(Extended Kalman Filter,EKF)的姿態(tài)估計(jì)算法。此外,Kong等[26]提出一種基于紅外相機(jī)的立體視覺(jué)系統(tǒng),該系統(tǒng)由兩個(gè)紅外相機(jī)和云臺(tái)(Pan-Tilt Unit,PTU)組成,其結(jié)構(gòu)如圖3所示。為了擴(kuò)大系統(tǒng)的工作范圍,該團(tuán)隊(duì)于2017年將紅外相機(jī)和其他傳感器
安裝在兩個(gè)獨(dú)立PTU上并將其分別放在跑道兩側(cè),構(gòu)成一個(gè)地面立體視覺(jué)系統(tǒng)[27]。該系統(tǒng)根據(jù)圖像信息和來(lái)自PTU的旋轉(zhuǎn)角度計(jì)算目標(biāo)。每個(gè)視覺(jué)單元獨(dú)立工作,并將圖像處理和PTU狀態(tài)的結(jié)果傳送到導(dǎo)航計(jì)算機(jī),計(jì)算無(wú)人機(jī)的相對(duì)位置。
非機(jī)載相機(jī)系統(tǒng)除了應(yīng)用在地面,還被廣泛應(yīng)用于海事無(wú)人機(jī)艦船著陸。海事無(wú)人機(jī)主要通過(guò)監(jiān)測(cè)和偵查的方式來(lái)維護(hù)國(guó)家海洋安全以及防治海洋污染,為海洋防災(zāi)減災(zāi)提供優(yōu)質(zhì)的服務(wù),進(jìn)而為區(qū)域海洋經(jīng)濟(jì)發(fā)展保駕護(hù)航。相對(duì)于海巡船和有人駕駛飛機(jī),無(wú)人機(jī)具有體積小、重量輕、攜帶方便等優(yōu)點(diǎn),尤其是對(duì)起飛環(huán)境要求較低,需要的起飛跑道較短甚至不需要跑道,可以在岸基或海巡船上進(jìn)行起降。2015年,Santos等[28]設(shè)計(jì)了一種安裝在船舶甲板上用于無(wú)人機(jī)降落的視覺(jué)系統(tǒng),該系統(tǒng)使用粒子濾波器(Particle Filter,PF)和無(wú)跡卡爾曼濾波器(Unscented Kalman Filter,UKF)的組合框架進(jìn)行無(wú)人機(jī)位姿估計(jì),實(shí)驗(yàn)結(jié)果表明位置和角度估計(jì)的精度符合自主著陸系統(tǒng)的要求。兩年后,該團(tuán)隊(duì)對(duì)該系統(tǒng)進(jìn)行改進(jìn)[29],將粒子濾波框架應(yīng)用于基于三維模型的姿態(tài)估計(jì)問(wèn)題,試圖從現(xiàn)有的重采樣方案中檢索盡可能多的信息。2018年,該團(tuán)隊(duì)對(duì)系統(tǒng)進(jìn)行再次升級(jí)[30],使用捕獲的圖像作為輸入,用粒子濾波結(jié)構(gòu)估計(jì)無(wú)人機(jī)軌跡并分別采用UKF濾波器和UBiF(Unscented Bingham Filter)濾波器對(duì)無(wú)人機(jī)平移運(yùn)動(dòng)和旋轉(zhuǎn)運(yùn)動(dòng)進(jìn)行濾波。為保證實(shí)驗(yàn)安全性,創(chuàng)建了一個(gè)合成視頻著陸序列生成地面真實(shí)數(shù)據(jù),定量分析實(shí)驗(yàn)結(jié)果,得到的跟蹤誤差符合自主著陸的要求。
2019年,Santos等[31]又開(kāi)發(fā)了一種基于3D模型的無(wú)人機(jī)著陸地面跟蹤框架,并在無(wú)人機(jī)跟蹤中使用了方向統(tǒng)計(jì)分布。由于移動(dòng)平臺(tái)處于海上,且受區(qū)域氣象條件(如風(fēng)浪)的影響,視覺(jué)系統(tǒng)面臨諸多挑戰(zhàn)。為了克服這個(gè)問(wèn)題,該團(tuán)隊(duì)使用了基于網(wǎng)絡(luò)的保持系統(tǒng),以確保UAV的安全著陸?;谌S模型的算法是很好的無(wú)人機(jī)姿態(tài)估計(jì)方法,但需要較大的處理能力。這種處理能力在地面系統(tǒng)中很容易獲得,因?yàn)槠渑c無(wú)人機(jī)相比不存在任何載荷限制。2023年,該團(tuán)隊(duì)在已有系統(tǒng)基礎(chǔ)上加入了基于樹(shù)的相似性度量方法[32],提高了算法速度。2022年,Liu等[22]提出一種基于模型的姿態(tài)跟蹤算法,需要飛機(jī)的計(jì)算機(jī)輔助設(shè)計(jì)(Computer Aided Design,CAD)模型來(lái)測(cè)量飛機(jī)相對(duì)于參考平臺(tái)的相對(duì)姿態(tài)并采用二維視覺(jué)跟蹤算法和目標(biāo)檢測(cè)算法對(duì)視覺(jué)系統(tǒng)進(jìn)行控制。所提出的姿態(tài)跟蹤算法在公開(kāi)數(shù)據(jù)集上取得了具有競(jìng)爭(zhēng)力的結(jié)果。通過(guò)實(shí)際飛行試驗(yàn)對(duì)整個(gè)系統(tǒng)進(jìn)行驗(yàn)證,結(jié)果表明,該系統(tǒng)可實(shí)時(shí)運(yùn)行1 920×1 080@40 Hz視頻,精度優(yōu)于0.5°。
現(xiàn)有的非機(jī)載視覺(jué)系統(tǒng)大多應(yīng)用于固定翼無(wú)人機(jī),因?yàn)楣潭ㄒ頍o(wú)人機(jī)降落時(shí)速度快,滑行距離遠(yuǎn),一般的非機(jī)載視覺(jué)系統(tǒng)將攝像機(jī)固定在固定跑道末端,能夠監(jiān)控飛機(jī)滑行降落的整個(gè)過(guò)程,也可部署多個(gè)系統(tǒng)提高檢測(cè)距離和范圍。
2 機(jī)載視覺(jué)系統(tǒng)
機(jī)載視覺(jué)系統(tǒng)通常由單個(gè)或多個(gè)校準(zhǔn)的前視攝像頭組成。在飛機(jī)著陸過(guò)程中,相機(jī)拍攝圖像并利用計(jì)算機(jī)視覺(jué)算法來(lái)提取圖像上的突出特征, 如跑道邊緣、燈光或輔助標(biāo)識(shí)物等,然后利用提取的圖像特征解算飛機(jī)的姿態(tài)問(wèn)題,或與INS數(shù)據(jù)相結(jié)合,共同完成飛機(jī)姿態(tài)的計(jì)算和控制。根據(jù)機(jī)載相機(jī)系統(tǒng)的著陸平臺(tái)是否為運(yùn)動(dòng)的可分為靜態(tài)目標(biāo)場(chǎng)地和動(dòng)態(tài)目標(biāo)場(chǎng)地。
2.1 靜態(tài)目標(biāo)場(chǎng)地
無(wú)人機(jī)自主著陸研究領(lǐng)域,在靜態(tài)目標(biāo)場(chǎng)地著陸如標(biāo)準(zhǔn)跑道、停機(jī)坪等是研究無(wú)人機(jī)自主著陸的基礎(chǔ)。無(wú)人機(jī)在靜態(tài)場(chǎng)景下的自主著陸可分為基于合作標(biāo)識(shí)的自主著陸和基于自然環(huán)境特征的自主著陸。基于自然環(huán)境特征的著陸指無(wú)人機(jī)可以在沒(méi)合作標(biāo)識(shí)物的情況下識(shí)別環(huán)境特征進(jìn)行著陸。
2.1.1 基于合作標(biāo)識(shí)物的著陸
基于合作標(biāo)識(shí)物的無(wú)人機(jī)自主著陸技術(shù)的關(guān)鍵是準(zhǔn)確檢測(cè)、識(shí)別合作標(biāo)識(shí)并精確提取其特征,利用提取的特征來(lái)計(jì)算飛機(jī)當(dāng)前的飛行姿態(tài)。合作標(biāo)識(shí)是根據(jù)幾何圖案或某些幾何規(guī)律的原理設(shè)計(jì)的一種識(shí)別標(biāo)記。設(shè)計(jì)準(zhǔn)確高效的標(biāo)識(shí)和相應(yīng)的檢測(cè)算法是提高無(wú)人機(jī)自主著陸能力的重要途徑。目前主流的識(shí)別標(biāo)識(shí)有“H”和“T”,以及圓形、矩形、組合標(biāo)識(shí)等,如圖4所示。組合標(biāo)識(shí)通常是指由標(biāo)準(zhǔn)幾何圖形排列組合而成的圖形,如承載信息的二維碼、條形碼等,密歇根大學(xué)基于二維碼組合圖形合作靶標(biāo)開(kāi)發(fā)了開(kāi)源無(wú)人機(jī)自主著陸視覺(jué)系統(tǒng)April Tag[33-34]。
基于合作標(biāo)識(shí)物的自主著陸算法已經(jīng)比較成熟,研究人員對(duì)部分成果進(jìn)行了總結(jié)[38],但不夠完善,現(xiàn)將近十年國(guó)內(nèi)外各研究機(jī)構(gòu)已有的標(biāo)識(shí)類(lèi)型、檢測(cè)方法及實(shí)驗(yàn)結(jié)果進(jìn)行總結(jié),如表1所示。
除了以上這些需要在平面上放置輔助標(biāo)識(shí)物的著陸方法外,還有一些研究團(tuán)隊(duì)利用輔助燈光引導(dǎo)飛機(jī)著陸。
Chatterji等[68]和Oszust等[69]從捕獲的圖像中的路徑指示燈和進(jìn)場(chǎng)燈來(lái)解算飛機(jī)的姿勢(shì)。此外,Gui等[70]的一項(xiàng)新研究開(kāi)發(fā)了一種基于固定在跑道兩側(cè)的紅外指示燈計(jì)算飛機(jī)姿態(tài)的方法。在跑道附近安裝4個(gè)紅外燈,通過(guò)機(jī)載單目相機(jī)圖像提取燈的準(zhǔn)確位置,可以用來(lái)計(jì)算飛機(jī)的姿態(tài),進(jìn)行著陸輔助。
基于合作標(biāo)識(shí)物的視覺(jué)著陸大多應(yīng)用在多旋翼無(wú)人機(jī)和無(wú)人直升機(jī),因?yàn)槎呖梢钥罩袘彝:痛怪逼鸾担ㄟ^(guò)攝像頭對(duì)標(biāo)識(shí)物進(jìn)行識(shí)別,計(jì)算獲得無(wú)人機(jī)與標(biāo)識(shí)的相對(duì)位置,將相對(duì)位置傳入飛行控制系統(tǒng)后,控制系統(tǒng)將控制旋翼無(wú)人機(jī)進(jìn)行自主降落,精度可達(dá)厘米級(jí)。固定翼無(wú)人機(jī)基于標(biāo)識(shí)物的降落研究較少,因其降落時(shí)需要場(chǎng)地滑行且降落時(shí)速度快、距離遠(yuǎn),放置合作標(biāo)識(shí)物的方法不適合固定翼無(wú)人機(jī)。
2.1.2 基于自然環(huán)境特征的著陸
基于自然環(huán)境特征的無(wú)人機(jī)自主著陸明顯不同于基于合作標(biāo)識(shí)物的自主著陸?;诤献鳂?biāo)識(shí)物的方法可以根據(jù)與背景高度區(qū)分的標(biāo)識(shí)進(jìn)行精確定位和導(dǎo)航,算法設(shè)計(jì)可以定制以匹配傳統(tǒng)特征,但標(biāo)記必須事先設(shè)置好。在一些對(duì)無(wú)人機(jī)自主性要求較高的場(chǎng)景中,比如救援任務(wù),無(wú)人機(jī)往往會(huì)先于人類(lèi)到達(dá)現(xiàn)場(chǎng),進(jìn)行初步的任務(wù)處理。在這種情況下,預(yù)先放置合作標(biāo)識(shí)的方法不能滿(mǎn)足任務(wù)要求,因此開(kāi)發(fā)了基于自然環(huán)境特征的自主著陸方法,典型的自然場(chǎng)景有機(jī)場(chǎng)跑道、地平線(xiàn)等。
為了在機(jī)場(chǎng)跑道上安全著陸,固定翼飛機(jī)應(yīng)該以恒定的角度平穩(wěn)下降,指向跑道中心線(xiàn),并在跑道的起點(diǎn)著陸。德國(guó)航空航天中心的Doehler等[71]提出一種簡(jiǎn)單方法,僅根據(jù)跑道在機(jī)載相機(jī)的成像來(lái)估計(jì)飛機(jī)相對(duì)于跑道的位置。但是這種方法的前提是準(zhǔn)確檢測(cè)地平線(xiàn),并不適用于所有機(jī)場(chǎng)。Gibert等[72]提出一種從地平線(xiàn)、跑道拐角和跑道邊緣提取特征的位置偏差估計(jì)方法。Li等[73]提出一種僅利用跑道自身特征的視覺(jué)位姿估計(jì)方法,即利用跑道的起始線(xiàn)和跑道的兩條邊線(xiàn),當(dāng)三條線(xiàn)完全可見(jiàn)時(shí)可以解算出無(wú)人機(jī)的六維姿態(tài),在著陸后期,跑道起始線(xiàn)是不可見(jiàn)的,可以通過(guò)兩條邊緣線(xiàn)來(lái)估計(jì)偏航、俯仰、縱向位置和高度。此外,Hiba等[74]利用跑道邊緣的3D-2D對(duì)應(yīng)關(guān)系來(lái)解決飛機(jī)的姿態(tài)估計(jì)問(wèn)題。Le Bras等[75]使用從前視圖像中提取的跑道邊緣和前角點(diǎn)來(lái)實(shí)現(xiàn)無(wú)人機(jī)自主著陸的視覺(jué)伺服控制方法。
除了利用跑道的形狀特征,F(xiàn)an等[76]采用譜殘差顯著圖檢測(cè)感興趣區(qū)域,然后選擇稀疏編碼和空間金字塔匹配來(lái)識(shí)別跑道,并使用正交迭代來(lái)估計(jì)位置和姿態(tài)。法國(guó)航空航天實(shí)驗(yàn)室[77]研究了視野約束下基于視覺(jué)的飛行控制問(wèn)題,并提出一個(gè)基于視覺(jué)的固定翼無(wú)人機(jī)在未知跑道上的著陸框架。此外,Ruchanurucks等[78]使用一種有效的透視n點(diǎn)算法估計(jì)無(wú)人機(jī)的相對(duì)位姿,引導(dǎo)固定翼無(wú)人機(jī)在跑道上著陸。然而,這種方法的準(zhǔn)確性易受到跑道探測(cè)誤差的影響。與特征提取方法相比,Gonalves等[79]提出一項(xiàng)基于視覺(jué)的無(wú)人機(jī)自主進(jìn)場(chǎng)和著陸研究,采用了一種有效的基于ESM(Efficient Second-Order Minimization)的跟蹤方法。這種直接方法可以達(dá)到理想的精度,但計(jì)算量大。
2.2 動(dòng)態(tài)目標(biāo)場(chǎng)地
現(xiàn)實(shí)中無(wú)人機(jī)執(zhí)行復(fù)雜任務(wù)時(shí),目標(biāo)一般是運(yùn)動(dòng)的。與靜態(tài)場(chǎng)景相比,動(dòng)態(tài)場(chǎng)景更加復(fù)雜,這對(duì)無(wú)人機(jī)的導(dǎo)航系統(tǒng)和控制系統(tǒng)提出更高的要求。同時(shí),兩種著陸方式的任務(wù)目標(biāo)幾乎相同,這意味著上述靜態(tài)場(chǎng)景中的自主著陸方法也廣泛應(yīng)用于動(dòng)態(tài)場(chǎng)景中。由于運(yùn)動(dòng)平臺(tái)的復(fù)雜性,目前的目標(biāo)檢測(cè)和識(shí)別算法無(wú)法可靠地識(shí)別和跟蹤著陸平臺(tái)。因此,現(xiàn)有的大多數(shù)研究增加了合作標(biāo)識(shí)物,并通過(guò)識(shí)別具有顯著特征的合作標(biāo)識(shí)物來(lái)實(shí)現(xiàn)自主導(dǎo)航。根據(jù)任務(wù)場(chǎng)景的不同分為車(chē)載平臺(tái)和船載平臺(tái)進(jìn)行研究。
2.2.1 車(chē)載平臺(tái)
2013年,Cheng等[39]利用車(chē)載平臺(tái)上的LED發(fā)光圓形標(biāo)記引導(dǎo)無(wú)人機(jī)著陸, 在15次自主著陸實(shí)驗(yàn)中,著陸平臺(tái)以1.2 m/s的速度移動(dòng)時(shí),成功率為88.24%,著陸位置在x軸和y軸的誤差分別為5.79 cm和3.44 cm。但該系統(tǒng)無(wú)線(xiàn)傳輸有一定延遲,不利于高度自主著陸。2017年,Baca等[63]在國(guó)際機(jī)器人競(jìng)賽中提出一種快速、魯棒的視覺(jué)定位方法,用于無(wú)人機(jī)在車(chē)輛上自主著陸。Keller等[80]設(shè)計(jì)了一個(gè)無(wú)人機(jī)在動(dòng)態(tài)目標(biāo)上的精確自主著陸的框架,該框架保證了旋翼無(wú)人機(jī)能在風(fēng)向變化、動(dòng)態(tài)障礙物和著陸平臺(tái)移動(dòng)等情況下穩(wěn)定著陸。為了防止車(chē)輛突然變速時(shí)在無(wú)人機(jī)視野中丟失,孫凱等[50]提出一種利用圖像幀間位移差分算法估計(jì)車(chē)輛速度,增加目標(biāo)跟蹤著陸算法的魯棒性。單純依靠視覺(jué)引導(dǎo)自主著陸受到算法和計(jì)算能力的限制,一些研究側(cè)重于視覺(jué)主導(dǎo)的多傳感器融合技術(shù)。2016年,Chen等[62]設(shè)計(jì)了一種基于視覺(jué)和激光雷達(dá)的定位和跟蹤算法。該系統(tǒng)采用單目視覺(jué)系統(tǒng)進(jìn)行檢測(cè)和位姿計(jì)算并利用激光雷達(dá)測(cè)量無(wú)人機(jī)的相對(duì)高度,實(shí)驗(yàn)證明無(wú)人機(jī)成功以1 m/s的移動(dòng)速度降落在平臺(tái)上。該系統(tǒng)的缺點(diǎn)是當(dāng)移動(dòng)平臺(tái)突然加速或減速時(shí),無(wú)人機(jī)無(wú)法跟蹤上移動(dòng)平臺(tái),因此只能應(yīng)用于移動(dòng)平臺(tái)速度較慢的情況。2017年,Araar等[64]提出一種融合慣性的視覺(jué)著陸系統(tǒng),通過(guò)仿真和實(shí)際場(chǎng)景驗(yàn)證,該無(wú)人機(jī)能夠在50 km/h的移動(dòng)平臺(tái)上著陸,誤差為8 cm。以上系統(tǒng)都是利用相機(jī)跟蹤移動(dòng)標(biāo)識(shí)來(lái)提供無(wú)人機(jī)與車(chē)輛的相對(duì)位置,但未考慮飛行過(guò)程中相機(jī)晃動(dòng)對(duì)采集圖像的影響。2022年,Zhao等[81]在無(wú)人機(jī)和單目相機(jī)之間加上一個(gè)雙軸云臺(tái),在擴(kuò)大單目視覺(jué)系統(tǒng)感知范圍的同時(shí)利用慣性測(cè)量單元(Inertial Motion Unit, IMU)測(cè)量相機(jī)姿態(tài)以校正采集到圖像信息,通過(guò)實(shí)際飛行驗(yàn)證無(wú)人機(jī)能在速度為3.5 m/s的車(chē)輛上實(shí)現(xiàn)自主著陸。運(yùn)動(dòng)場(chǎng)景中的視野變化、運(yùn)動(dòng)模糊和光照變化等問(wèn)題,可以通過(guò)提高檢測(cè)算法魯棒性和硬件模塊性能來(lái)解決。2018年,Yang等[46]提出一種基于混合相機(jī)陣列的相對(duì)位置估計(jì)方法,并利用改進(jìn)的YOLOv3算法實(shí)現(xiàn)對(duì)目標(biāo)的實(shí)時(shí)檢測(cè)和跟蹤,系統(tǒng)框架如圖5所示。其中,K和D分別為相機(jī)內(nèi)參和畸變系數(shù); R和T為相機(jī)外參。系統(tǒng)由混合相機(jī)陣列成像模塊和著陸算法模塊兩部分組成,陣列中的魚(yú)眼相機(jī)擴(kuò)大了視野范圍。對(duì)于著陸階段的運(yùn)動(dòng)模糊問(wèn)題,研究人員提出一種兩階段的檢測(cè)框架[82]。第一階段利用SlimDeblurGAN算法去除快速運(yùn)動(dòng)引起的圖像模糊,第二階段利用YOLOv2算法對(duì)標(biāo)識(shí)進(jìn)行檢測(cè)。實(shí)驗(yàn)結(jié)果表明,該系統(tǒng)可以很好地解決運(yùn)動(dòng)模糊問(wèn)題,但僅進(jìn)行了仿真推理,未進(jìn)行實(shí)際飛行驗(yàn)證。2019年,Rodriguez-Ramos等[83]基于深度學(xué)習(xí)算法設(shè)計(jì)了一種視覺(jué)著陸系統(tǒng)。該算法是針對(duì)連續(xù)狀態(tài)空間和動(dòng)作空間設(shè)計(jì)的基于策略的深度強(qiáng)化學(xué)習(xí)算法,實(shí)驗(yàn)結(jié)果表明最大著陸時(shí)間為17.67 s,最大軸向誤差約為6 cm。
針對(duì)現(xiàn)實(shí)環(huán)境中光照強(qiáng)度對(duì)視覺(jué)系統(tǒng)的影響,張君軼等[84]提出一種嵌入式視覺(jué)系統(tǒng)。該系統(tǒng)主要是利用深度可分離卷積對(duì)YOLOv2進(jìn)行改造并將模型部署在MaixBit開(kāi)發(fā)板上。模型檢測(cè)精度為96.7%,檢測(cè)速度為25幀/秒,此系統(tǒng)解決了傳統(tǒng)算法難以處理的光照問(wèn)題。2022年,齊樂(lè)等[85]針對(duì)合作標(biāo)識(shí)存在的光照不均、模糊和反光等問(wèn)題提出基于改進(jìn)Unet的檢測(cè)方案,檢測(cè)速度高達(dá)83.33幀/秒。為了解決UAV在戶(hù)外低亮度環(huán)境下的自主著陸問(wèn)題,Lin等[86]提出一種基于模型的增強(qiáng)方案來(lái)提高機(jī)載相機(jī)捕獲圖像的質(zhì)量和亮度。
2.2.2 船艦平臺(tái)
車(chē)輛平臺(tái)的運(yùn)動(dòng)可以以某種方式抽象成二維運(yùn)動(dòng)。然而,在環(huán)境更加復(fù)雜多變的海上,船舶受環(huán)境影響具有三維運(yùn)動(dòng)的特點(diǎn)。因此,要求無(wú)人機(jī)實(shí)時(shí)解算出艦船和無(wú)人機(jī)自身的六自由度相對(duì)位置信息,這就要求視覺(jué)系統(tǒng)具有極高的運(yùn)算速度和精度。此外,海面上出現(xiàn)的水霧和其他惡劣天氣對(duì)視覺(jué)傳感器的成像質(zhì)量也有很大影響,這大大增加了艦載平臺(tái)無(wú)人機(jī)自主降落的難度。
由于海洋環(huán)境復(fù)雜,視覺(jué)系統(tǒng)易受到環(huán)境干擾無(wú)法全天候完成任務(wù)。為了克服水霧對(duì)視覺(jué)系統(tǒng)的影響,Xu等[87]提出一種在“T”的標(biāo)識(shí)上安裝加熱模塊并利用紅外相機(jī)實(shí)現(xiàn)夜間自主著陸,實(shí)驗(yàn)結(jié)果表明無(wú)人機(jī)的識(shí)別速度可達(dá)17.2 ms,準(zhǔn)確率達(dá)97.2%。夏正浩等[88]針對(duì)濃霧天氣下紅外目標(biāo)分割問(wèn)題,提出了一種能夠同時(shí)克服Otsu算法和最大熵算法誤分割問(wèn)題的組合分割方法。紅外標(biāo)識(shí)在一定程度上可以克服水霧影響,但其檢測(cè)結(jié)果易受溫度影響,在實(shí)際應(yīng)用場(chǎng)景下有一定的局限性。
相比于國(guó)外,國(guó)內(nèi)研究開(kāi)始的晚一些,但經(jīng)過(guò)不斷探索,也取得許多重要成果。2019年,在自主無(wú)人艇上實(shí)現(xiàn)了無(wú)人機(jī)在航行過(guò)程中的自主起降。合作標(biāo)識(shí)物采用了多圈嵌套方式,可以保證無(wú)人機(jī)在各種高度都能準(zhǔn)確高效地識(shí)別目標(biāo)。2020年,Li等[40]針對(duì)無(wú)人直升機(jī)視場(chǎng)小、圖像尺度變化大的問(wèn)題,提出一種新的特征提取結(jié)構(gòu)[40]。該算法利用了SSD(Single Shot MultiBox Detector)算法和KCF(Kernelized Correlation Filters)算法的相互修正,并兼顧了深度學(xué)習(xí)算法的優(yōu)點(diǎn)。該方法結(jié)合了高精度和強(qiáng)實(shí)時(shí)濾波算法的優(yōu)點(diǎn),檢測(cè)成功率為91.1%,平均處理速度為9 ms,滿(mǎn)足無(wú)人機(jī)自主著陸的任務(wù)需求。針對(duì)海浪導(dǎo)致的著陸平臺(tái)發(fā)生傾斜的問(wèn)題,劉豐等[89]提出一種基于視覺(jué)與著陸平臺(tái)姿態(tài)主動(dòng)反饋相結(jié)合的自主降落方案。在實(shí)際飛行中,當(dāng)傾角小于6°時(shí),成功降落率為90%。Meng等[90]提出一種視覺(jué)/慣性組合的無(wú)人機(jī)艦載著陸方法。首先利用機(jī)載相機(jī)檢測(cè)甲板跑道上的4個(gè)合作紅外標(biāo)識(shí),機(jī)載IMU估計(jì)無(wú)人機(jī)姿態(tài); 然后利用擴(kuò)展卡爾曼濾波算法融合視覺(jué)和慣性信息用以估計(jì)無(wú)人機(jī)相對(duì)于跑道的位置、姿態(tài)和速度以及船艦運(yùn)動(dòng)信息。仿真實(shí)驗(yàn)結(jié)果表明無(wú)人機(jī)與船艦距離小于400 m時(shí),無(wú)人機(jī)的運(yùn)動(dòng)估計(jì)精度在橫向和垂直距離達(dá)到0.2 m,縱向距離為0.5 m。
目前,在動(dòng)態(tài)目標(biāo)場(chǎng)地下的自主著陸領(lǐng)域,研究人員主要致力于克服運(yùn)動(dòng)平臺(tái)的三維運(yùn)動(dòng)特性和環(huán)境引起的協(xié)同目標(biāo)識(shí)別。在檢測(cè)準(zhǔn)確性和實(shí)時(shí)性能方面取得顯著進(jìn)步,然而大多數(shù)研究都是針對(duì)合作標(biāo)識(shí)物而非平臺(tái)結(jié)構(gòu),當(dāng)前的視覺(jué)算法很難在不依賴(lài)合作標(biāo)識(shí)物的情況下高效求解相對(duì)位姿。若能把算法擴(kuò)展到整個(gè)平臺(tái)的檢測(cè),將有效提高檢測(cè)距離,增強(qiáng)視覺(jué)算法的適應(yīng)性和魯棒性。
3 存在問(wèn)題及未來(lái)發(fā)展思考
基于視覺(jué)的無(wú)人機(jī)自主著陸系統(tǒng)以實(shí)時(shí)目標(biāo)和環(huán)境信息為基礎(chǔ)數(shù)據(jù),經(jīng)機(jī)載計(jì)算機(jī)處理后,為決策和控制系統(tǒng)提供位置和姿態(tài),從而引導(dǎo)無(wú)人機(jī)在復(fù)雜環(huán)境中自主著陸。基于視覺(jué)的自主著陸技術(shù)存在的問(wèn)題及對(duì)未來(lái)發(fā)展的思考如下:
(1) 系統(tǒng)的準(zhǔn)確性
準(zhǔn)確地檢測(cè)和跟蹤著陸目標(biāo)是無(wú)人機(jī)精準(zhǔn)著陸的重要前提,影響視覺(jué)檢測(cè)和跟蹤準(zhǔn)確性的關(guān)鍵因素之一是視覺(jué)數(shù)據(jù)本身的質(zhì)量。質(zhì)量差的視覺(jué)數(shù)據(jù),如模糊或扭曲的圖像,會(huì)使算法難以準(zhǔn)確檢測(cè)和跟蹤著陸目標(biāo)?,F(xiàn)有的圖像特征提取方法如閾值分割、提取輪廓和特征點(diǎn)等的準(zhǔn)確性受圖像質(zhì)量影響大,而且處理圖像識(shí)別過(guò)程中光照快速變化的方法很少。這在光照條件變化大的室外環(huán)境中,或者在著陸點(diǎn)附近可能存在高密度障礙物的復(fù)雜環(huán)境中尤其具有挑戰(zhàn)性。另一個(gè)挑戰(zhàn)是算法處理著陸目標(biāo)外形變化的能力。未來(lái),無(wú)人機(jī)自主著陸將會(huì)應(yīng)用到救援、戰(zhàn)場(chǎng)環(huán)境感知、排爆等復(fù)雜任務(wù)中,目標(biāo)著陸平臺(tái)外觀可能已經(jīng)受到損壞。為此,可以設(shè)計(jì)出與實(shí)際環(huán)境對(duì)比度高的標(biāo)識(shí)或考慮用熒光或紅外等輔助光源來(lái)增強(qiáng)識(shí)別系統(tǒng)的準(zhǔn)確性。
(2) 系統(tǒng)的穩(wěn)定性
無(wú)人機(jī)不能像地面機(jī)器人一樣在狀態(tài)估計(jì)有很大不確定性時(shí)就停止運(yùn)行,系統(tǒng)的穩(wěn)定性是自主著陸的重要因素之一。當(dāng)目標(biāo)平臺(tái)突然出現(xiàn)偏移或系統(tǒng)受到強(qiáng)風(fēng)干擾時(shí)會(huì)對(duì)系統(tǒng)穩(wěn)定性造成巨大挑戰(zhàn)。未來(lái)可以使用人工智能算法幫助視覺(jué)著陸系統(tǒng)學(xué)習(xí)和適應(yīng)不同環(huán)境和著陸場(chǎng)景。此外,系統(tǒng)的控制器必須能夠?qū)o(wú)人機(jī)的軌跡進(jìn)行實(shí)時(shí)調(diào)整,以補(bǔ)償環(huán)境因素等外部干擾造成的無(wú)人機(jī)位姿變化。最后,在仿真環(huán)境和真實(shí)環(huán)境中對(duì)視覺(jué)系統(tǒng)的穩(wěn)定性進(jìn)行全面測(cè)試和驗(yàn)證。因?yàn)榉抡姝h(huán)境無(wú)法完全復(fù)制真實(shí)世界條件的復(fù)雜性和不可預(yù)測(cè)性,視覺(jué)著陸系統(tǒng)初期可以在仿真環(huán)境下進(jìn)行評(píng)估和開(kāi)發(fā),后期需要在真實(shí)條件下進(jìn)行全面測(cè)試和實(shí)際驗(yàn)證以保證系統(tǒng)在各種場(chǎng)景下穩(wěn)定運(yùn)行。
(3) 系統(tǒng)的實(shí)時(shí)性
若無(wú)人機(jī)不能及時(shí)更新速度和姿態(tài),可能導(dǎo)致無(wú)人機(jī)偏離著陸目標(biāo)甚至墜毀,因此需要保證系統(tǒng)的實(shí)時(shí)性。實(shí)時(shí)性主要受檢測(cè)和跟蹤算法的運(yùn)算速度和機(jī)載計(jì)算機(jī)算力限制。通常,無(wú)人機(jī)的機(jī)載計(jì)算資源有限,需要大量的時(shí)間來(lái)處理獲得的數(shù)據(jù),降低了無(wú)人機(jī)對(duì)外部環(huán)境的反應(yīng)能力,這可能會(huì)導(dǎo)致漏檢、誤報(bào)或者無(wú)人機(jī)位置和方向的錯(cuò)誤估計(jì)。傳統(tǒng)的算法如輪廓檢測(cè)、KCF等計(jì)算量大、運(yùn)算速度慢。雖然基于深度學(xué)習(xí)的相關(guān)算法精度有所提升但模型參數(shù)量大,不能直接用于機(jī)載平臺(tái)。為了提高系統(tǒng)的實(shí)時(shí)性,一方面可以減少標(biāo)識(shí)物定位所需要的邊緣輪廓; 另一方面可以利用深度可分離卷積和參數(shù)量小的骨干網(wǎng)路對(duì)現(xiàn)有網(wǎng)絡(luò)模型進(jìn)行改造,以提高算法速度。
(4)" 多傳感器融合
基于視覺(jué)的著陸系統(tǒng)可以在著陸過(guò)程中為無(wú)人機(jī)提供精確的引導(dǎo),但受到一些限制和挑戰(zhàn),如環(huán)境因素(弱光、雨、霧和遮擋)和視覺(jué)感知的不確定性(圖像噪聲、相機(jī)校準(zhǔn)和物體識(shí)別)。通過(guò)集成多個(gè)傳感器,例如相機(jī)、激光雷達(dá)、GPS、IMU和高度計(jì),可以克服這些限制并提高著陸系統(tǒng)的準(zhǔn)確性和魯棒性。如激光雷達(dá)傳感器可以提供準(zhǔn)確可靠的距離測(cè)量,即使在弱光和有霧的條件下也是如此; 而GPS可以提供精確的位置信息,可用于糾正視覺(jué)估計(jì)中的漂移或錯(cuò)誤; IMU可以提供無(wú)人機(jī)姿態(tài)和加速度的高頻測(cè)量,可用于無(wú)人機(jī)在著陸過(guò)程中的運(yùn)動(dòng)和方向估計(jì); 傳感器融合算法可利用來(lái)自多個(gè)傳感器的信息,準(zhǔn)確可靠地估計(jì)無(wú)人機(jī)的位姿,提高無(wú)人機(jī)自主著陸系統(tǒng)的魯棒性。
4 結(jié) 束 語(yǔ)
近年來(lái),無(wú)人機(jī)系統(tǒng)不斷向數(shù)字化、智能化、自動(dòng)化、網(wǎng)絡(luò)化、集群化等方向發(fā)展。無(wú)人機(jī)的視覺(jué)自主降落系統(tǒng)在各領(lǐng)域都具有很大發(fā)展?jié)摿Γ虼?,深入研究無(wú)人機(jī)基于視覺(jué)自主降落技術(shù)是十分必要的。針對(duì)無(wú)人機(jī)的視覺(jué)自主降落問(wèn)題,本文根據(jù)相機(jī)放置位置和著陸平臺(tái)類(lèi)型整理和歸納了當(dāng)前固定翼無(wú)人機(jī)和旋翼無(wú)人機(jī)視覺(jué)自主著陸的若干研究進(jìn)展。 從公開(kāi)發(fā)表的研究成果來(lái)看,對(duì)于非機(jī)載視覺(jué)降落系統(tǒng)而言,大部分是由多個(gè)相機(jī)和高性能計(jì)算設(shè)備組成,運(yùn)算能力更強(qiáng),研究重點(diǎn)主要集中于固定翼無(wú)人機(jī); 對(duì)于機(jī)載視覺(jué)系統(tǒng)而言,研究較多的是旋翼無(wú)人機(jī),且針對(duì)靜平臺(tái)的自主降落研究比較多,目前研究重點(diǎn)逐步由靜平臺(tái)擴(kuò)展到動(dòng)平臺(tái)。部分學(xué)者提出的動(dòng)平臺(tái)方案更多的是關(guān)注于標(biāo)識(shí)本身,較少涉及動(dòng)平臺(tái)自身的檢測(cè)。此外,由于實(shí)際應(yīng)用場(chǎng)景的復(fù)雜性,以及無(wú)人機(jī)自身載荷與計(jì)算資源的限制,使得大部分研究成果停留在實(shí)驗(yàn)室仿真階段,缺乏有效的實(shí)驗(yàn)驗(yàn)證和實(shí)際場(chǎng)景應(yīng)用。
如果能針對(duì)無(wú)人機(jī)在視覺(jué)自主著陸的理論基礎(chǔ)和應(yīng)用中的難點(diǎn),抓住現(xiàn)有研究中的主要矛盾,緊跟人工智能技術(shù)發(fā)展熱潮,在系統(tǒng)抗干擾能力、穩(wěn)定性與實(shí)時(shí)性等方面取得突破性進(jìn)展,將極大促進(jìn)無(wú)人機(jī)視覺(jué)自主降落技術(shù)的發(fā)展。未來(lái),軟件算法的不斷突破和硬件設(shè)備的快速革新,必將推動(dòng)無(wú)人機(jī)視覺(jué)著陸技術(shù)的快速發(fā)展,邁向一個(gè)新臺(tái)階。
參考文獻(xiàn):
[1] Tan Y, Li G, Cai R Y, et al. Mapping and Modelling Defect Data from UAV Captured Images to BIM for Building External Wall Inspection[J]. Automation in Construction, 2022, 139: 104284.
[2] 任進(jìn), 李文邦, 郭昱汝. 基于無(wú)人機(jī)平臺(tái)的多目標(biāo)跟蹤算法[J]. 無(wú)線(xiàn)電工程, 2023, 53(1): 34-39.
Ren Jin, Li Wenbang, Guo Yuru. Multi-Target Tracking Algorithm Based on UAV Platform[J]. Radio Engineering, 2023, 53(1): 34-39.(in Chinese)
[3] 張景利, 張鵬, 吳愛(ài)枝, 等. 森林消防用實(shí)時(shí)三維定位建圖系統(tǒng)[J]. 機(jī)電工程技術(shù), 2021, 50(5): 125-128.
Zhang Jingli, Zhang Peng, Wu Aizhi, et al. Realtime 3D SLAM System for Forest Firefighting Applications[J]. Mechanical amp; Electrical Engineering Technology, 2021, 50(5): 125-128.(in Chinese)
[4] Liu X, He D Y, Ding H. Throughput Maximization for UAV-Enabled Full-Duplex Relay System in 5G Communications[J]. Physical Communication, 2019, 32: 104-111.
[5] Yu C, Yang Y, Cheng Y, et al. UAV-Based Pipeline Inspection System with Swin Transformer for the EAST[J]. Fusion Engineering and Design, 2022, 184: 113277.
[6] 張倩. 美國(guó)海軍陸戰(zhàn)隊(duì)?wèi)?zhàn)術(shù)無(wú)人機(jī)力量及運(yùn)用現(xiàn)狀[J]. 飛航導(dǎo)彈, 2021(9): 46-52.
Zhang Qian. US Marine Corps Tactical UAV Force and Its Application Status[J]. Aerodynamic Missile Journal, 2021(9): 46-52.(in Chinese)
[7] Liu D Q, Zhu X M, Bao W D, et al. SMART: Vision-Based Method of Cooperative Surveillance and Tracking by Multiple UAVs in the Urban Environment[J]. IEEE Transactions on Intelligent Transportation Systems, 2022, 23(12): 24941-24956.
[8] 金京濤. 無(wú)人飛行器在消防應(yīng)急救援領(lǐng)域的應(yīng)用探討[J]. 消防科學(xué)與技術(shù), 2016, 35(8): 1139-1142.
Jin Jingtao. Discussion on the Application of Unmanned Aerial Vehicles in Fire Emergency Rescue[J]. Fire Science and Technology, 2016, 35(8): 1139-1142.(in Chinese)
[9] 管敘軍, 王新龍. 視覺(jué)導(dǎo)航技術(shù)發(fā)展綜述[J]. 航空兵器, 2014(5): 3-8.
Guan Xujun, Wang Xinlong. Review of Vision-Based Navigation Technique[J]. Aero Weaponry, 2014(5): 3-8.(in Chinese)
[10] 盧艷軍, 劉颯. 基于視覺(jué)的無(wú)人機(jī)導(dǎo)航技術(shù)研究[J]. 自動(dòng)化儀表, 2021, 42(4): 1-7.
Lu Yanjun, Liu Sa. Research on UAV Navigation Technology Based on Vision[J]. Process Automation Instrumentation, 2021, 42(4): 1-7.(in Chinese)
[11] 江波, 屈若錕, 李彥冬, 等. 基于深度學(xué)習(xí)的無(wú)人機(jī)航拍目標(biāo)檢測(cè)研究綜述[J]. 航空學(xué)報(bào), 2021, 42(4): 524519.
Jiang Bo, Qu Ruokun, Li Yandong, et al. Object Detection in UAV Imagery Based on Deep Learning: Review[J]. Acta Aeronautica et Astronautica Sinica, 2021, 42(4): 524519.(in Chinese)
[12] Shah Alam M, Oluoch J. A Survey of Safe Landing Zone Detection Techniques for Autonomous Unmanned Aerial Vehicles (UAVs)[J]. Expert Systems with Applications, 2021, 179: 115091.
[13] 沈林成, 孔維瑋, 牛軼峰. 無(wú)人機(jī)自主降落地基/艦基引導(dǎo)方法綜述[J]. 北京航空航天大學(xué)學(xué)報(bào), 2021, 47(2): 187-196.
Shen Lincheng, Kong Weiwei, Niu Yifeng. Ground-and Ship-Based Guidance Approaches for Autonomous Landing of UAV[J]. Journal of Beijing University of Aeronautics and Astronautics, 2021, 47(2): 187-196.(in Chinese)
[14] 甄子洋. 艦載無(wú)人機(jī)自主著艦回收制導(dǎo)與控制研究進(jìn)展[J]. 自動(dòng)化學(xué)報(bào), 2019, 45(4): 669-681.
Zhen Ziyang. Research Development in Autonomous Carrier-Landing/Ship-Recovery Guidance and Control of Unmanned Aerial Vehicles[J]. Acta Automatica Sinica, 2019, 45(4): 669-681.(in Chinese)
[15] 趙良玉, 程喆坤, 高鳳杰, 等. 無(wú)人機(jī)/艇協(xié)同自主降落的若干關(guān)鍵技術(shù)[J]. 中國(guó)造船, 2020, 61(S1): 156-163.
Zhao Liangyu, Cheng Zhekun, Gao Fengjie, et al. Several Key Technologies of Unmanned Aerial Vehicle-Unmanned Surface Vehicle Cooperative Autonomous Landing[J]. Shipbuilding of China, 2020, 61(S1): 156-163.(in Chinese)
[16] Kong W W, Zhou D L, Zhang D B, et al. Vision-Based Autonomous Landing System for Unmanned Aerial Vehicle: A Survey[C]∥ International Conference on Multisensor Fusion and Information Integration for Intelligent Systems (MFI), 2014: 1-8.
[17] Wang W, Song G, Nonami K, et al. Autonomous Control for Micro-Flying Robot and Small Wireless Helicopter X.R.B[C]∥ IEEE/RSJ International Conference on Intelligent Robots and Systems, 2006: 2906-2911.
[18] Martínez C, Campoy P, Mondragón I, et al. Trinocular Ground System to Control UAVs[C]∥ IEEE/RSJ International Conference on Intelligent Robots and Systems, 2009: 3361-3367.
[19] Pebrianti D, Kendoul F, Azrad S, et al. Autonomous Hovering and Landing of a Quad-Rotor Micro Aerial Vehicle by Means of on Ground Stereo Vision System[J]. Journal of System Design and Dynamics, 2010, 4(2): 269-284.
[20] Ma Z W, Hu T J, Shen L C. Stereo Vision Guiding for the Auto-nomous Landing of Fixed-Wing UAVs: A Saliency-Inspired Approach[J]. International Journal of Advanced Robotic Systems, 2016, 13(2): 43-56.
[21] Guan B L, Sun X Y, Shang Y, et al. Multi-Camera Networks for Motion Parameter Estimation of an Aircraft[J]. International Journal of Advanced Robotic Systems, 2017, 14(1): 1-10.
[22] Liu F L, Wei Z Z, Zhang G J. An Off-Board Vision System for Relative Attitude Measurement of Aircraft[J]. IEEE Transactions on Industrial Electronics, 2022, 69(4): 4225-4233.
[23] Li M H, Hu T J. Deep Learning Enabled Localization for UAV Autolanding[J]. Chinese Journal of Aeronautics, 2021, 34(5): 585-600.
[24] Fu Q, Quan Q, Cai K Y. Robust Pose Estimation for Multirotor UAVs Using Off-Board Monocular Vision[J]. IEEE Transactions on Industrial Electronics, 2017, 64(10): 7942-7951.
[25] Fu Q, Zheng Z L. A Robust Pose Estimation Method for Multicopters Using Off-Board Multiple Cameras[J]. IEEE Access, 2020, 8: 41814-41821.
[26] Kong W W, Zhang D B, Wang X, et al. Autonomous Landing of an UAV with a Ground-Based Actuated Infrared Stereo Vision System[C]∥ IEEE/RSJ International Conference on Intelligent Robots and Systems, 2013: 2963-2970.
[27] Kong W W, Hu T J, Zhang D B, et al. Localization Framework for Real-Time UAV Autonomous Landing: An On-Ground Deployed Visual Approach[J]. Sensors, 2017, 17(6): 1437.
[28] Santos N P, Lobo V, Bernardino A. A Ground-Based Vision System for UAV Tracking[C]∥OCEANS 2015 MTS/IEEE Genova, 2015: 1-9.
[29] Pessanha Santos N, Lobo V, Bernardino A. Particle Filtering Based Optimization Applied to 3D Model-Based Estimation for UAV Pose Estimation[C]∥OCEANS 2017 MTS/IEEE Aberdeen, 2017: 1-10.
[30] Santos N P, Lobo V, Bernardino A. 3D Model-Based Estimation for UAV Tracking[C]∥OCEANS 2018 MTS/IEEE Charleston, 2018: 1-9.
[31] Santos N P, Lobo V, Bernardino A. Unmanned Aerial Vehicle Tracking Using a Particle Filter Based Approach[C]∥ IEEE Underwater Technology (UT), 2019: 1-10.
[32] Pessanha Santos N, Lobo V, Bernardino A. Fixed-Wing Unmanned Aerial Vehicle 3D-Model-Based Tracking for Autonomous Landing[J]. Drones, 2023, 7(4): 243.
[33] Olson E. AprilTag: A Robust and Flexible Visual Fiducial System[C]∥ IEEE International Conference on Robotics and Automation, 2011: 3400-3407.
[34] Wang J, Olson E. AprilTag 2: Efficient and Robust Fiducial Detection[C]∥ IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), 2016: 4193-4198.
[35] Jung Y, Lee D J, Bang H. Close-Range Vision Navigation and Guidance for Rotary UAV Autonomous Landing[C]∥ IEEE International Conference on Automation Science and Engineering (CASE), 2015: 342-347.
[36] Nguyen P H, Kim K W, Lee Y W, et al. Remote Marker-Based Tracking for UAV Landing Using Visible-Light Camera Sensor[J]. Sensors, 2017, 17(9): 1987.
[37] Nguyen P, Arsalan M, Koo J, et al. LightDenseYOLO: A Fast and Accurate Marker Tracker for Autonomous UAV Landing by Visible Light Camera Sensor on Drone[J]. Sensors, 2018, 18(6): 1703.
[38] 趙良玉, 李丹, 趙辰悅, 等. 無(wú)人機(jī)自主降落標(biāo)識(shí)檢測(cè)方法若干研究進(jìn)展[J]. 航空學(xué)報(bào), 2022, 43(9): 025882.
Zhao Liangyu, Li Dan, Zhao Chenyue, et al. Some Achievements on Detection Methods of UAV Autonomous Landing Markers[J]. Acta Aeronautica et Astronautica Sinica, 2022, 43(9): 025882.(in Chinese)
[39] Cheng H, Chen Y S, Li X K, et al. Autonomous Takeoff, Tracking and Landing of a UAV on a Moving UGV Using Onboard Monocular Vision[C]∥ 32nd Chinese Control Conference, 2013: 5895-5901.
[40] Li J H, Wang X H, Cui H R, et al. Research on Detection Technology of Autonomous Landing Based on Airborne Vision[J]. IOP Conference Series: Earth and Environmental Science, 2020, 440(4): 042093.
[41] Liu R, Yi J J, Zhang Y J, et al. Vision-Guided Autonomous Landing of Multirotor UAV on Fixed Landing Marker[C]∥ IEEE International Conference on Artificial Intelligence and Computer Applications (ICAICA), 2020: 455-458.
[42] Yuan H W, Xiao C S, Xiu S P, et al. A Hierarchical Vision-Based UAV Localization for an Open Landing[J]. Electronics, 2018, 7(5): 68.
[43] 陶孟衛(wèi), 姚宇威, 元海文, 等. 無(wú)人機(jī)自主降落視覺(jué)標(biāo)識(shí)設(shè)計(jì)及位姿測(cè)量方法[J]. 儀器儀表學(xué)報(bào), 2022, 43(5): 155-164.
Tao Mengwei, Yao Yuwei, Yuan Haiwen, et al. Visual Target Design and Pose Measurement Method for UAV Autonomous Landing[J]. Chinese Journal of Scientific Instrument, 2022, 43(5): 155-164.(in Chinese)
[44] Li Z, Chen Y, Lu H, et al. UAV Autonomous Landing Technology Based on AprilTags Vision Positioning Algorithm[C]∥ Chinese Control Conference (CCC), 2019: 8148-8153.
[45] 王宏飛, 石永康. ROI加速的無(wú)人機(jī)自主精準(zhǔn)降落系統(tǒng)[J]. 現(xiàn)代電子技術(shù), 2023, 46(6): 85-90.
Wang Hongfei, Shi Yongkang. UAV Autonomous Precise Landing System Based on ROI Acceleration[J]. Modern Electronics Technique, 2023, 46(6): 85-90.(in Chinese)
[46] Yang T, Ren Q A, Zhang F B, et al. Hybrid Camera Array-Based UAV Auto-Landing on Moving UGV in GPS-Denied Environment[J]. Remote Sensing, 2018, 10(11): 1829.
[47] 張咪, 趙勇, 布樹(shù)輝, 等. 基于階層標(biāo)識(shí)的無(wú)人機(jī)自主精準(zhǔn)降落系統(tǒng)[J]. 航空學(xué)報(bào), 2018, 39(10): 322150.
Zhang Mi, Zhao Yong, Bu Shuhui, et al. Multi-Level Marker Based Autonomous Landing System for UAVs[J]. Acta Aeronautica et Astronautica Sinica, 2018, 39(10): 322150.(in Chinese)
[48] 邢伯陽(yáng), 潘峰, 王位, 等. 基于復(fù)合地標(biāo)導(dǎo)航的動(dòng)平臺(tái)四旋翼飛行器自主優(yōu)化降落技術(shù)[J]. 航空學(xué)報(bào), 2019, 40(6): 322601.
Xing Boyang, Pan Feng, Wang Wei, et al. Moving Platform Self-Optimization Landing Technology for Quadrotor Based on Hybrid Landmark[J]. Acta Aeronautica et Astronautica Sinica, 2019, 40(6): 322601.(in Chinese)
[49] 孫雨婷, 李浩東. 旋翼無(wú)人機(jī)自主降落于運(yùn)動(dòng)無(wú)人艇的控制研究[J]. 電光與控制, 2021, 28(1): 86-89.
Sun Yuting, Li Haodong. Control of Rotor Drone’s Autonomous Landing on Moving Unmanned Surface Vehicle[J]. Electronics Optics amp; Control, 2021, 28(1): 86-89.(in Chinese)
[50] 孫凱, 于洋, 馮迎賓. 基于視覺(jué)的自主無(wú)人機(jī)目標(biāo)跟蹤著陸方法研究[J]. 沈陽(yáng)理工大學(xué)學(xué)報(bào), 2022, 41(5): 21-28.
Sun Kai, Yu Yang, Feng Yingbin. Research on Target Tracking and Landing Method of Autonomous UAV Based on Vision[J]. Journal of Shenyang Ligong University, 2022, 41(5): 21-28.(in Chinese)
[51] 賀勇, 李子豪, 高正濤. 基于視覺(jué)導(dǎo)航的無(wú)人機(jī)自主精準(zhǔn)降落[J/OL]. 電光與控制, 2023: 1-6.
He Yong, Li Zihao, Gao Zhengtao. Autonomous and Precise Landing of UAVs Based on Vision Navigation[J/OL]. Electronics Optics amp; Control, 2023: 1-6.(in Chinese)
[52] 汲振, 李建勝, 王安成, 等. 一種無(wú)人機(jī)輔助降落合作標(biāo)志與匹配算法[J]. 導(dǎo)航定位學(xué)報(bào), 2022, 10(5): 68-73.
Ji Zhen, Li Jiansheng, Wang Ancheng, et al. A Landmark and Matching Algorithm for UAV Assisted Landing[J]. Journal of Navigation and Positioning, 2022, 10(5): 68-73.(in Chinese)
[53] Chen J J, Miao X R, Jiang H, et al. Identification of Autonomous Landing Sign for Unmanned Aerial Vehicle Based on Faster Regions with Convolutional Neural Network[C]∥ Chinese Automation Congress (CAC), 2017: 2109-2114.
[54]Verbandt M, Theys B, De Schutter J. Robust Marker-Tracking System for Vision-Based Autonomous Landing of VTOL UAVs[C]∥" International Micro Air Vehicle Conference and Competition, 2014: 84-91.
[55] Morales J, Castelo I, Serra R, et al. Vision-Based Autonomous Following of a Moving Platform and Landing for an Unmanned Aerial Vehicle[J]. Sensors, 2023, 23(2): 829.
[56] Benini A, Rutherford M J, Valavanis K P. Real-Time, GPU-Based Pose Estimation of a UAV for Autonomous Takeoff and Landing[C]∥ IEEE International Conference on Robotics and Automation (ICRA), 2016: 3463-3470.
[57] Lee H, Jung S, Shim D H. Vision-Based UAV Landing on the Moving Vehicle[C]∥ International Conference on Unmanned Aircraft Systems (ICUAS), 2016: 1-7.
[58] Jung Y, Lee D J, Bang H. Study on Ellipse Fitting Problem for Vision-Based Autonomous Landing of an UAV[C]∥14th International Conference on Control, Automation and Systems (ICCAS), 2014: 1631-1634.
[59] Polvara R, Sharma S, Wan J A, et al. Vision-Based Autonomous Landing of a Quadrotor on the Perturbed Deck of an Unmanned Surface Vehicle[J]. Drones, 2018, 2(2): 15.
[60] Wubben J, Fabra F, Calafate C T, et al. Accurate Landing of Unmanned Aerial Vehicles Using Ground Pattern Recognition[J]. Electronics, 2019, 8(12): 1532.
[61] García-Pulido J A, Pajares G, Dormido S, et al. Recognition of a Landing Platform for Unmanned Aerial Vehicles by Using Compu-ter Vision-Based Techniques[J]. Expert Systems With Applications, 2017, 76: 152-165.
[62] Chen X D, Phang S K, Shan M, et al. System Integration of a Vision-Guided UAV for Autonomous Landing on Moving Platform[C]∥12th IEEE International Conference on Control and Automation (ICCA), 2016: 761-766.
[63] Baca T, Stepan P, Spurny V, et al. Autonomous Landing on a Moving Vehicle with an Unmanned Aerial Vehicle[J]. Journal of Field Robotics, 2019, 36(5): 874-891.
[64] Araar O, Aouf N, Vitanov I. Vision Based Autonomous Landing of Multirotor UAV on Moving Platform[J]. Journal of Intelligent amp; Robotic Systems, 2017, 85(2): 369-384.
[65] Khazetdinov A, Zakiev A, Tsoy T, et al. Embedded ArUco: A Novel Approach for High Precision UAV Landing[C]∥ International Siberian Conference on Control and Communications (SIBCON), 2021: 1-6.
[66] Sanchez-Lopez J L, Pestana J, Saripalli S, et al. An Approach Toward Visual Autonomous Ship Board Landing of a VTOL UAV[J]. Journal of Intelligent amp; Robotic Systems, 2014, 74(1/2): 113-127.
[67] Yang S W, Scherer S A, Zell A. An Onboard Monocular Vision System for Autonomous Takeoff, Hovering and Landing of a Micro Aerial Vehicle[J]. Journal of Intelligent amp; Robotic Systems, 2013, 69(1): 499-515.
[68] Chatterji G B, Menon P K, Sridhar B. Vision-Based Position and Attitude Determination for Aircraft Night Landing[J]. Journal of Guidance, Control, and Dynamics, 1998, 21(1): 84-92.
[69] Oszust M, Kapuscinski T, Warchol D, et al. A Vision-Based Method for Supporting Autonomous Aircraft Landing[J]. Aircraft Engineering and Aerospace Technology, 2018, 90(6): 973-982.
[70] Gui Y, Guo P Y, Zhang H L, et al. Airborne Vision-Based Navigation Method for UAV Accuracy Landing Using Infrared Lamps[J]. Journal of Intelligent amp; Robotic Systems, 2013, 72(2): 197-218.
[71] Doehler H U, Korn B R. Autonomous Infrared-Based Guidance System for Approach and Landing[C]∥ Society of Photo-Optical Instrumentation Engineers Conference on Enhanced and Synthetic Vision, 2004, 5424: 140-147.
[72] Gibert V, Plestan F, Burlion L, et al. Visual Estimation of Deviations for the Civil Aircraft Landing[J]. Control Engineering Practice, 2018, 75: 17-25.
[73] Li F, Tang D Q, Shen N. Vision-Based Pose Estimation of UAV from Line Correspondences[J]. Procedia Engineering, 2011, 15: 578-584.
[74] Hiba A, Szabo A, Zsedrovits T, et al. Navigation Data Extraction from Monocular Camera Images during Final Approach[C]∥ International Conference on Unmanned Aircraft Systems (ICUAS), 2018: 340-345.
[75] Le Bras F, Hamel T, Mahony R, et al. Approach Maneuvers for Autonomous Landing Using Visual Servo Control[J]. IEEE Transactions on Aerospace and Electronic Systems, 2014, 50(2): 1051-1065.
[76] Fan Y M, Ding M, Cao Y F. Vision Algorithms for Fixed-Wing Unmanned Aerial Vehicle Landing System[J]. Science China Technological Sciences, 2017, 60(3): 434-443.
[77] Burlion L, de Plinval H. Toward Vision Based Landing of a Fixed-Wing UAV on an Unknown Runway under some Fov Constraints[C]∥ International Conference on Unmanned Aircraft Systems (ICUAS), 2017: 1824-1832.
[78] Ruchanurucks M, Rakprayoon P, Kongkaew S. Automatic Landing Assist System Using IMU+PnP for Robust Positioning of Fixed-Wing UAVs[J]. Journal of Intelligent amp; Robotic Systems, 2018, 90(1/2): 189-199.
[79] Gonalves T F, Azinheira J R, Rives P. Vision-Based Automatic Approach and Landing of Fixed-Wing Aircraft Using a Dense Visual Tracking[C]∥ International Conference on Informatics in Control Automation and Robotics, 2011: 269-282.
[80] Keller A, Ben-Moshe B. A Robust and Accurate Landing Methodology for Drones on Moving Targets[J]. Drones, 2022, 6(4): 98.
[81] Zhao Z H, Han P, Xu Y F, et al. Vision-Based Autonomous Landing Control of a Multi-Rotor Aerial Vehicle on a Moving Platform with Experimental Validations[J]. IFAC-PapersOnLine, 2022, 55(3): 1-6.
[82] Truong N Q, Lee Y W, Owais M, et al. SlimDeblurGAN-Based Motion Deblurring and Marker Detection for Autonomous Drone Landing[J]. Sensors, 2020, 20(14): 3918.
[83] Rodriguez-Ramos A, Sampedro C, Bavle H, et al. A Deep Reinforcement Learning Strategy for UAV Autonomous Landing on a Moving Platform[J]. Journal of Intelligent amp; Robotic Systems, 2019, 93(1/2): 351-366.
[84] 張君軼, 陳仁文, 劉飛, 等. 基于嵌入式視覺(jué)的無(wú)人機(jī)目標(biāo)定位系統(tǒng)[J]. 國(guó)外電子測(cè)量技術(shù), 2023, 42(2): 171-176.
Zhang Junyi, Chen Renwen, Liu Fei, et al. UAV Target Positioning System Based on Embedded Vision[J]. Foreign Electronic Measurement Technology, 2023, 42(2): 171-176.(in Chinese)
[85] 齊樂(lè), 袁寶璽, 郭鳳娟, 等. 固定翼無(wú)人機(jī)著陸姿態(tài)角測(cè)量算法研究[J]. 導(dǎo)航定位學(xué)報(bào), 2022, 10(4): 56-64.
Qi Le, Yuan Baoxi, Guo Fengjuan, et al. Study on Landing Attitude Angle Measurement Algorithm of Fixed Wing Unmanned Aerial Vehicle[J]. Journal of Navigation and Positioning, 2022, 10(4): 56-64.(in Chinese)
[86] Lin S G, Jin L W, Chen Z W. Real-Time Monocular Vision System for UAV Autonomous Landing in Outdoor Low-Illumination Environments[J]. Sensors, 2021, 21(18): 6226.
[87] Xu G L, Zhang Y, Ji S Y, et al. Research on Computer Vision-Based for UAV Autonomous Landing on a Ship[J]. Pattern Recognition Letters, 2009, 30(6): 600-605.
[88] 夏正浩, 徐貴力, 程月華, 等. 基于視覺(jué)的無(wú)人機(jī)著艦中紅外合作目標(biāo)的分割方法研究[J]. 航空兵器, 2009(6): 28-30.
Xia Zhenghao, Xu Guili, Cheng Yuehua, et al. The Study of IR Segmentation of Cooperative Target in Vision-Based UAV Landing on Ship[J]. Aero Weaponry, 2009(6): 28-30.(in Chinese)
[89] 劉豐, 于洋, 郭璇, 等. 無(wú)人機(jī)自主著艦技術(shù)研究[J]. 燕山大學(xué)學(xué)報(bào), 2022, 46(4): 353-361.
Liu Feng, Yu Yang, Guo Xuan, et al. Research on Autonomous Landing Technology of UAV[J]. Journal of Yanshan University, 2022, 46(4): 353-361.(in Chinese)
[90] Meng Y, Wang W, Han H, et al. A Visual/Inertial Integrated Landing Guidance Method for UAV Landing on the Ship[J]. Aero-space Science and Technology, 2019, 85: 474-480.
A Review of Vision-Based Autonomous UAV Landing Research
Zhong Chunlai1,Yang Yang1,Cao Lijia1, 2, 3*,Wang Zhe4
(1. School of Automation and Information Engineering, Sichuan University of Science amp; Engineering,
Zigong 643000, China;
2. Artificial Intelligence Key Laboratory of Sichuan Province, Zigong 643000, China;
3. Key Laboratory of Higher Education of Sichuan Province for Enterprise Informationalization and Internet of Things,
Yibin 644000, China; 4. Sichuan Tengden Science and Technology Co., Chengdu 610037, China)
Abstract: UAVs are widely used in rescue and disaster relief, and autonomous landing is one of the key technologies in the application of UAVs. Due to the influence of accuracy and interference, traditional navigation technologies such as GPS and INS" often fail to meet the navigation requirements during landing. Vision-based autonomous landing system has the advantages of strong autonomy, low cost, low power consumption and strong anti-jamming capability, which is suitable for application in the navigation of the autonomous landing phase of UAVs. This paper summarises the current research results in the field of vision-based autonomous landing for UAVs. The camera installation locations and landing platform types are sorted out, the key technologies are compared and analysed, and the future development trends are pointed out.
Key words:" unmanned aerial vehicle; autonomous landing; computer vision; mark detection; navigation