陳 勇,劉亨立
(電子科技大學(xué)能源科學(xué)與工程學(xué)院 成都 611731;電子科技大學(xué)電動(dòng)汽車動(dòng)力系統(tǒng)與安全技術(shù)研究所 成都 611731)
·自動(dòng)化技術(shù)·
新型的無(wú)人機(jī)自主著陸地標(biāo)設(shè)計(jì)與研究
陳勇,劉亨立
(電子科技大學(xué)能源科學(xué)與工程學(xué)院成都611731;電子科技大學(xué)電動(dòng)汽車動(dòng)力系統(tǒng)與安全技術(shù)研究所成都611731)
在基于計(jì)算機(jī)視覺的無(wú)人機(jī)自主著陸過程中,地標(biāo)的設(shè)計(jì)與檢測(cè)以及無(wú)人機(jī)位姿估計(jì)是其中的關(guān)鍵問題。該文提出了一種基于極坐標(biāo)變換的無(wú)人機(jī)位姿估計(jì)算法,并設(shè)計(jì)了新型的著陸地標(biāo)。首先,充分利用極坐標(biāo)所需參數(shù)少、計(jì)算簡(jiǎn)單的優(yōu)點(diǎn),將極坐標(biāo)變換運(yùn)用到位姿估計(jì)算法中,由此設(shè)計(jì)了半圓環(huán)形狀的著陸地標(biāo);其次,利用顯著性檢測(cè)算法對(duì)地標(biāo)進(jìn)行檢測(cè),并利用Hough算法提取所檢測(cè)到的地標(biāo)中的直線;最后,實(shí)驗(yàn)結(jié)果表明該算法準(zhǔn)確快速,且適用于復(fù)雜背景的情況,該地標(biāo)在無(wú)人機(jī)自主著陸中是可行的。
自主著陸;地標(biāo);極坐標(biāo);無(wú)人機(jī)
在人類無(wú)法介入或者人力代價(jià)昂貴的情況下,無(wú)人機(jī)的使用是十分必要的[1],具有自主著陸能力的無(wú)人機(jī)更能體現(xiàn)其巨大優(yōu)勢(shì)。在軍事領(lǐng)域,具有自主著陸能力的無(wú)人機(jī)能更好地適應(yīng)艱苦的作戰(zhàn)環(huán)境,對(duì)基站相關(guān)輔助設(shè)備性能的要求也較低。當(dāng)作戰(zhàn)或自然災(zāi)害發(fā)生時(shí),基站的設(shè)備受到干擾或被損毀,相比于普通無(wú)人機(jī),具備自主著陸能力的無(wú)人機(jī)能更好地完成任務(wù)。在民用領(lǐng)域,具有自主著陸能力的無(wú)人機(jī)對(duì)人力資源的要求更低,降低了成本和事故發(fā)生的概率,減少了很多中間環(huán)節(jié),也大大提升了效率。
經(jīng)過多年的研究與發(fā)展,目前國(guó)內(nèi)外無(wú)人機(jī)應(yīng)用的自主著陸導(dǎo)航技術(shù)主要有慣性導(dǎo)航系統(tǒng)(INS)、GPS導(dǎo)航系統(tǒng)、光電導(dǎo)航系統(tǒng)、視覺導(dǎo)航系統(tǒng)及組合導(dǎo)航系統(tǒng)[2]。美國(guó)建設(shè)有完備的GPS系統(tǒng),可在全球范圍獲得高精度GPS定位信息,美國(guó)的無(wú)人機(jī)大多采用基于GPS/DGPS的著陸系統(tǒng)。但GPS信息容易受到干擾以及環(huán)境的影響,如多徑效應(yīng)、電磁噪聲等[3]。而且GPS系統(tǒng)只能提供無(wú)人機(jī)所在的位置信息,不能檢測(cè)其所在環(huán)境周圍的目標(biāo)[4]。慣性導(dǎo)航系統(tǒng)則存在定位誤差會(huì)隨使用時(shí)間延長(zhǎng)而增大,長(zhǎng)期精度差的缺點(diǎn)。光電導(dǎo)航系統(tǒng)由于自身功能的限制,一般只是作為輔助導(dǎo)航系統(tǒng)。與上述幾種導(dǎo)航系統(tǒng)相比,視覺導(dǎo)航系統(tǒng)具有隱蔽性、自主性、獨(dú)立性的優(yōu)點(diǎn),且其使用的相關(guān)傳感器具有重量輕、功耗低、體積小等優(yōu)點(diǎn)。
近年來(lái),基于計(jì)算機(jī)視覺的無(wú)人機(jī)自主著陸技術(shù)得到了海內(nèi)外科研機(jī)構(gòu)大量的研究,主要包括對(duì)著陸地標(biāo)的設(shè)計(jì)與檢測(cè)以及無(wú)人機(jī)位姿估計(jì)算法的研究。目前國(guó)內(nèi)外設(shè)計(jì)的地標(biāo)主要包括以下幾種形狀:圓形[5-6]、矩形[7]、H形[8-10]、T形[11-12]等及不同形狀的組合[13-15]。地標(biāo)的檢測(cè)方法主要包括:基于角點(diǎn)檢測(cè)的方法、基于圓特征的檢測(cè)方法、基于圓特征與角點(diǎn)的混合檢測(cè)方法、基于不變矩的檢測(cè)方法等。T形地標(biāo)簡(jiǎn)單實(shí)用,易于處理,但定位精度與姿態(tài)角精度需要提高;H形地標(biāo)目前在直升機(jī)降落領(lǐng)域?qū)嵱梅秶顝V,但由于其空間對(duì)稱性存在一定的缺陷,需要進(jìn)行優(yōu)化;矩形地標(biāo)有一定數(shù)量的特征點(diǎn),通過提取其特征點(diǎn),易于進(jìn)行位姿計(jì)算;圓形地標(biāo)易于識(shí)別與檢測(cè),但獲取位姿信息相對(duì)困難且精度相對(duì)較低;組合圖形可提供豐富的信息,但處理方法相對(duì)復(fù)雜,所需時(shí)間也較長(zhǎng)。位姿估計(jì)方法主要包括坐標(biāo)變換、GPS信息、估計(jì)方法、卡爾曼濾波、求方程法等。
本文設(shè)計(jì)了一個(gè)半圓環(huán)形狀的地標(biāo),該地標(biāo)簡(jiǎn)單易于處理,且能提供足夠的信息。針對(duì)該地標(biāo),本文提出了一種基于顯著性檢測(cè)算法的地標(biāo)檢測(cè)方法,該算法能突顯出地標(biāo)區(qū)域且有清晰的邊緣信息,在不需要進(jìn)行模板匹配的前提下能自動(dòng)檢測(cè)出目標(biāo)(地標(biāo))區(qū)域,大大減少了目標(biāo)檢測(cè)所需的處理時(shí)間。本文提出了一種新的基于極坐標(biāo)轉(zhuǎn)換的位姿估計(jì)算法,極坐標(biāo)系所需處理的參數(shù)少,且與距離、角度直接相關(guān),大大優(yōu)化了傳統(tǒng)的基于坐標(biāo)轉(zhuǎn)換的位姿估計(jì)算法。
1)為了保證著陸系統(tǒng)準(zhǔn)確得到無(wú)人機(jī)著陸所需的位姿信息,地標(biāo)要包含足夠多相關(guān)的特征信息;2)組成地標(biāo)的特征圖案及地標(biāo)的顏色要與周圍環(huán)境區(qū)別開,使其容易被識(shí)別;3)能夠在特定場(chǎng)合如艦艇船舶等著陸平臺(tái)進(jìn)行使用;4)能夠?qū)崟r(shí)處理,從而滿足實(shí)時(shí)性的要求。本文考慮到極坐標(biāo)系統(tǒng)所需參數(shù)少、計(jì)算量小的優(yōu)點(diǎn),設(shè)計(jì)了利于進(jìn)行極坐標(biāo)變換的著陸地標(biāo),如圖1所示。其中將地標(biāo)顏色設(shè)為黑色,便于將其與周圍環(huán)境區(qū)別,且利于檢測(cè)算法對(duì)其進(jìn)行檢測(cè)。
該地標(biāo)是一個(gè)半圓環(huán)形,兩個(gè)半徑不同的圓弧相連可得一條直線,將該直線設(shè)為世界坐標(biāo)系的x軸,其垂直且指向地標(biāo)的方向?yàn)閥軸正方向。該地標(biāo)顏色和形狀都較為特殊,易于對(duì)其進(jìn)行檢測(cè)和特征提取。首先建立一個(gè)以地標(biāo)為參照的基準(zhǔn)坐標(biāo)系,將相連所得直線的右方向設(shè)為x軸正方向,將與其垂直且向上的方向設(shè)為y軸正方向,如圖1所示。
圖1 基準(zhǔn)坐標(biāo)系
本文采用文獻(xiàn)[16]提出的顯著區(qū)域檢測(cè)算法對(duì)著陸地標(biāo)進(jìn)行檢測(cè),該算法計(jì)算量小,能一致凸顯顯著區(qū)域且有清晰的邊界,還能得到全分辨率的顯著圖,克服了以往大多數(shù)方法得到的顯著圖分辨率不高的問題。
首先需要對(duì)輸入圖像進(jìn)行濾波操作,為了減少計(jì)算量,用DoG濾波器近似LoG濾波器作為帶通濾波器,有:
定義ωlc和ωhc分別為低頻閾值和高頻閾值。為了突出顯著目標(biāo),需要考慮原始圖像中的低頻,即ωlc須非常低,這也利于一致突出顯著區(qū)域。為了得到清晰的目標(biāo)邊界,則需要保留原始圖像中的高頻,即ωhc須很高。為了避免噪聲、紋理圖案、塊效應(yīng)等的影響,最高的頻率被舍去。由于,ωlc由σ1決定,而ωhc由決定。將設(shè)為無(wú)限大以保證與有很大的比值,再令ωhc= π/2.75。
對(duì)于一幅寬為W高為H的原始圖像I,計(jì)算其顯著圖,有:
任何學(xué)生都有著自己獨(dú)一無(wú)二的不同成長(zhǎng)背景和生活環(huán)境,自然個(gè)性和愛好也不一樣。作為體育老師應(yīng)當(dāng)接受學(xué)生的這種差異性,并在充分尊重的基礎(chǔ)上來(lái)適當(dāng)?shù)恼{(diào)整。讓學(xué)生可以自由選出自己喜歡的運(yùn)動(dòng)內(nèi)容,如此將有助于學(xué)生提高體育鍛煉的積極性,學(xué)生才會(huì)主動(dòng)起來(lái)。例如,當(dāng)進(jìn)行體育與健康課的室外活動(dòng)時(shí),老師不妨使用自由學(xué)習(xí)的辦法,也就是由老師引導(dǎo)學(xué)生進(jìn)行相關(guān)的熱身運(yùn)動(dòng)以確保安全,再根據(jù)各個(gè)學(xué)生的不同情況進(jìn)行分組來(lái)做自由運(yùn)動(dòng)鍛煉,使學(xué)生可以增加體育運(yùn)動(dòng)熱情,逐漸養(yǎng)成終身鍛煉的習(xí)慣。這種教學(xué)方法可以進(jìn)行如下施行:
式中,Iμ是圖像像素的算術(shù)平均值;Iωhc是對(duì)原始圖像進(jìn)行高斯模糊以消除精細(xì)的紋理細(xì)節(jié)以及噪聲和編碼效應(yīng)后的圖像。為了利用顏色與亮度特征,將式(2)擴(kuò)展為:
其中,Iμ是圖像在Lab顏色空間的平均顏色特征向量;是高斯模糊后的圖像中對(duì)應(yīng)的特征向量。在Lab顏色空間中,每個(gè)像素都是一個(gè)[L,a,b]T向量,L2范數(shù)就是像素的歐式距離。
利用上述顯著性檢測(cè)算法對(duì)地標(biāo)進(jìn)行檢測(cè),結(jié)果如圖2所示。從檢測(cè)結(jié)果可以看到,該算法能一致凸顯地標(biāo)區(qū)域,且很好地保存了地標(biāo)的邊緣信息。
圖2 顯著性檢測(cè)結(jié)果
在檢測(cè)到地標(biāo)后,提取地標(biāo)中的直線以得到其與基準(zhǔn)坐標(biāo)的夾角。直線檢測(cè)采用Hough算法,調(diào)整參數(shù)后,將提取到的兩條直線合并為一條直線,結(jié)果如圖3所示。從圖中可以看到,Hough直線提取算法準(zhǔn)確地提取到了需要的直線信息。
圖3 直線檢測(cè)
圖4 復(fù)雜背景下的處理過程及結(jié)果
上述得到的檢測(cè)結(jié)果只是理論條件下的情況,考慮到在實(shí)際著陸過程中,地標(biāo)所處的環(huán)境會(huì)受到周圍環(huán)境的干擾,讓地標(biāo)處于復(fù)雜背景干擾的著陸點(diǎn)環(huán)境下,再對(duì)攝像機(jī)獲取到的圖像進(jìn)行相關(guān)檢測(cè),檢測(cè)結(jié)果如圖4所示。
將地標(biāo)置于復(fù)雜的草地背景下,拍攝得到的圖像如圖4a所示,顯著性檢測(cè)結(jié)果如圖4b所示,圖4c是對(duì)圖4b進(jìn)行閾值處理的結(jié)果,最后再利用Hough算法提取到直線,如圖4d所示。通過效果圖可以看到,當(dāng)?shù)貥?biāo)處于復(fù)雜的背景下,有多種雜物和顏色的干擾,顯著性檢測(cè)算法也能成功地將地標(biāo)檢測(cè)出來(lái),突出地標(biāo)區(qū)域,抑制背景區(qū)域。再對(duì)其進(jìn)行閾值化處理,以將背景分割出來(lái),并進(jìn)一步突出目標(biāo)區(qū)域,最后Hough算法成功提取所需要的直線。
位姿估計(jì)是導(dǎo)航系統(tǒng)在接收到傳感器采集的降落區(qū)域相關(guān)數(shù)據(jù)后,利用位姿估計(jì)算法求出無(wú)人機(jī)相對(duì)于降落區(qū)的位姿參數(shù),包括無(wú)人機(jī)的三維坐標(biāo)、偏航角、俯仰角和滾動(dòng)角。俯仰角β為機(jī)體軸與著陸地點(diǎn)所在平面的夾角;偏航角α為機(jī)體軸在著陸平面上的投影與跑道所在直線方向的夾角;滾動(dòng)角γ也稱為傾斜角,是機(jī)體軸縱平面與鉛垂面之間的夾角。為了保證無(wú)人機(jī)自主著陸的準(zhǔn)確性與安全性,得到精確、有效的位姿信息至關(guān)重要。根據(jù)計(jì)算位姿參數(shù)所依據(jù)的主導(dǎo)思想,可將目前常用的位姿估計(jì)方法分為3大類:基于投影關(guān)系的方法、基于幾何關(guān)系的方法和基于統(tǒng)計(jì)模式識(shí)別的方法[17]。
本文有如下假設(shè):1)無(wú)人機(jī)自身的晃動(dòng)忽略不計(jì);2)機(jī)載攝像頭保持固定,且其光軸與無(wú)人直升機(jī)軸線處于同一平面;3)地標(biāo)大小滿足降落要求。
圖5 世界坐標(biāo)系與無(wú)人機(jī)機(jī)體坐標(biāo)系
在完成地標(biāo)檢測(cè)與直線提取后,圖像的基準(zhǔn)坐標(biāo)固定,基準(zhǔn)方向與提取到的直線夾角即為偏航角。世界坐標(biāo)系與無(wú)人機(jī)機(jī)體坐標(biāo)系及偏航角、俯仰角和滾動(dòng)角的關(guān)系圖如圖5所示。其中,XYZ表示無(wú)人機(jī)坐標(biāo)系,xyz表示世界坐標(biāo)系,表示圖像坐標(biāo)系。
根據(jù)攝像機(jī)的小孔成像模型,圖像坐標(biāo)系與世界坐標(biāo)系有如下轉(zhuǎn)換關(guān)系:
其中,s是比例參數(shù);A是攝像機(jī)標(biāo)度矩陣(內(nèi)部參數(shù));t表示世界坐標(biāo)系的原點(diǎn)在攝像機(jī)坐標(biāo)系的位置坐標(biāo);R為歐幾里德常數(shù)矩陣,是一個(gè)正交旋轉(zhuǎn)變換矩陣;m是圖像坐標(biāo)系坐標(biāo);M是世界坐標(biāo)系坐標(biāo)。將式(4)擴(kuò)展為:
式中,φ是圖像坐標(biāo)系x軸與y軸之間的夾角;cx和cy是投影平面坐標(biāo)中心的位移大小,即圖5中點(diǎn)O1的坐標(biāo);fx和fy表示攝像機(jī)的兩個(gè)焦距參數(shù),其大小以像素為單位。歐幾里得常數(shù)矩陣可表示為:
對(duì)于空間中任意一點(diǎn)iP,其在世界坐標(biāo)系下的齊次坐標(biāo)表示為,在圖像坐標(biāo)系下的齊次坐標(biāo)為,可將兩個(gè)坐標(biāo)帶入式(5)進(jìn)行計(jì)算。由式(5)可知,比例參數(shù)s可為:
再將其帶入式(5)可得:
通過求解式(8)即可求得無(wú)人機(jī)的位姿參數(shù)。當(dāng)考慮到無(wú)人機(jī)自身的降落控制系統(tǒng)可將俯仰角和滾動(dòng)角都調(diào)整為零時(shí),歐幾里德常數(shù)矩陣可表示為:
將世界坐標(biāo)系表示成極坐標(biāo)的形式,地標(biāo)上兩個(gè)半圓的半徑分別為,有:
通過式(10)的坐標(biāo)系轉(zhuǎn)換關(guān)系可以發(fā)現(xiàn),計(jì)算需要的參數(shù)大大減少。在利用前文提取得到的偏航角大小后,只需要求出地標(biāo)參考中心到無(wú)人機(jī)在地面投影點(diǎn)的半徑大小和無(wú)人機(jī)的高度即可得到無(wú)人機(jī)的位姿參數(shù),計(jì)算過程得到了極大的簡(jiǎn)化。計(jì)算得到偏航角所需的時(shí)間與精確度是一個(gè)關(guān)鍵的步驟,下面將對(duì)其進(jìn)行實(shí)驗(yàn)驗(yàn)證。
本文對(duì)設(shè)計(jì)的地標(biāo)進(jìn)行了實(shí)驗(yàn)驗(yàn)證,采用1 300萬(wàn)攝像頭對(duì)地標(biāo)進(jìn)行采樣,進(jìn)行仿真的計(jì)算機(jī)的內(nèi)存大小為2 GB,CPU處理頻率為2.5 GHz。實(shí)際采集到的地標(biāo)圖像如圖5所示,本文計(jì)算無(wú)人機(jī)的偏航角并與真實(shí)數(shù)據(jù)進(jìn)行比對(duì),對(duì)比數(shù)據(jù)如表1所示。
表1 實(shí)驗(yàn)對(duì)比數(shù)據(jù)
本文實(shí)驗(yàn)有5組對(duì)比數(shù)據(jù),其中最大誤差為0.5°,平均誤差為0.3°。5組實(shí)驗(yàn)的最大處理時(shí)間為0.029 s,平均處理時(shí)間為0.021 s,處理速度約為48 幀/s,能滿足實(shí)時(shí)性的要求。對(duì)大量實(shí)際采集的地標(biāo)圖像進(jìn)行檢測(cè)的結(jié)果表明,地標(biāo)的檢測(cè)成功率為100%,直線提取成功率大于95%。綜上可知,在只考慮偏航角的情況下,本文提出的地標(biāo)檢測(cè)與位姿估計(jì)算法能很好地完成預(yù)期目標(biāo)。
[1]SARIPALLI S,MONTGOMERT J F,SUKHATME G S. Vision-based autonomous landing of an unmanned aerial vehicle[C]//Proceedings of the 2002 IEEE International Conference on Robotics & Automation. Washington DC,USA: IEEE,2002.
[2]張廣軍,周富強(qiáng). 基于雙圓特征的無(wú)人機(jī)著陸位置姿態(tài)視覺測(cè)量方法[J]. 航空學(xué)報(bào),2005,26(3): 344-348. ZHANG Guang-jun,ZHOU FU-qiang. Position and orientation estimation method for landing of unmanned aerial vehicle with two circle based computer vision[J]. Acta Aeronautica et Astronautica Sinica,2005,26(3): 344-348.
[3]MERZ T,DURANTI S,CONTE G. Autonomous landing of an unmanned helicopter based on vision and inertial sensing[C]//The 9th International Symposium on Experimental Robotics Series. Berlin Heidelberg: Springer,2006: 343-352.
[4]FENG Lin,CHEN B M,LEE T H. Vision aided motion estimation for unmanned helicopters in GPS denied environment[C]//IEEE Conference on Cybernetics and Intelligent Systems. Singapore: IEEE,2010: 64-69.
[5]LANGE S,SUNDERHAUF N,PROTZEL P. A vision based onboard approach for landing and position control of an autonomous multirotor UAV in GPS-denied environments[C]//International Conference on Advanced Robotics. Munich: IEEE,2009: 1-6.
[6]VERBANDT M,THEYS B,De SCHUTTER J. Robust marker-tracking system for vision-based autonomous landing of VTOL UAVs[C]//International Micro Air Vehicle Conference and Competition. Delf,Holland: Delft University of Technology,2014: 84-91.
[7]CUI Xu,QIU Lian-kui,LIU Ming,et al. Stereo vision based relative pose and motion estimation for unmanned helicopter landing[C]//IEEE International Conference on Robotics and Automation. Shandong,China: IEEE,2006: 31-36
[8]ZENG Fu-cen,SHI Hai-qing,WANG Hong. The object recognition and adaptive threshold selection in the vision system for landing an unmanned aerial vehicle[C]// International Conference on Information and Automation. Zhuhai/Macau,China: IEEE,2009: 117-122.
[9]YANG Fan,SHI Hai-qing,WANG Hong. A vision-based algorithm for landing unmanned aerial vehicles[C]// International Conference on Computer Science and Software Engineering. [S.l.]: IEEE,2008: 993-996.
[10]LUO Ke-zheng,MIAO Huan-zhou,WANG Lang. Recognition algorithm of landmark for quadrotors aircraft based on image feature of corner points[C]// IEEEInternational Conference on Information and Automation. Lijiang,China: IEEE,2015: 1437-1440.
[11]TSAI A,GIBBENS P,STONE R. Terminal phase vision-based target recognition and 3D pose estimation for a tail-sitter,vertical takeoff and landing unmanned air vehicle advances in image and video technology[J]. Advance in Image and Video Technology,2006,43(19): 672-681.
[12]XU Gui-li,ZHANG Yong,JI Sheng-yu,et al. Research on computer vision-based for UAV autonomous landing on a ship[J]. Pattern Recognition Letters,2009,30: 600-605.
[13]JAN I U,KHAN M. U,IQBAL N. Combined application of Kalman filtering and correlation towards autonomous helicopter landing[C]//2nd International Conference on Computer,Control and Communication. Karachi,Pakistan: IEEE,2009: 1-6.
[14]BAGEN Wu-lan,HU Ji-zhong,XU Yuan-ming. A vision-based unmanned helicopter ship board landing system[C]//2nd Image and Signal Processing. Tianjing,China: IEEE,2009: 12-15.
[15]JUNG Youe-yun,LEE Dong-jin,BANG Hyo-choong. Close-range vision navigation and guidance for rotary UAV autonomous landing[C]//IEEE International Conference on Automation Science and Engineering (CASE). Gothenburg,Sweden: IEEE,2015: 342-347.
[16]ACHANTA R,HEMAMI S,ESTRADA F,et al. Frequency-tuned salient region detection[C//IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Miami,FL,USA: IEEE,2009: 1597-1604.
[17]任沁源,李平,韓波. 基于視覺信息的微型無(wú)人直升機(jī)位姿估計(jì)[J]. 浙江大學(xué)學(xué)報(bào)(工學(xué)版),2009,43(1): 18-22. REN Qin-yuan,LI Ping,HAN Bo. Vision-based mini unmanned helicopter pose and position estimation[J]. Journal of Zhejiang University (Engineering Science),2009,43(1): 18-22.
編輯漆蓉
Novel Landmark Design of Autonomous Landing in Unmanned Aerial Vehicle
CHEN Yong and LIU Heng-li
(School of Energy Science and Engineering,University of Electronic Science and Technology of ChinaChengdu611731; Institute for Electric Vehicle Driving System and Safety Technology,University of Electronic Science and Technology of ChinaChengdu611731)
The design and detection of landmark and unmanned aerial vehicle (UAV)pose estimation are key points in the process of UAV autonomous landing based on computer vision. This paper proposes a pose estimation algorithm based on polar coordinates transform and designs a new landmark. Firstly,the polar coordinates transform is applied to the pose estimation algorithm for its related parameters are few and low computational complexity,then a landmark with hemi-toroidal shape is designed. Secondly,the saliency detection algorithm is used to detect the landmark,which is accurate,fast and robust to clutter background. Then the Hough transform algorithm is used to extract the lines of the detected landmark. Lastly,the experimental results show that the landmark is feasible in the process of UAV autonomous landing.
autonomous landing;landmark;polar coordinates;unmanned aerial vehicle
TP391
A
10.3969/j.issn.1001-0548.2016.06.010
2015 ? 09 ? 10;
2016 ? 03 ? 03
國(guó)家自然科學(xué)基金(61105030)
陳勇(1977 ? ),男,博士,教授,博士生導(dǎo)師,主要從事電氣控制、圖像處理方面的研究.