齊 樂,袁寶璽,郭鳳娟,郭建新,徐 悅,米 辰
固定翼無人機(jī)著陸姿態(tài)角測量算法研究
齊 樂1,袁寶璽1,郭鳳娟2,郭建新1,徐 悅1,米 辰1
(1. 西京學(xué)院 信息工程學(xué)院, 西安 710123;2. 陜西省組合與智能導(dǎo)航重點(diǎn)實(shí)驗(yàn)室,西安 710071)
針對(duì)固定翼無人機(jī)自主著陸過程中姿態(tài)角測量不精確的問題,提出了一種新的基于單目視覺的姿態(tài)角測量方法。并且針對(duì)現(xiàn)實(shí)環(huán)境中拍攝的合作目標(biāo)圖像存在的光照不均、反光和模糊等情況,提出了紋理增強(qiáng)和檢測效率優(yōu)化算法,消除了圖像退化對(duì)檢測結(jié)果的影響,從而實(shí)現(xiàn)了對(duì)光照退化具有魯棒性的檢測方案。實(shí)驗(yàn)結(jié)果表明,姿態(tài)角測量誤差為0.39°,每秒檢測幀數(shù)達(dá)到了83.33幀,能夠同時(shí)滿足無人機(jī)著陸誤差與實(shí)時(shí)性的要求。
固定翼無人機(jī);視覺導(dǎo)航;合作目標(biāo)檢測;姿態(tài)角測量
近年來,關(guān)于無人機(jī)自主著陸系統(tǒng)的研究取得了很多成果。其中大多數(shù)使用視覺導(dǎo)航[1-4]、全球衛(wèi)星導(dǎo)航系統(tǒng)(global navigation satellite system, GNSS)或慣性導(dǎo)航系統(tǒng)(inertial navigation system, INS)來估計(jì)無人機(jī)的狀態(tài)。慣導(dǎo)系統(tǒng)使用陀螺儀和加速器等慣性元件來獲取無人機(jī)的位置和速度,但慣導(dǎo)系統(tǒng)在長期飛行中往往由于累積誤差而漂移。GNSS被廣泛應(yīng)用于無人機(jī)的定位,但是GNSS依賴于他國衛(wèi)星,且在復(fù)雜的城市或室內(nèi)環(huán)境中很容易受到干擾。視覺導(dǎo)航通過對(duì)視覺傳感器獲取的圖像進(jìn)行處理,估計(jì)無人機(jī)的飛行狀態(tài)和相對(duì)位置。它具有設(shè)備簡單、信息量大、自主性強(qiáng)、抗干擾能力強(qiáng)等特點(diǎn)。因此,基于視覺的自主著陸方法在無GNSS環(huán)境下的優(yōu)勢(shì)尤為突出。
現(xiàn)有的基于視覺的自主著陸方法,采用的傳感器包括可見光和紅外攝像機(jī),研究大多集中于基于合作目標(biāo)的自主著陸方法。例如,文獻(xiàn)[5]提出了一種紅外攝像機(jī)陣列制導(dǎo)系統(tǒng),提供固定翼無人機(jī)的實(shí)時(shí)位置和速度,并在無GNSS環(huán)境下成功降落在跑道上。但是,由于地面上攝像機(jī)陣列系統(tǒng)設(shè)置復(fù)雜,這種方法不適合在狹窄的著陸區(qū)域使用。文獻(xiàn)[6]設(shè)計(jì)了一種地基驅(qū)動(dòng)紅外立體視覺系統(tǒng),但是當(dāng)背景中有高溫目標(biāo)時(shí),該方法無法精確捕捉目標(biāo)的中心。文獻(xiàn)[7]構(gòu)建了一個(gè)旋翼機(jī)自主著陸系統(tǒng),該系統(tǒng)采用了一個(gè)混合相機(jī)陣列,包括一個(gè)魚眼鏡頭相機(jī)和一個(gè)立體相機(jī)。然后將寬視場和深度成像相結(jié)合,實(shí)現(xiàn)了對(duì)著陸合作目標(biāo)的精確定位。對(duì)于可以懸停的旋翼無人機(jī)來說,在得到合作目標(biāo)的位置信息之后,通過水平面的平移和升降運(yùn)動(dòng)即可實(shí)現(xiàn)著陸。對(duì)于通過滑跑方式降落的固定翼無人機(jī)來說,必須通過實(shí)時(shí)控制姿態(tài)角(俯仰、滾轉(zhuǎn)和偏航角)來實(shí)現(xiàn)自主著陸,因而難度更大。
針對(duì)以上問題,本文提出了基于約洛v5s(you only look once v5s, YOLOv5s)結(jié)合n點(diǎn)透視(e-perspective-n-point, EPnP)算法的姿態(tài)角測量方法,通過YOLOv5s檢測合作目標(biāo),利用EPnP解算姿態(tài)角引導(dǎo)無人機(jī)進(jìn)行自主著陸。本文算法兼顧精度的同時(shí)保證了檢測的實(shí)時(shí)性,且本文提出的基于YOLOv5s和輕量級(jí)U型網(wǎng)絡(luò)的紋理增強(qiáng)和檢測效率優(yōu)化算法,消除了圖像退化對(duì)檢測結(jié)果的影響,進(jìn)一步提高了導(dǎo)航精度。
圖1 相機(jī)成像模型
即
圖2 無人機(jī)坐標(biāo)系
世界坐標(biāo)系與無人機(jī)坐標(biāo)系的關(guān)系為
n點(diǎn)透視(perspective-n-point,PnP)算法是由勒珀蒂(Lepetie)和莫雷諾(Moreno)在2009年提出的一種非迭代算法,文獻(xiàn)[9-10]從噪聲、實(shí)時(shí)性、特征點(diǎn)個(gè)數(shù)等角度將EPnP與比例正交投影迭代變換算法(pose from orthography and scaling with iterations,POSI)、直接線性轉(zhuǎn)換(direct linear transformation,DLT)等算法進(jìn)行對(duì)比,實(shí)驗(yàn)結(jié)果表明,EPnP算法精確度更高、魯棒性更強(qiáng)。該算法的核心思想是:因?yàn)槿S坐標(biāo)系中的任意一點(diǎn)都可以用4個(gè)控制點(diǎn)來加權(quán)表示,所以算法求解的問題就轉(zhuǎn)換成了4個(gè)控制點(diǎn)的求解與優(yōu)化問題。而控制點(diǎn)的坐標(biāo)可以通過檢測算法獲得,然后根據(jù)轉(zhuǎn)換關(guān)系求得旋轉(zhuǎn)矩陣與平移向量,從而解算出無人機(jī)的姿態(tài)角。算法流程如圖3所示。
圖3 算法流程
文獻(xiàn)[6]與文獻(xiàn)[11-13]中采用的合作目標(biāo)如圖4所示,這些合作目標(biāo)一般由黑白兩色組成,具有一定的編碼規(guī)則,具有較強(qiáng)的視覺特征。從廣義上講,圖4所示的合作目標(biāo)也是某種二維碼,但其模式比二維碼更簡單,包含的編碼信息更少。因此,在無人機(jī)接近著陸點(diǎn)時(shí),本文設(shè)計(jì)了如圖5(a)所示的快速響應(yīng)碼(quick response code,QR碼)圖像作為合作目標(biāo)。圖中像“回”字形的圖案部分被稱為“位置探測圖形(position detection patterns,PDP)”,根據(jù)EPNP算法需要4個(gè)控制點(diǎn)輸入的要求,本文設(shè)計(jì)的QR碼中間部分也是一個(gè)位置探測圖形,合作目標(biāo)檢測結(jié)果如圖5(b)所示。相對(duì)于圖4中的合作目標(biāo),二維碼的一個(gè)顯著優(yōu)勢(shì)是容量大,糾錯(cuò)能力強(qiáng),安全性高。QR編碼算法本身具有較強(qiáng)的自糾錯(cuò)能力,可以提高在存在污染和部分缺失情況下正確解碼的概率,從而提高復(fù)雜環(huán)境下合作目標(biāo)檢測的魯棒性。
圖4 無人機(jī)自主著陸合作目標(biāo)
圖5 合作目標(biāo)及其檢測結(jié)果
根據(jù)無人機(jī)姿態(tài)角的求解過程可知,影響無人機(jī)姿態(tài)角測量精度的關(guān)鍵因素在于是否精確定位到了合作目標(biāo)的位置。只有十分準(zhǔn)確地檢測到無人機(jī)獲取的圖像中的合作目標(biāo),得到其精確的位置坐標(biāo),然后進(jìn)行坐標(biāo)系的轉(zhuǎn)換得到旋轉(zhuǎn)矩陣,才能準(zhǔn)確求得無人機(jī)的姿態(tài)角,后續(xù)才能引導(dǎo)無人機(jī)進(jìn)行精準(zhǔn)地著陸。而由于無人機(jī)在飛行過程中速度極快,所以在對(duì)檢測算法進(jìn)行選擇時(shí),還要考慮算法的檢測速度,只有速度夠快才能達(dá)到實(shí)時(shí)解算姿態(tài)角控制無人機(jī)飛行狀態(tài)的要求。
YOLOv5s模型尺寸非常小,部署十分快速,默認(rèn)為批處理推理,單張圖像的推理速度能夠達(dá)到140幀每秒(frames per second, FPS),可以極大地滿足實(shí)時(shí)檢測的要求。將YOLOv5s與其他代表性的一階段和二階段目標(biāo)檢測算法進(jìn)行比較,其中二階段算法選取快速區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(faster region convolutional neural network, Faster R-CNN[14]),一階段算法選用約洛3(you only look once v3,YOLOv3[15])、YOLOv5m、YOLOv5l、YOLOv5x,將6種算法在統(tǒng)一的自制數(shù)據(jù)集上進(jìn)行模型的訓(xùn)練與推理,不同算法的性能對(duì)比結(jié)果如表1所示。表1中:mAP(mean average precision)為類平均精度,mAP@0.5為閾值為0.5時(shí)的類平均精度。
表1 不同算法性能對(duì)比
由表1可以看出: mAP最高的為YOLOv5x的98.29%,每秒檢測幀數(shù)最高的為YOLOv5s,達(dá)到了83.33。YOLOv5s相比于YOLOv5x速度提高了3.18倍,mAP僅比YOLOv5x低了0.29%??紤]到無人機(jī)的高速性,需要準(zhǔn)確度高、模型小、同時(shí)檢測速度滿足實(shí)時(shí)性要求的檢測算法,所以YOLOv5s算法為最優(yōu)選擇。
傳統(tǒng)U型網(wǎng)絡(luò)(u-network,UNet[16])的主干網(wǎng)絡(luò)部分使用的是視覺幾何群網(wǎng)絡(luò)(visual geometry group network,VGG16)模型,VGG16模型參數(shù)量大、要求的算力較高,模型權(quán)重大小約為490 MB,并不適用于移動(dòng)端或者嵌入式設(shè)備,所以傳統(tǒng)的Unet模型并不能滿足本文對(duì)合作目標(biāo)進(jìn)行實(shí)時(shí)檢測的需求。而移動(dòng)網(wǎng)絡(luò)(mobile network v2,MobileNetv2[17])使用深度可分離卷積結(jié)構(gòu),在提升了模型準(zhǔn)確率的同時(shí),大大減少了模型參數(shù)與計(jì)算量,極大提高了模型推理速度,可用于移動(dòng)端以及嵌入式設(shè)備進(jìn)行實(shí)時(shí)的特征提取。因此本文提出了基于YOLOv5s和改進(jìn)的U型網(wǎng)絡(luò)的光照退化魯棒檢測方案,將改進(jìn)的U型網(wǎng)絡(luò)命名為輕量級(jí)U型網(wǎng)絡(luò)(mobile network v2-u-network, MUnet)。
表2 MobileNetv2網(wǎng)絡(luò)結(jié)構(gòu)參數(shù)
本文使用大疆云臺(tái)相機(jī)禪思Zenmuse Z30在操場進(jìn)行了實(shí)機(jī)實(shí)驗(yàn)。實(shí)驗(yàn)中無人機(jī)以不同角度,不同高度由遠(yuǎn)及近拍攝視頻,然后將視頻轉(zhuǎn)換為圖像序列。圖6所示為獲得的不同飛行條件下的QR碼圖像。
圖6 不同飛行條件下的QR碼圖像
從圖6可以看出,合作目標(biāo)在現(xiàn)實(shí)環(huán)境中受光照影響很大,經(jīng)相機(jī)拍攝會(huì)出現(xiàn)光照不均、反光和模糊等情況,導(dǎo)致目標(biāo)檢測精確度大大降低,從而影響真實(shí)無人機(jī)姿態(tài)角測量的精度。實(shí)驗(yàn)表明,直接使用YOLOv5s檢測場景中的合作目標(biāo)的PDP時(shí)存在漏檢情況,如圖7左圖中的3個(gè)PDP圖案中只檢測到了2個(gè),右圖中的3個(gè)PDP圖案全部沒有檢測到。
但是,如果將整個(gè)QR碼圖像作為被檢測目標(biāo),存在光照不均、反光和模糊等情況的QR碼圖像的檢測率會(huì)大大提升,實(shí)驗(yàn)結(jié)果顯示,檢測整個(gè)QR圖像的準(zhǔn)確率能夠提高到95%,檢測結(jié)果如圖8所示。
然而將整個(gè)QR碼圖像作為被檢測目標(biāo),只能得到1個(gè)控制點(diǎn),無法滿足EPnP算法的使用條件,所以仍然需要得到QR碼圖像中的位置探測圖案的坐標(biāo)信息,因此必須要解決經(jīng)相機(jī)拍攝的QR碼圖像存在的光照不均、反光和模糊等退化問題。由于QR圖像存在大量的紋理,經(jīng)實(shí)驗(yàn)發(fā)現(xiàn)基于深度學(xué)習(xí)的UNet網(wǎng)絡(luò)能夠有效解決紋理圖像中的光照不均、反光和模糊等退化問題。圖9(a)為退化圖像,圖9(b)為采用MUNet網(wǎng)絡(luò)進(jìn)行紋理增強(qiáng)之后的圖像。
圖7 真實(shí)場景漏檢情況
圖8 整個(gè)QR圖像檢測結(jié)果
圖9 紋理增強(qiáng)前后圖像對(duì)比
因此,本文設(shè)計(jì)了基于YOLOv5s和MUnet的光照退化魯棒檢測方案:
1)使用YOLOv5s檢測整個(gè)QR圖像,并按照檢測得到的外接框作為感興趣區(qū)域(圖8所示)把QR圖像分割出來,分割結(jié)果如圖9(a)所示。這樣做的目的是,將紋理增強(qiáng)限定在QR圖像范圍內(nèi)以減少計(jì)算面積;
2)將QR圖像進(jìn)行紋理增強(qiáng),增強(qiáng)效果如圖9(b)所示,從實(shí)驗(yàn)結(jié)果可以看到,圖9(a)中存在的光照不均、反光和模糊等退化問題都能得到有效增強(qiáng)??紤]到無人機(jī)實(shí)時(shí)性檢測這一特點(diǎn),為了更進(jìn)一步提高整個(gè)算法的效率,本文將傳統(tǒng)的UNet網(wǎng)絡(luò)進(jìn)行了改進(jìn),使用更加輕量級(jí)的MobileNetv2代替?zhèn)鹘y(tǒng)UNet網(wǎng)絡(luò)中的VGG16作為主干網(wǎng)絡(luò),使得紋理增強(qiáng)時(shí)間更進(jìn)一步減少10倍左右;
3)在增強(qiáng)之后的圖像中,再次使用YOLOv5s檢測PDP定位圖案,其檢測也是在感興趣區(qū)域內(nèi)進(jìn)行,實(shí)驗(yàn)結(jié)果表明,將第三步的檢測范圍限制在感興趣區(qū)域內(nèi)可以同時(shí)提高檢測精度和檢測速度。
模型訓(xùn)練采用批處理的方式、將提取的8000張圖像中的每8張為一個(gè)批次輸入搭建好的MUnet模型進(jìn)行訓(xùn)練,最大訓(xùn)練輪數(shù)設(shè)為1000、損失函數(shù)使用交叉熵?fù)p失,表3記錄了基于MUnet的QR碼紋理增強(qiáng)算法的推理結(jié)果,由表3可以看出,加權(quán)調(diào)和平均值為0.923,準(zhǔn)確率較高,且推理每張圖像的平均時(shí)間為0.0067s,說明MUnet算法的推理速度很快。
表3 模型推理結(jié)果
圖6中不同飛行條件下的QR碼圖像經(jīng)MUnet網(wǎng)絡(luò)進(jìn)行紋理增強(qiáng)后的效果如圖10所示。
使用YOLOv5s分別對(duì)圖6(a)、圖6(b)、圖6(c)、圖6(d)和圖10中的圖10(a′)、圖10(b′)、圖10(c′)、圖10(d′)進(jìn)行檢測,檢測結(jié)果對(duì)比如圖11所示。
從圖11所示的結(jié)果中可以看出,紋理增強(qiáng)后的PDP定位圖案的檢測效果有了明顯的提升,特別是圖6(c)、圖6(d)兩圖,原圖經(jīng)YOLOv5s檢測后并沒有檢測到任何信息,所以圖11并未加入圖6(c)、圖6(d)兩幅原圖進(jìn)行對(duì)比,而圖10(c′)、圖10(d′)中的PDP定位圖案都能檢測到。實(shí)驗(yàn)統(tǒng)計(jì)結(jié)果顯示,檢測指標(biāo)mAP由原來的33.27%提高到了96.35%。
圖10 QR碼紋理增強(qiáng)效果
圖11 紋理增強(qiáng)前后檢測結(jié)果
姿態(tài)角測量實(shí)驗(yàn)過程設(shè)計(jì)為三步:1)給定飛行高度和初始姿態(tài)角作為姿態(tài)基準(zhǔn)值,無人機(jī)按照設(shè)計(jì)的路線著陸,獲取第一組著陸圖像;2)保持飛行高度不變,改變初始姿態(tài)角度值再次進(jìn)行著陸,獲取第二組著陸圖像;3)重復(fù)第二步獲取足夠多姿態(tài)角度的無人機(jī)著陸圖像數(shù)據(jù)。本文設(shè)定共獲取7組不同姿態(tài)下的著陸圖像。最后,根據(jù)拍攝所獲得的不同姿態(tài)下的著陸圖像求解無人機(jī)的姿態(tài)角,并與基準(zhǔn)值進(jìn)行對(duì)比,驗(yàn)證本文所提出的算法的有效性。其中本文設(shè)計(jì)的7組實(shí)驗(yàn)中姿態(tài)角基準(zhǔn)值如表3所示。
表3 各組實(shí)驗(yàn)姿態(tài)角度
各組無人機(jī)姿態(tài)角測量誤差如表4所示。由表4可知,通過本文提出的“YOLOv5s+EPnP”算法解算的3個(gè)姿態(tài)角的誤差均值為0.39°。與文獻(xiàn)[18]基于雙目視覺測距原理使用“Faster R-CNN+PnP”算法求解旋翼無人機(jī)姿態(tài)角的方法相比,本文方法在檢測一張圖像的時(shí)間上提高了96%,檢測準(zhǔn)確率提高了0.41%,測量誤差降低了38%。實(shí)驗(yàn)結(jié)果表明了本文算法能夠獲得快速、準(zhǔn)確并且穩(wěn)定的測量結(jié)果。
表4 無人機(jī)姿態(tài)角測量誤差
本文采用的基于YOLOv5s和MUnet的紋理增強(qiáng)和檢測效率優(yōu)化算法,消除了現(xiàn)實(shí)場景圖像退化對(duì)檢測結(jié)果的影響,采用的“YOLOv5s+EPnP”的姿態(tài)角測量方法,檢測速度快、測量誤差小能夠同時(shí)滿足測量精度和速度的要求,具有很大的工程實(shí)用價(jià)值。在后續(xù)的研究中,可以根據(jù)仿真實(shí)驗(yàn)中驗(yàn)證成熟的算法,逐步移植到實(shí)際固定翼無人機(jī)硬件中,并增加實(shí)際硬件相關(guān)參數(shù)的設(shè)定,最終實(shí)現(xiàn)自主著陸的工程應(yīng)用。
[1] 徐貴力, 倪立學(xué), 程月華. 基于合作目標(biāo)和視覺的無人飛行器全天候自動(dòng)著陸導(dǎo)引關(guān)鍵技術(shù)[J]. 航空學(xué)報(bào), 2008, 29(2): 437-442.
[2] FORSTER C, PIZZOLI M, SCARAMUZZA D. SVO: Fast semi-direct monocular visual odometry[C]// The Institute of Electrical and Electronic Engineers (IEEE). Proceedings of International Conference on Robotics and Automation. Hong Kong: IEEE, 2014: 15-22[2020-08-28].
[3] 張小正, 周鑫, 陳麗娟, 等. 無人機(jī)視覺著陸位姿參數(shù)估計(jì)方法[J].電光與控制, 2017(5): 26-29.
[4] 戴江鵬. 基于單目視覺的無人機(jī)位姿估計(jì)算法研究[D].北京:北京理工大學(xué),2018.
[5] YANG T, LI G, LI J, et al. A ground-based near infrared camera array system for UAV auto-landing in GPS-denied environment[J]. Sensors, 2016, 16(9): 1393-1393.
[6] KONG W, ZHANG D, WANG X, et al. Autonomous landing of an UAV with a ground-based actuated infrared stereo vision system[C]//The Institute of Electrical and Electronic Engineers (IEEE). Proceedings of International Conference on Intelligent Robots & Systems. Tokyo: IEEE, 2013: 2963-2970[2020-08-28].
[7] YANG T, REN Q, ZHANG F B, et al. Hybrid camera array-based UAV auto-landing on moving UGV in GPS-denied environment[J]. Remote Sensing, 2018, 10(11): 1-31.
[8] LEPETIT V, MORENO-NOGUER F, FUA P. EPnP: an accurate O(n) solution to the PnP problem[J]. International Journal of Computer Vision, 2009, 81(2): 155-166.
[9] 武君, 白剛, 張彩霞. EPNP和POSIT算法在頭部姿態(tài)估計(jì)上的實(shí)驗(yàn)比較與分析[J].北方工業(yè)大學(xué)學(xué)報(bào), 2017, 29(2): 19-27.
[10] 鄧非, 吳幼絲. 球形全景影像位姿估計(jì)的改進(jìn)EPnP算法[J]. 測繪學(xué)報(bào), 2016, 45(6): 677-684.
[11] LI J, MA X, CHEN H, et al. Real-time detection and tracking method of landmark based on UAV visual navigation[J]. Journal of Northwestern Polytechnical University, 2018, 36(2): 294-301.
[12] SHARP C S, SHAKERNIA O, SASTRYS S. A vision system for landing an unmanned aerial vehicle[C]//The Institute of Electrical and Electronic Engineers (IEEE). Proceedings of International Conference on Robotics and Automation. Seoul: IEEE, 2001(02): 1720-1727[2020-08-28].
[13] LANGE S, SUNDERHAUF N, PROTZEL P. A vision based onboard approach for landing and position control of an autonomous multirotor UAV in GPS-denied environments[C]//The Institute of Electrical and Electronic Engineers (IEEE). Proceedings of International Conference on Advanced Robotics. Munich: IEEE, 2009: 1-6[2020-08-28].
[14] REN S, HE K, GIRSHICK R, et al. Faster R-CNN: Towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2017, 39(6): 1137-1149.
[15] REDMON J, DDIVVALA S, GIRSHICK R, et al. You only look once: unified, real-time object detection[C]//The Institute of Electrical and Electronic Engineers (IEEE). Proceedings of Computer Vision & Pattern Recognition. Las Vegas: IEEE, 2016: 779-788[2020-08-28].
[16] RONNEBERGER O, FISCHER P, BROX T. U-Net: convolutional networks for biomedical image segmentation[EB/OL].(2015-11-18)[2020-08-18].https://link.springer.com/content/pdf/10.1007/978-3-319-24574-4_28.pdf.
[17] SANDLER M, HOWARD A, ZHU M, et al. MobileNetV2: inverted residuals and linear bottlenecks[C]//The Institute of Electrical and Electronic Engineers (IEEE). Proceedings of Conference on Computer Vision and Pattern Recognition. Salt Lake City: IEEE, 2018: 4510-4520[2020-08-28].
[18] 張嘉旭. 基于深度學(xué)習(xí)的無人機(jī)位姿視覺測量與計(jì)算方法[D]. 西安: 西安理工大學(xué), 2019.
Study on landing attitude angle measurement algorithm of fixed wing unmanned aerial vehicle
QI Le1, YUAN Baoxi1, GUO Fengjuan2, GUO Jianxin1, XU Yue1, MI Chen1
(1. School of Information Engineering, Xijing University, Xi’an 710123, China;2. Shaanxi Key Laboratory of Integrated and Intelligent Navigation, Xi’an 710071, China)
According to the fact that there is no enough algorithm of attitude angle measurement during autonomous landing of fixed wing Unmanned Aerial Vehicle (UAV), a new attitude angle measurement method based on monocular vision is proposed. In view of the illumination imbalance, reflection and blur of cooperative target images taken in the real environment, texture enhancement and detection efficiency optimization algorithm are proposed to eliminate the influence of image degradation on detection results, so as to realize the detection scheme with robustness to illumination degradation. Experimental results show that the mean of attitude angle error is 0.39, and the number of detection frames per second reached 83.33, which can meet the requirements of UAV landing error and real time simultaneously.
fixed wing unmanned aerial vehicle; visual navigation; cooperative target detection; attitude angle measurement
P228
A
2095-4999(2022)04-0056-09
齊樂,袁寶璽,郭鳳娟,等. 固定翼無人機(jī)著陸姿態(tài)角測量算法研究[J]. 導(dǎo)航定位學(xué)報(bào), 2022, 10(4): 56-64.(QI Le, YUAN Baoxi, GUO Fengjuan,et al. Study on landing attitude angle measurement algorithm of fixed wing unmanned aerial vehicle[J]. Journal of Navigation and Positioning, 2022, 10(4): 56-64.)DOI:10.16547/j.cnki.10-1096.20220408.
2020-10-10
陜西省重點(diǎn)研發(fā)計(jì)劃工業(yè)領(lǐng)域一般項(xiàng)目(2021GY-341)。
齊樂(1997—),女,河北滄州人,碩士研究生,研究方向?yàn)橐曈X導(dǎo)航、圖像處理。
袁寶璽(1974—),男,甘肅定西人,博士,副教授,研究方向?yàn)橐曈X導(dǎo)航、圖像處理等。