亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        一種用于無(wú)人機(jī)室內(nèi)定位的改進(jìn)ORB光流算法

        2021-02-22 12:00:32於小杰劉盛華
        關(guān)鍵詞:特征

        於小杰,賀 勇,劉盛華

        長(zhǎng)沙理工大學(xué) 電氣與信息工程學(xué)院,長(zhǎng)沙 410000

        無(wú)人機(jī)傳統(tǒng)導(dǎo)航方法中GPS定位是首選,但其在室內(nèi)由于建筑物的阻擋,導(dǎo)致信號(hào)弱,定位差,不能滿足導(dǎo)航需求。因此,在室內(nèi)采用視覺(jué)導(dǎo)航[1-2]方案成為近幾年眾多院校研究熱點(diǎn),其著重于:(1)如何快速地提取、跟蹤穩(wěn)定特征點(diǎn);(2)如何高效地處理特征點(diǎn)錯(cuò)誤匹配的情況;(3)如何解決光流跟蹤失敗的問(wèn)題。其中大部分研究基礎(chǔ)源自Rublee 提出的ORB(Oriented FAST and Rotated BRIEF)特征提取算法[3]:將FAST(Features From Accelerated Segment Test)特征點(diǎn)檢測(cè)器與BRIEF(Binary Robust Independent Elementary Features)描述符相結(jié)合的一種算法。該算法的特征點(diǎn)匹配速度遠(yuǎn)遠(yuǎn)高于SIFT(Scale Invariant Feature Transform)和SURF(Speeded Up Robust Features)[4],保證了特征提取的實(shí)時(shí)性,但匹配精度較差,誤匹配率高。因此,在滿足實(shí)時(shí)性的同時(shí),提高基于ORB特征的光流精度就變得有意義了。

        為了提高ORB 光流的精度,很多人員對(duì)其展開(kāi)研究。唐浩等[5]將ORB 特征與FAST 角點(diǎn)光流融合,利用Hessian矩陣提取ORB特征,以此獲得尺度不變性,通過(guò)循環(huán)迭代獲得相應(yīng)的速度估計(jì),但其誤匹配度仍然較高,導(dǎo)致定位精度較低;王亭亭等[6]采用基于原始ORB特征的LK 光流法,利用隨機(jī)抽樣一致濾波(Random Sample Consensus,RANSAC)來(lái)提高光流場(chǎng)的精度,再融合里程計(jì)、慣導(dǎo)等信息,實(shí)現(xiàn)了無(wú)人機(jī)室內(nèi)導(dǎo)航,擁有較高的實(shí)時(shí)性,但其光流速度估計(jì)處理較為簡(jiǎn)單,采用傳統(tǒng)的前向-后向追蹤策略,濾除誤匹配效果不理想;郝志洋等[7]結(jié)合SURF算法的尺度不變特點(diǎn)和ORB算法的快速性特點(diǎn),創(chuàng)新性地提出了SURB 算法,并利用漸進(jìn)一致采樣算法(Progressive Sample Consensus,PROSAC)去除誤匹配,實(shí)現(xiàn)了室內(nèi)定位功能,但其算法較為復(fù)雜,尤其是PROSAC算法對(duì)所有匹配點(diǎn)不斷迭代篩選,導(dǎo)致整體實(shí)時(shí)性較低。以上算法相較于原始ORB算法有一定程度的改進(jìn),但無(wú)人機(jī)在三維空間中是運(yùn)動(dòng)的,擁有6個(gè)自由度,對(duì)算法的實(shí)時(shí)性、魯棒性要求較高,必須在延時(shí)性、準(zhǔn)確性和兼容性等方面綜合考慮可行的視覺(jué)導(dǎo)航方案。

        針對(duì)實(shí)時(shí)性、準(zhǔn)確性和魯棒性等問(wèn)題,本文提出一種改進(jìn)的ORB 特征光流算法。首先,采用ORB 算法提取每幀圖像的特征點(diǎn),送入金字塔中估計(jì)下一幀點(diǎn)集坐標(biāo);其次,采用前后雙向單追蹤策略進(jìn)行粗匹配;最后,采用FLANN-KNN 匹配規(guī)則和前后雙向雙追蹤策略進(jìn)行精細(xì)匹配,達(dá)到濾除誤匹配點(diǎn)集的目的。

        1 實(shí)驗(yàn)平臺(tái)搭建

        本文搭建的實(shí)驗(yàn)平臺(tái)包括以下部分:華駿HJ816四軸無(wú)人機(jī)、基于樹(shù)莓派3 的BirdVisionV3 機(jī)器視覺(jué)模組、匿名科創(chuàng)地面站、遙控器、keil5 編譯軟件以及Open Vision Studio IDE編譯軟件等。

        BirdVisionV3 機(jī)器視覺(jué)模組有兩個(gè)作用:第一,作為相機(jī),為驗(yàn)證本文算法的實(shí)際效果提供平臺(tái);第二,在實(shí)際飛行實(shí)驗(yàn)時(shí),置于無(wú)人機(jī)底部作為光流傳感器,攝像頭采集圖像數(shù)據(jù),樹(shù)莓派微型計(jì)算機(jī)負(fù)責(zé)數(shù)據(jù)處理。這樣做的好處是可以將光流信息單獨(dú)處理,計(jì)算速度大幅提升,同時(shí)極大地減輕了飛控板的運(yùn)算壓力。機(jī)器視覺(jué)模組的主要硬件有:800 萬(wàn)像素、3.15 mm 焦距的Sony IMX219 攝像頭,四核BCM2837 處理器(主頻1.2 GHz),1 GB LPDDR2內(nèi)存,16 GB MicroSD存儲(chǔ)內(nèi)存,USB-WIFI 模塊等。HJ816 無(wú)人機(jī)用于驗(yàn)證本文算法在實(shí)際應(yīng)用中的性能,其核心控制器是新唐MINI58-ZDE,配有 SPL06-001 氣壓計(jì)、MPU6050 慣性測(cè)量單元和LC12S收發(fā)一體串口無(wú)線通信模塊等。

        實(shí)驗(yàn)平臺(tái)的系統(tǒng)結(jié)構(gòu)如圖1所示,由安裝在無(wú)人機(jī)底部的機(jī)器視覺(jué)模組采集圖像信息,經(jīng)過(guò)樹(shù)莓派微型計(jì)算機(jī)計(jì)算處理后,將解算得到的速度信息、目標(biāo)信息通過(guò)I2C 接口傳輸?shù)斤w控板中。飛控中心再利用輸入信號(hào)(如角速度、加速度、光流信息等)進(jìn)行無(wú)人機(jī)的姿態(tài)估計(jì),輸出適當(dāng)?shù)腜WM給電機(jī),用以調(diào)節(jié)轉(zhuǎn)速。氣壓計(jì)則將測(cè)量到的高度信息反饋至飛控板,經(jīng)過(guò)控制環(huán)節(jié)實(shí)現(xiàn)無(wú)人機(jī)的定高,以此減少高度變化對(duì)光流準(zhǔn)確度的影響,從而達(dá)到使無(wú)人機(jī)能夠在室內(nèi)定位的目的。

        2 基于改進(jìn)ORB特征光流法的速度估計(jì)

        2.1 相關(guān)算法

        2.1.1 ORB特征提取與描述

        ORB 是將加速角點(diǎn)提取與二進(jìn)制獨(dú)立基本特征結(jié)合的特征檢測(cè)算法[8]。具體算法實(shí)現(xiàn)如下:

        (1)建立圖像金字塔,對(duì)每一層圖像提取FAST 特征點(diǎn)。

        (2)向FAST特征點(diǎn)添加方向因子。定義圖像矩為:

        式中,I(x,y)為圖像灰度值;a、b為矩的階次。利用圖像矩計(jì)算質(zhì)心坐標(biāo):

        定義方向因子為圖像塊中心到質(zhì)心的向量,即:

        (3)引入旋轉(zhuǎn)因子。利用BRIEF描述符來(lái)描述特征點(diǎn),具體方法為,取M×M的窗口P,平滑處理后,有如下定義:

        式中,I(x)表示點(diǎn)x處的灰度值。n個(gè)特征點(diǎn)生成的BRIEF描述符為n維向量:

        圖1 無(wú)人機(jī)實(shí)驗(yàn)平臺(tái)及系統(tǒng)結(jié)構(gòu)圖

        為描述符引入旋轉(zhuǎn)不變性,定義一個(gè)2×n的矩陣:

        由方向因子θ獲得的旋轉(zhuǎn)矩陣Rθ,通過(guò)計(jì)算獲得新的變換矩陣Sθ=RθS。只要θ確定,即可獲得描述符:

        2.1.2 LK光流算法簡(jiǎn)述

        經(jīng)典的LK(Lucas-Kanade)光流算法[9]是利用兩幀之差來(lái)追蹤特征點(diǎn)瞬時(shí)速度的估計(jì)方法,通過(guò)迭代計(jì)算可以得到一種稀疏光流場(chǎng)。但是LK光流法必須滿足三條前提假設(shè)[10]:第一,相鄰幀之間的亮度、顏色不發(fā)生變化;第二,相鄰幀之間的像素點(diǎn)運(yùn)動(dòng)是足夠小且連續(xù)的;第三,相鄰幀之間的像素點(diǎn)運(yùn)動(dòng)一致,具有相同的光流?;诖?,可得亮度守恒約束方程[11]:

        式中,vx和vy表示圖像x、y方向上的光流值;Ix和Iy分別表示圖像像素點(diǎn)在x、y方向上的偏導(dǎo)數(shù);It表示圖像像素點(diǎn)亮度關(guān)于時(shí)間的導(dǎo)數(shù)。vx和vy將直接參與速度解算。

        LK 算法的三條前提假設(shè)都很難滿足,其中尤為嚴(yán)重的是第二條假設(shè)像素點(diǎn)運(yùn)動(dòng)都是“小運(yùn)動(dòng)”。通常的解決辦法是引入高斯金字塔[12](如圖2所示),縮小圖像尺寸,降低分辨率,此時(shí)的像素運(yùn)動(dòng)就變成了“小運(yùn)動(dòng)”,再利用泰勒級(jí)數(shù)展開(kāi)式進(jìn)行計(jì)算,從而保證了光流提取的連續(xù)性。

        圖2 金字塔示意圖

        2.2 改進(jìn)的ORB-LK光流算法

        在無(wú)人機(jī)懸停時(shí),光流傳感器開(kāi)始啟用,共分兩步:第一,特征點(diǎn)識(shí)別與跟蹤;第二,光流計(jì)算及速度轉(zhuǎn)換。之后將獲得的速度值通過(guò)I2C接口送入無(wú)人機(jī)控制系統(tǒng)中,進(jìn)行定位調(diào)節(jié),迭代計(jì)算直至定位完成。在整個(gè)過(guò)程中,特征點(diǎn)是前提,其準(zhǔn)確性決定了光流速度的精確性。

        在ORB 特征點(diǎn)識(shí)別與跟蹤過(guò)程中,需要進(jìn)行前后幀圖像特征點(diǎn)匹配。通常采用暴力匹配法[13],即通過(guò)計(jì)算前一幀所有特征點(diǎn)(以第p個(gè)特征點(diǎn)第k維特征向量Xpk為例)與后一幀所有特征點(diǎn)(以第q個(gè)特征點(diǎn)第k維特征向量Xqk為例)之間的歐式距離Dpq:

        距離Dpq越小,兩個(gè)特征點(diǎn)越相似,距離最近的則保留為該特征點(diǎn)的匹配點(diǎn)。但該方法過(guò)度依靠不穩(wěn)定的特征描述子,當(dāng)圖像中存在紋理相似區(qū)域時(shí),會(huì)導(dǎo)致即便不是前后幀中同一點(diǎn),也會(huì)計(jì)算出歐式距離,并且認(rèn)為是匹配的情況,使得前后幀匹配結(jié)果出現(xiàn)大量錯(cuò)誤匹配,影響后續(xù)跟蹤效果與光流計(jì)算。因此,本文以此為重點(diǎn),對(duì)匹配規(guī)則進(jìn)行改進(jìn)。

        在原始ORB 光流算法的基礎(chǔ)上,結(jié)合無(wú)人機(jī)定位時(shí)的飛行速度,提出適用于無(wú)人機(jī)室內(nèi)定位的細(xì)分匹配規(guī)則算法——改進(jìn)ORB-LK算法:通過(guò)飛行時(shí)測(cè)得的水平速度vu設(shè)置閾值,并利用投影公式[14]計(jì)算此時(shí)的光流閾值:

        式中,h為無(wú)人機(jī)飛行高度,f為攝像頭焦距。當(dāng)光流值高于閾值Δ時(shí),采用前后雙向單追蹤策略來(lái)篩選ORB 特征點(diǎn),稱(chēng)為粗匹配;當(dāng)光流值低于閾值Δ時(shí),采用前后雙向雙追蹤策略和FLANN-KNN 匹配規(guī)則來(lái)篩選特征點(diǎn),稱(chēng)為精匹配。粗匹配的目的在于快速獲得大量特征點(diǎn),便于無(wú)人機(jī)快速進(jìn)入室內(nèi)定位狀態(tài),為精匹配提供輸入保障。精匹配的目的在于優(yōu)化特征匹配,在小位移中獲得準(zhǔn)確的光流值,從而提高無(wú)人機(jī)室內(nèi)定位的準(zhǔn)確度。具體內(nèi)容如下:

        (1)粗匹配:ORB 提取和前后雙向單追蹤策略。如圖3所示,首先利用ORB算法對(duì)前一幀圖像取特征點(diǎn)集合A,然后通過(guò)金字塔LK算法獲得在后一幀圖像上對(duì)應(yīng)的特征點(diǎn)集合B(前向跟蹤),之后再將集合B通過(guò)金字塔返回到第一幀中,獲得對(duì)應(yīng)特征點(diǎn)集C(后向跟蹤)。由于存在噪聲影響,點(diǎn)集A和C不會(huì)完全相同。因此遍歷集合A、C中所有點(diǎn)對(duì),計(jì)算出距離誤差d,選取小于閾值ε的點(diǎn)對(duì),再結(jié)合對(duì)應(yīng)點(diǎn)集B,最終保存篩選后的點(diǎn)對(duì)集AiBi+1SET,i為幀數(shù)。

        圖3 前后雙向單追蹤策略示意圖

        (2)精匹配:FLANN-KNN 特征匹配和前后雙向雙追蹤策略。當(dāng)粗匹配光流值vx、vy小于閾值Δ時(shí),進(jìn)入精匹配模式,假設(shè)此時(shí)為第m幀。從粗匹配保存的點(diǎn)對(duì)集AiBi+1SET中,獲得第m幀的特征點(diǎn)集Am=Bm?Am-1BmSET,第m+1 幀特征點(diǎn)通過(guò)ORB 算法獲得,為點(diǎn)集Am+1。

        為預(yù)防圖像出現(xiàn)投影畸變,本文采用FLANN-KNN算法進(jìn)行特征匹配:①建立FLANN 匹配器;②利用KNN 算法初步篩選點(diǎn)集Am和Am+1所對(duì)應(yīng)的描述符集;③再利用特征向量之間的歐式距離篩選好的描述符集及對(duì)應(yīng)點(diǎn)集A′m和A′m+1;④通過(guò)隨機(jī)抽樣一致算法(RANSAC)消除點(diǎn)集中的誤匹配點(diǎn),計(jì)算出單應(yīng)性矩陣H,獲得最終匹配對(duì)集A″m和A″m+1。圖4 顯示了FLANN-KNN算法前后的匹配效果圖。

        圖4 FLANN-KNN算法前后匹配效果圖

        基于此,再進(jìn)行前后雙向雙追蹤策略,如圖5所示。利用第m幀篩選后的特征點(diǎn)集A″m進(jìn)行前向跟蹤,獲得點(diǎn)集Mm+1,再進(jìn)行后向跟蹤,獲得點(diǎn)集Nm,同樣由于噪聲的存在,記點(diǎn)集A″m和點(diǎn)集Nm之間的特征向量距離誤差為dm;同理,點(diǎn)集A″m+1向前獲得點(diǎn)集Mm,向后獲得點(diǎn)集Nm+1,記A″m+1和Nm+1之間的距離誤差為dm+1。由于光流運(yùn)動(dòng)是建立的三條前提假設(shè)上的,那么第m+1 幀上點(diǎn)集A″m+1與Mm+1存在距離誤差,不能完全重合,記誤差dn+1;同理,第m幀上點(diǎn)集A″m和點(diǎn)集Mm的誤差記為dn。經(jīng)過(guò)實(shí)驗(yàn)測(cè)試,像素距離閾值ε取10,計(jì)算匹配點(diǎn)對(duì)過(guò)濾函數(shù)Π:

        能夠獲得最終適用于無(wú)人機(jī)室內(nèi)導(dǎo)航的準(zhǔn)確特征點(diǎn)集,進(jìn)一步使得光流值vx和vy更加準(zhǔn)確,為后續(xù)光流解算機(jī)體速度消除錯(cuò)誤信息。

        圖5 前后雙向雙追蹤策略示意圖

        2.3 改進(jìn)ORB-LK光流算法實(shí)現(xiàn)流程

        本文設(shè)計(jì)的改進(jìn)ORB-LK光流算法流程如圖6所示。

        (1)無(wú)人機(jī)搭載的單目攝像機(jī)在飛行過(guò)程中實(shí)時(shí)采集圖像序列。對(duì)圖像進(jìn)行ORB 特征提取,得到一系列特征點(diǎn)。

        (2)將上一幀特征點(diǎn)和當(dāng)前幀圖像帶入金字塔LK算法中,定位到當(dāng)前幀與上一幀同名的特征點(diǎn),并計(jì)算光流值。

        (3)根據(jù)步驟(2)中確定的同名特征點(diǎn),利用前后雙向單追蹤策略,返回前一幀中再次搜尋同名特征點(diǎn),并計(jì)算與原始特征點(diǎn)的像素差值,做第一次特征點(diǎn)篩選,保留篩選后的對(duì)應(yīng)光流值。

        (4)步驟(3)中保留的光流值若大于閾值Δ,則進(jìn)入光流與慣導(dǎo)數(shù)據(jù)處理環(huán)節(jié),最后送入?yún)?shù)解算、姿態(tài)補(bǔ)償中。

        (5)步驟(3)中保留的光流值若小于閾值Δ,則進(jìn)行ORB 特征提取,再次進(jìn)入金字塔中,對(duì)其采用FLANNKNN 匹配和前后雙向雙追蹤策略進(jìn)行特征點(diǎn)篩選,刪除錯(cuò)誤匹配的特征點(diǎn)集和對(duì)應(yīng)的光流值,保存本次篩選的光流值進(jìn)入光流與慣導(dǎo)融合、參數(shù)解算中,并最后做姿態(tài)補(bǔ)償。

        3 實(shí)驗(yàn)驗(yàn)證分析

        本文對(duì)改進(jìn)ORB-LK 特征光流提取效果(在Bird-Vision3 模塊上實(shí)驗(yàn))以及在實(shí)際無(wú)人機(jī)室內(nèi)導(dǎo)航應(yīng)用中的算法性能(在HJ816無(wú)人機(jī)上實(shí)驗(yàn))進(jìn)行驗(yàn)證與分析。

        3.1 改進(jìn)ORB-LK特征光流提取效果分析

        圖6 算法步驟示意圖

        表1 三種算法各項(xiàng)數(shù)據(jù)指標(biāo)對(duì)比

        為了提高無(wú)人機(jī)光流信息的準(zhǔn)確度,本文根據(jù)金字塔LK 光流跟蹤特性,采用粗匹配和精匹配的方式對(duì)ORB特征進(jìn)行了誤匹配篩選改進(jìn)。其中光流閾值Δ由設(shè)定的飛行速度經(jīng)驗(yàn)閾值vu得到,為5;像素閾值ε設(shè)為經(jīng)驗(yàn)值10。為了檢驗(yàn)改進(jìn)算法的效果,本文從主觀視覺(jué)效果和客觀數(shù)據(jù)指標(biāo)兩方面對(duì)改進(jìn)的ORB特征光流提取算法進(jìn)行評(píng)價(jià)。

        (1)主觀視覺(jué)效果

        實(shí)驗(yàn)中分別采用Shi-Tomasi 光流提取算法[15]、原始ORB 光流提取算法和本文改進(jìn)ORB-LK 算法分別對(duì)少紋理、多紋理、強(qiáng)光和弱光四個(gè)場(chǎng)景進(jìn)行特征提取,并選取其中各自具有代表性的一幀圖像進(jìn)行視覺(jué)效果分析,結(jié)果如圖7 所示。圖(a)是Shi-Tomasi 光流法在四種場(chǎng)景中的特征提取效果,圖(b)是原始ORB光流法的提取結(jié)果,圖(c)是本文改進(jìn)ORB-LK 光流算法的提取結(jié)果。從圖中可以直觀地看出Shi-Tomasi 光流法提取的特征點(diǎn)最少,主要集中在圖像物體的邊緣等特征明顯區(qū)域;原始ORB光流法提取的特征點(diǎn)數(shù)量最多,同時(shí)也包含許多誤匹配點(diǎn),誤差高,離散性較差;本文改進(jìn)ORBLK光流算法是在原始ORB光流法上進(jìn)行篩選,濾除誤匹配后特征點(diǎn)數(shù)量有所減少,但仍能保留圖像重要特征(尤其是圖像中心特征),具有較好的分布性和離散性。

        圖7 三種算法提取結(jié)果對(duì)比

        (2)客觀數(shù)據(jù)指標(biāo)

        為了進(jìn)一步從實(shí)際數(shù)據(jù)指標(biāo)客觀地分析算法的性能,實(shí)驗(yàn)多次測(cè)量三種算法在上述四種場(chǎng)景中的光流提取時(shí)間、特征點(diǎn)數(shù)以及誤匹配率,做平均處理后如表1所示。從表中可以看出,Shi-Tomasi光流法特征點(diǎn)數(shù)較少,誤匹配率適中,但時(shí)間開(kāi)銷(xiāo)較大,與另兩種算法相比近乎相差一個(gè)量級(jí),難以保證無(wú)人機(jī)定位的實(shí)時(shí)性要求。原始ORB算法時(shí)間開(kāi)銷(xiāo)雖然較短,特征點(diǎn)數(shù)多,但誤匹配率也隨之增加,影響了無(wú)人機(jī)定位的準(zhǔn)確性。本文改進(jìn)算法由于增加了誤匹配篩選步驟,其時(shí)間開(kāi)銷(xiāo)與原始ORB相差約30 ms,但帶來(lái)的益處是誤匹配率的下降,實(shí)時(shí)性和準(zhǔn)確性都有保障。在少紋理場(chǎng)景和弱光場(chǎng)景中,本文改進(jìn)算法仍能有效地濾除原始ORB 的誤匹配點(diǎn),同時(shí)保留其快速性,滿足了無(wú)人機(jī)室內(nèi)定位中實(shí)時(shí)性高、時(shí)間開(kāi)銷(xiāo)少的要求。

        3.2 實(shí)際應(yīng)用中的算法性能分析

        為驗(yàn)證本文提出的改進(jìn)ORB-LK 特征光流算法實(shí)際應(yīng)用中的性能,利用HJ820無(wú)人機(jī)搭載BirdVision3視覺(jué)模塊,分別采用Shi-Tomasi 光流提取算法、原始ORB光流提取算法和本文改進(jìn)算法進(jìn)行室內(nèi)定位實(shí)驗(yàn)。無(wú)人機(jī)控制系統(tǒng)中,高度環(huán)、姿態(tài)環(huán)均采用串級(jí)PID控制,光流環(huán)采用單環(huán)PID 控制。各環(huán)PID 參數(shù)如表2 所示,其中kp表示比例(P)的參數(shù),ki表示積分(I)的參數(shù),kd表示微分(D)的參數(shù)。期望懸停時(shí)高度為1.6 m,x、y軸位置偏移量為0.1 m。手控操縱無(wú)人機(jī),控制無(wú)人機(jī)的起飛、懸停、降落,利用串口無(wú)線通信,上位機(jī)實(shí)時(shí)記錄飛行時(shí)x、y軸位置偏移量和飛行高度等數(shù)據(jù),并進(jìn)行多次定位誤差的歸一化數(shù)據(jù)處理。

        表2 無(wú)人機(jī)室內(nèi)定位實(shí)驗(yàn)PID參數(shù)

        無(wú)人機(jī)整體飛行時(shí)間約為180 s,起飛后第10~15 s內(nèi)進(jìn)行懸停定位,第170~180 s 進(jìn)行降落。圖8、圖9 是無(wú)人機(jī)在x、y方向上位置偏移量隨時(shí)間變化的曲線對(duì)比圖,圖10、圖11是無(wú)人機(jī)多次定位后x、y方向上的歸一化誤差對(duì)比圖??梢钥闯鰺o(wú)人機(jī)在懸停過(guò)程中,Shi-Tomasi 光流法定位效果不理想,位移偏差高于10 cm時(shí),對(duì)應(yīng)的歸一化誤差變化較大,有效特征點(diǎn)數(shù)量降低,提取的有效光流場(chǎng)質(zhì)量隨之下降,導(dǎo)致高度不穩(wěn)定,上下起伏大,定位不準(zhǔn)。相比之下,原始ORB算法稍好一點(diǎn),由于特征點(diǎn)數(shù)量繁多,能夠?qū)⑵畲蟮牟糠挚焖倮?,但同時(shí)存在誤匹配,導(dǎo)致定位誤差稍大,精度不夠。反觀之,本文算法由于經(jīng)過(guò)先粗匹配,后精匹配兩步(取光流閾值Δ=5,像素閾值ε=10),濾除了大量誤匹配點(diǎn),使得位置偏差近乎穩(wěn)定于0,定位歸一化誤差的波動(dòng)較小,定位精度隨之提高。圖12是三種算法下無(wú)人機(jī)飛行高度隨時(shí)間變化曲線對(duì)比圖,從圖中數(shù)據(jù)可以看出,本文方法相較于其余算法,在實(shí)際飛行懸停中高度是較為穩(wěn)定的,懸停效果較好,在期望高度160 cm附近懸停。通過(guò)分析實(shí)驗(yàn)結(jié)果可知,本文算法一定程度上能夠滿足無(wú)人機(jī)定位精度的需求,可以嘗試用于室內(nèi)自主導(dǎo)航。

        圖8 無(wú)人機(jī)x 軸位置偏移量對(duì)比圖

        圖9 無(wú)人機(jī)y 軸位置偏移量對(duì)比圖

        圖10 x 軸多次定位歸一化誤差對(duì)比圖

        圖11 y 軸多次定位歸一化誤差對(duì)比圖

        圖12 無(wú)人機(jī)飛行高度對(duì)比圖

        4 結(jié)論

        在室內(nèi)定位研究中,由于GPS 室內(nèi)信號(hào)弱,一般選擇光流傳感器作為主要的無(wú)人機(jī)定位器件,其具有體積小、成本低等優(yōu)點(diǎn),被廣泛使用。但傳統(tǒng)光流算法定位精度不高,為此本文結(jié)合原始ORB 特征和LK 光流法,提出一種改進(jìn)的ORB特征光流算法。該算法優(yōu)越性在于,采用粗細(xì)匹配規(guī)則,刪除誤匹配點(diǎn)集,提升光流質(zhì)量,提高定位精度。從本文實(shí)驗(yàn)可知,在搭載獨(dú)立運(yùn)算的樹(shù)莓派機(jī)器視覺(jué)模塊后,改進(jìn)ORB-LK光流法能夠達(dá)到厘米級(jí)定位,精確性、實(shí)時(shí)性和魯棒性均較好,能用于移動(dòng)載體的室內(nèi)實(shí)時(shí)導(dǎo)航定位,具有較高的應(yīng)用與參考價(jià)值。

        猜你喜歡
        特征
        抓住特征巧觀察
        離散型隨機(jī)變量的分布列與數(shù)字特征
        具有兩個(gè)P’維非線性不可約特征標(biāo)的非可解群
        月震特征及與地震的對(duì)比
        如何表達(dá)“特征”
        被k(2≤k≤16)整除的正整數(shù)的特征
        不忠誠(chéng)的四個(gè)特征
        詈語(yǔ)的文化蘊(yùn)含與現(xiàn)代特征
        新聞傳播(2018年11期)2018-08-29 08:15:24
        抓住特征巧觀察
        基于特征篩選的模型選擇
        国产香蕉一区二区三区在线视频| 国产精品久久久一本精品| 国产成人福利av一区二区三区| 亚洲中文字幕高清av | 狠狠噜狠狠狠狠丁香五月 | 国产人成无码视频在线| 精品国产乱来一区二区三区| 久久夜色国产精品噜噜亚洲av| 午夜福利理论片在线观看| 又污又黄又无遮挡的网站| 美女窝人体色www网站| 国产精品一二三区亚洲| 精品国品一二三产品区别在线观看 | 无码毛片内射白浆视频| 海角国精产品一区一区三区糖心| 久久人人做人人妻人人玩精| 久久最黄性生活又爽又黄特级片| 国产亚洲一区二区在线观看 | 國产一二三内射在线看片| 久久精品韩国日本国产| 青青草小视频在线观看| 一本色道久久综合无码人妻| 欧美日韩在线观看免费| 国产精品久久久精品三级18| 国产黄污网站在线观看| 搡老熟女中国老太| 国产亚洲高清不卡在线观看| 在线小黄片视频免费播放 | 91亚洲国产成人aⅴ毛片大全| av免费观看在线网站| 精品久久久久久综合日本| 国产成a人亚洲精v品无码性色| 亚洲AV无码一区二区一二区色戒| 我揉搓少妇好久没做高潮| 国产伦人人人人人人性| 久久国产A√无码专区亚洲| 国产一区二区三区免费小视频 | 国产成+人+综合+亚洲欧美丁香花| 真正免费一级毛片在线播放| 亚洲黄片av在线免费观看| 国产成人精品优优av|