亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        一種基于合作目標(biāo)的視覺定位方法

        2017-11-08 05:29:57陸滿君席超敏戚漫華
        制導(dǎo)與引信 2017年2期
        關(guān)鍵詞:特征測量

        聶 烜, 陸滿君, 席超敏, 戚漫華

        (1. 西北工業(yè)大學(xué), 陜西 西安 710072; 2.上海無線電設(shè)備研究所, 上海 200090)

        一種基于合作目標(biāo)的視覺定位方法

        聶 烜1, 陸滿君2, 席超敏1, 戚漫華1

        (1. 西北工業(yè)大學(xué), 陜西 西安 710072; 2.上海無線電設(shè)備研究所, 上海 200090)

        提出一種基于合作目標(biāo)特征點(diǎn)的無人機(jī)當(dāng)前空間位姿的測量算法。以合作目標(biāo)為參照對象,在圖像濾波、閾值分割、邊緣提取和角點(diǎn)提取等算法的基礎(chǔ)上,提取了合作目標(biāo)特征點(diǎn),并建立了描述目標(biāo)圖像坐標(biāo)、世界坐標(biāo)和攝像機(jī)參數(shù)之間關(guān)系的數(shù)學(xué)模型,然后根據(jù)SVD算法求解該模型得到無人機(jī)旋轉(zhuǎn)和平移矩陣的初值;最后利用正交迭代算法尋找最優(yōu)解,求得無人機(jī)的位姿信息。并針對合作目標(biāo)分級的特點(diǎn)設(shè)計(jì)了適應(yīng)不同高度的特征點(diǎn)選取算法,提高了目標(biāo)識別的可靠性。仿真實(shí)驗(yàn)分析驗(yàn)證了本文方法的有效性。

        視覺測量; 合作目標(biāo); 仿真試驗(yàn)

        0 引言

        無人機(jī)依靠機(jī)載的導(dǎo)航設(shè)備和飛行控制系統(tǒng)來進(jìn)行定位導(dǎo)航并最終控制無人機(jī)降落在平臺或跑道等預(yù)定場地上,目前用于無人機(jī)的主流導(dǎo)航技術(shù)包括:慣性導(dǎo)航系統(tǒng)(INS),全球定位系統(tǒng)(GPS),INS/GPS組合導(dǎo)航系統(tǒng)[1-2]。慣性導(dǎo)航系統(tǒng)及全球定位系統(tǒng)均有各自的缺點(diǎn),INS單獨(dú)使用時定位誤差會隨時間的積累不斷增加,而GPS動態(tài)響應(yīng)能力差,易受電磁干擾,信號容易被遮擋,對于低速運(yùn)動效果差[3]。隨著計(jì)算機(jī)視覺技術(shù)的發(fā)展,視覺導(dǎo)航由于其高自主性、廉價性、高可靠性等特點(diǎn)被越來越多地應(yīng)用在無人機(jī)自主導(dǎo)航中[4]。相比于慣性導(dǎo)航方法,視覺導(dǎo)航?jīng)]有精度時間漂移、誤差累積的問題;相比于GPS導(dǎo)航方法,視覺導(dǎo)航不易受干擾,對導(dǎo)航適應(yīng)能力強(qiáng);相比于INS和GPS傳感器,視覺傳感器具有體積小、成本低、功耗小的優(yōu)勢,適合用于無人機(jī)平臺。本文通過攝像機(jī)的標(biāo)定與合作目標(biāo)特征提取,基于單目視覺以計(jì)算無人機(jī)相對位置和相對姿態(tài)。

        1 攝像機(jī)模型和標(biāo)定

        首先提取拍攝到的棋盤格圖像的內(nèi)角點(diǎn),在不考慮畸變參數(shù)的情況下,根據(jù)圖像角點(diǎn)的像素坐標(biāo)與棋盤內(nèi)角點(diǎn)實(shí)際坐標(biāo)的投影關(guān)系計(jì)算攝像機(jī)的幾何投影參數(shù);得到幾何投影參數(shù)后,根據(jù)畸變模型建立方程組,計(jì)算畸變參數(shù)并優(yōu)化投影參數(shù)得到攝像機(jī)內(nèi)參數(shù)。

        本文利用圖1所示10×7的棋盤格進(jìn)行攝像機(jī)標(biāo)定,大小為19 mm×19 mm,在不同角度拍攝多幅棋盤圖像,利用OpenCV函數(shù)庫的findChessboardCorners()函數(shù)尋找棋盤格內(nèi)角點(diǎn),然后利用calibrateCamera()函數(shù)求解內(nèi)參數(shù)和畸變參數(shù)。求解得到的攝像機(jī)內(nèi)參數(shù)和畸變參數(shù),如式(1)所示。

        圖1 攝像機(jī)標(biāo)定棋盤格

        式中:fx,fy,u0與v0分別以像素為單位。采集的標(biāo)定棋盤格圖像個數(shù)越多,標(biāo)定精度就越高,但是當(dāng)圖像數(shù)量達(dá)到一定數(shù)量的時候[5],標(biāo)定結(jié)果不會有太大差異,一般采集30幅圖像就能滿足要求。攝像機(jī)拍攝的圖像大小為640×480,攝像機(jī)標(biāo)定的主點(diǎn)與理想主點(diǎn)坐標(biāo)(320,240)較接近。對圖2中的原圖根據(jù)式(1)進(jìn)行校正的結(jié)果如圖3所示,由圖可以看出圖像邊緣的畸變得到改善。

        圖2 原圖

        圖3 校正后圖像

        2 基于合作目標(biāo)的無人機(jī)視覺定位

        本文通過計(jì)算機(jī)視覺方法測量無人機(jī)與合作目標(biāo)的相對位置。圖像特征點(diǎn)提取和無人機(jī)位姿解算算法是測量系統(tǒng)的兩個重要部分,合作目標(biāo)的實(shí)際尺寸已知,提取圖像特征點(diǎn)坐標(biāo),根據(jù)位姿解算算法解算無人機(jī)相對位置,解算無人機(jī)相對位置的過程如圖4所示。

        圖4 無人機(jī)定位流程圖

        (1) 合作目標(biāo)

        攝像機(jī)采集圖片,受光照等條件的影響,會導(dǎo)致圖像的明暗程度發(fā)生改變,而降落地點(diǎn)的不同,意味著合作目標(biāo)背景圖像的不確定性。無人機(jī)在飛行過程會產(chǎn)生持續(xù)的高頻振動,由旋翼經(jīng)由機(jī)體結(jié)構(gòu)傳至攝像機(jī),雖然大部分振動被減震裝置過濾了,但仍會使圖像出現(xiàn)細(xì)微模糊的現(xiàn)象[6]。另外,無人機(jī)在空中的飄移也會對圖像造成影響,水平方向的位移會使合作目標(biāo)移出視野,而垂直方向的變化,則使攝像機(jī)的可視范圍發(fā)生變化。在高空狀態(tài)下,可視范圍廣,但是單位像素代表實(shí)際尺寸變大,造成合作目標(biāo)圖像細(xì)節(jié)缺失,會影響圖像處理及解算;低空狀態(tài)下可視范圍變小,合作目標(biāo)容易移出視野。

        為了能提取有效的合作目標(biāo)特征信息,并通過解算實(shí)時輸出可靠的位置信息,合理地設(shè)計(jì)合作目標(biāo)顯得尤為重要。本文中的位置參數(shù)是通過特征圖案中特征點(diǎn)的世界坐標(biāo)及其圖像象素坐標(biāo)之間的轉(zhuǎn)換關(guān)系進(jìn)行計(jì)算得到的,因此要求合作目標(biāo)圖案中應(yīng)包含足夠多的特征點(diǎn),這些特征點(diǎn)應(yīng)該容易被精確提取,并且應(yīng)該考慮在不同高度下的識別問題。

        本文設(shè)計(jì)的合作目標(biāo)背景為黑色,圖案中心為白色正方形,在其外依次包圍兩個白色正方形環(huán),如圖5所示。

        圖5 合作目標(biāo)

        該合作目標(biāo)具有如下特點(diǎn):

        a) 合作目標(biāo)為三級白色正方形嵌套,中間用黑色分割,目標(biāo)各級矩形邊長比值為固定值,能唯一的識別目標(biāo)級數(shù);

        b) 各級目標(biāo)內(nèi)外輪廓為正方形,每個正方形提供四個角點(diǎn)信息,用以求解無人機(jī)位置;

        c) 合作目標(biāo)只有黑白兩種顏色,使得合作目標(biāo)灰度差距大,便于閾值分割;

        d) 合作目標(biāo)分為三級,當(dāng)目標(biāo)部分被遮擋時仍可正常工作,提高了魯棒性。

        (2) 特征提取

        無人機(jī)視覺輔助過程中,機(jī)載攝像機(jī)拍攝合作目標(biāo)圖像,由于多種因素的影響,不可避免地存在噪聲干擾,因而必須經(jīng)過圖像處理算法后,才能進(jìn)行下一階段位置解算。進(jìn)行圖像處理時,要選擇并提取典型的、穩(wěn)定的圖像特征,且要能完整體現(xiàn)整幅圖像的特征,比較有代表性的圖像特征是點(diǎn)和線兩種。

        根據(jù)世界坐標(biāo)系和圖像坐標(biāo)系的透視投影關(guān)系,以世界坐標(biāo)系下點(diǎn)的坐標(biāo)和圖像坐標(biāo)系下對應(yīng)像點(diǎn)的坐標(biāo)為基礎(chǔ),進(jìn)行無人直升機(jī)位置的解算,所以本文采用基于點(diǎn)特征的圖像處理算法來提取合作目標(biāo)特征點(diǎn)。

        為此,本文提取合作目標(biāo)上的特征點(diǎn),而角點(diǎn)是圖像的重要特征,其具有旋轉(zhuǎn)不變性,且不隨光照強(qiáng)度改變而變化。角點(diǎn)具有明顯的特征,表現(xiàn)為圖像中亮度和邊緣曲率變化劇烈的地方[7]。圖3中合作目標(biāo)包含3個白色正方形,選擇白色正方形頂點(diǎn),即角點(diǎn)作為特征點(diǎn),共12個,從外向內(nèi)按順時針順序?qū)?2個特征角點(diǎn)按0~11標(biāo)號,如圖6所示。

        圖6 合作目標(biāo)特征點(diǎn)

        圖像處理算法流程包括:

        a) 圖像獲取;

        b) 圖像預(yù)處理,主要包括色彩空間轉(zhuǎn)換、圖像濾波;

        c) 合作目標(biāo)圖像邊緣提??;

        d) 角點(diǎn)信息提取。

        機(jī)載攝像頭得到原始圖像,在生成、傳輸、轉(zhuǎn)換過程中由于多種因素影響,最終得到的圖像會含有高斯噪聲、椒鹽噪聲等噪聲。為得到更為準(zhǔn)確的目標(biāo)信息,需要在圖像邊緣檢測之前進(jìn)行圖像預(yù)處理,包括色彩空間轉(zhuǎn)換、圖像濾波處理。

        合作目標(biāo)圖像邊緣提取的目的是將目標(biāo)邊緣從閾值分割后的二值圖像中提取出來,便于進(jìn)行角點(diǎn)提取。針對合作目標(biāo)閾值分割圖像,邊緣提取的目的是提取圖像中正方形的邊緣。閾值分割得到的二值圖像,目標(biāo)和背景被賦予不同的像素值,輪廓在像素值發(fā)生突變的區(qū)域,本文用鏈碼標(biāo)記圖像中像素值突變的區(qū)域,提取目標(biāo)輪廓。

        在識別目標(biāo)時,通過順序找出邊緣點(diǎn)來跟蹤邊界。本文的輪廓跟蹤算法迭代掃描圖像直到遇到連通區(qū)域的一個點(diǎn),以它為起點(diǎn),跟蹤它的輪廓,標(biāo)記邊界上的像素,當(dāng)輪廓完整閉合,掃描回到上一個位置,直到再次發(fā)現(xiàn)新的成分。跟蹤輪廓時,輪廓序列用鏈碼表示,鏈碼步長固定且方向數(shù)目有限,鏈碼的步長為一個像素,方向如圖7所示。

        圖7 鏈碼方向

        只要輪廓的起點(diǎn)用坐標(biāo)表示,其余點(diǎn)都可只用接續(xù)方向來表示偏移量。鏈碼跟蹤輪廓的具體算法如下:

        a) 首先按從上到下,從左到右的順序掃描圖象,尋找沒有標(biāo)記跟蹤結(jié)束記號的第一個邊界起始點(diǎn)A0,它是具有最小行和列值的邊界點(diǎn)。定義一個掃描方向變量dir,該變量用于記錄上一步中沿著前一個邊界點(diǎn)到當(dāng)前邊界點(diǎn)的移動方向,其初始化取值為dir=7;

        b) 按逆時針方向搜索當(dāng)前象素的3×3鄰域,若dir為奇數(shù)搜索方向設(shè)定為(dir+6)%8,若dir為偶數(shù)搜索方向設(shè)定為(dir+7)% 8,在3×3鄰域中搜索到的第一個與當(dāng)前像素值相同的像素便為新的邊界點(diǎn)An,同時更新變量dir為新方向值;

        c) 如果An等于第二個邊界點(diǎn)A1且前一個邊界點(diǎn)An-1等于第一個邊界點(diǎn)A0,則停止搜索,結(jié)束跟蹤,否則重復(fù)步驟2繼續(xù)搜索;

        d) 由邊界點(diǎn)A0,A1,A2,…,An-2構(gòu)成的邊界便為要跟蹤的邊界。

        上述算法適用于跟蹤目標(biāo)輪廓的外邊界,圖8為上述算法提取的目標(biāo)輪廓。

        圖8 目標(biāo)輪廓

        無人機(jī)位置坐標(biāo)的解算是根據(jù)目標(biāo)特征點(diǎn)的實(shí)際坐標(biāo)與目標(biāo)特征點(diǎn)的圖像坐標(biāo)計(jì)算,本文研究目標(biāo)特征點(diǎn)的圖像坐標(biāo)的提取。本文先對提取的輪廓進(jìn)行多邊形擬合,然后根據(jù)約束條件得到目標(biāo)的四邊形輪廓,接著計(jì)算四邊形的頂點(diǎn)坐標(biāo)得到目標(biāo)的特征點(diǎn)坐標(biāo),最后將特征點(diǎn)坐標(biāo)精確到亞像素級精度。

        多邊形擬合是采用極少量的點(diǎn)作為多邊形的頂點(diǎn),以這個多邊形來逼近原始的目標(biāo)物體的數(shù)字輪廓曲線。本文采用的多邊形擬合算法首先從輪廓選擇兩個距離最遠(yuǎn)的點(diǎn),然后這兩個線段連成一個線段,在查找輪廓上到線段距離最遠(yuǎn)的點(diǎn),添加到逼近后的新輪廓;算法反復(fù)迭代,不斷將最遠(yuǎn)的點(diǎn)添加到結(jié)果中,直到所有的點(diǎn)到多邊形的邊的最短距離小于指定的閾值。輪廓多邊形擬合步驟如下:

        a) 設(shè)定一個距離閾值T;

        b) 選擇輪廓序列中距離最大的兩個點(diǎn),記做A、B;

        c) 計(jì)算在輪廓A,B兩點(diǎn)間所有點(diǎn)到AB直線間的距離,確定距AB直線的距離最大的點(diǎn)C;

        d) 比較C點(diǎn)到直線AB的距離和閾值T,如果小于T,迭代結(jié)束;

        e) 標(biāo)記C點(diǎn)為頂點(diǎn),C點(diǎn)將目標(biāo)的邊界曲線分為AC和CB兩條曲線,對這兩條曲線重復(fù)步驟c)、d)、e)。

        由于重復(fù)上述步驟時都要產(chǎn)生兩個分支,因此在算法上要采用遞歸調(diào)用的方法求解,直到目標(biāo)的輪廓曲線上所有點(diǎn)與擬合多邊形各邊的距離小于設(shè)定的閾值T。圖9是用以上算法得到的輪廓逼近的多變形。

        圖9 目標(biāo)多邊形擬合圖像

        (3) 相對位置解算

        無人機(jī)視覺過程中,攝像機(jī)不斷拍攝合作目標(biāo)圖像,經(jīng)過圖像處理算法提取出特征點(diǎn)的圖像坐標(biāo)后,下一步即是根據(jù)合作目標(biāo)尺寸、方位、上述圖像處理后所獲得的特征點(diǎn)等信息,計(jì)算無人機(jī)對于合作目標(biāo)的相對位置。

        旋翼無人機(jī)機(jī)體坐標(biāo)系的定義與慣性傳感器的安裝方向有關(guān),無人機(jī)與攝像機(jī)的相對位置固定。合作目標(biāo)的位置用世界坐標(biāo)系的坐標(biāo)表示,無人機(jī)的位置可用攝像機(jī)坐標(biāo)系中的坐標(biāo)表示,無人機(jī)的相對位置就可以用機(jī)體坐標(biāo)系和世界坐標(biāo)系之間的轉(zhuǎn)換關(guān)系表示。

        無人機(jī)的相對位置是由世界坐標(biāo)系與攝像機(jī)坐標(biāo)系之間平移關(guān)系確定的,攝像機(jī)坐標(biāo)系沿三個軸方向分別平移一定距離,直至攝像機(jī)坐標(biāo)系與世界坐標(biāo)系重合,此時無人機(jī)沿三個軸方向移動的距離即是它與合作目標(biāo)的相對位置,這個平移可以用一個平移向量T=(Tx,Ty,Tz)T表示。

        無人機(jī)的姿態(tài)角可根據(jù)世界坐標(biāo)系與攝像機(jī)坐標(biāo)系之間的旋轉(zhuǎn)關(guān)系確定,包括俯仰角、滾轉(zhuǎn)角和偏航角。滾轉(zhuǎn)角φ是攝像機(jī)繞X軸旋轉(zhuǎn),角度范圍[-180°,+180°],右滾轉(zhuǎn)為正,旋轉(zhuǎn)矩陣如式(2)所示。

        (2)

        俯仰角θ是攝像機(jī)繞Y軸旋轉(zhuǎn),角度范圍[-90°,+90°],抬頭為正,旋轉(zhuǎn)矩陣為

        (3)

        偏航角ψ是攝像機(jī)繞Z軸旋轉(zhuǎn),角度范圍[-180°,+180°],右偏航為正,旋轉(zhuǎn)矩陣為

        (4)

        無人機(jī)視覺過程中,合作目標(biāo)特征點(diǎn)在世界坐標(biāo)系下的坐標(biāo)與對應(yīng)圖像特征點(diǎn)在圖像坐標(biāo)系下的坐標(biāo),有如下關(guān)系:

        (5)

        式中:λ為比例因子;x是圖像特征點(diǎn)在圖像坐標(biāo)系下的齊次坐標(biāo);X是目標(biāo)特征點(diǎn)在世界坐標(biāo)系下的齊次坐標(biāo);K是攝像機(jī)內(nèi)參矩陣;R和T分別為攝像機(jī)坐標(biāo)系與世界坐標(biāo)系之間的旋轉(zhuǎn)和平移矩陣。

        式(5)中比例因子λ是空間點(diǎn)在攝像機(jī)坐標(biāo)系下的Zc分量,因此合作目標(biāo)特征點(diǎn)X對應(yīng)的λ的值為

        (6)

        式中:e=[0,0,1]。

        將式(5)和式(6)結(jié)合,可得到如式(7)所示的約束:

        (7)

        因?yàn)楹献髂繕?biāo)所有特征點(diǎn)都在一個平面內(nèi),目標(biāo)特征點(diǎn)在世界坐標(biāo)系下的Zc分量X3=0,于是X=[X1,X2,0,1]T,令R=[r1,r2,r3],T=[t1,t2,t3]T,于是式(7)可變換為

        (8)

        代入攝像機(jī)成像方程,特征點(diǎn)的世界坐標(biāo)和對應(yīng)的圖像坐標(biāo)都滿足式(9):

        (9)

        其中:

        如果已知n個特征點(diǎn)的世界坐標(biāo)和對應(yīng)的圖像坐標(biāo),根據(jù)式(9)可以建立2n個方程的方程組,進(jìn)而求解得到[r1,r2,T]。又因?yàn)樾D(zhuǎn)矩陣R是3×3的正交矩陣,且行列式的值為1,則r3可由式(10)計(jì)算得

        r3=r1×r2

        (10)

        求解式(9)組成的方程組,再結(jié)合式(10)就可以得到攝像機(jī)坐標(biāo)系相對于世界坐標(biāo)系的旋轉(zhuǎn)和平移矩陣,并進(jìn)一步得到攝像機(jī)(即無人機(jī))在世界坐標(biāo)系中的坐標(biāo),即無人機(jī)對于合作目標(biāo)的相對位置。

        關(guān)于平移向量T的求解,因合作目標(biāo)總是位于攝像機(jī)的前方,所以平移向量的第三項(xiàng)總是大于零,如果經(jīng)過SVD分解后V的最后一項(xiàng)是負(fù)數(shù),則讓V=-V,然后根據(jù)式(11)求解平移向量,其中T為SVD分解后的最后一列,T′是所求的平移向量。

        (11)

        最后進(jìn)行旋轉(zhuǎn)矩陣R的求解,旋轉(zhuǎn)矩陣是正交矩陣,故其行列式det(R)=1,對[r1,r2,0]進(jìn)行SVD分解[r1,r2,0]=U∑VT,則旋轉(zhuǎn)矩陣R=UVT,如果det(UVT)=-1,則旋轉(zhuǎn)矩陣的最后一列反向。

        上述算法求解的旋轉(zhuǎn)和平移矩陣一般得不到較高的精度,通常需要對上述結(jié)果使用非線性迭代方法進(jìn)行優(yōu)化,以精確計(jì)算無人機(jī)位姿。

        正交迭代算法通過最小化空間點(diǎn)與由重投影像點(diǎn)確定的空間直線之間的距離求解旋轉(zhuǎn)和平移矩陣[8],該距離稱為像方殘差,像方殘差目標(biāo)函數(shù)為

        (12)

        式中:R和T分別為旋轉(zhuǎn)和平移矩陣;Pi為空間點(diǎn)在世界坐標(biāo)系下的坐標(biāo);I為單位矩陣;Vi=qiqiT/qiTqi表示視線投影矩陣;qi=[u,v,1]為空間點(diǎn)投影到歸一化圖像平面的像點(diǎn)坐標(biāo)。

        如果已知旋轉(zhuǎn)矩陣R,目標(biāo)函數(shù)是關(guān)于T的二次函數(shù),其解為

        (13)

        正交迭代算法的具體步驟如下:

        a) 第一步:給定初始的旋轉(zhuǎn)矩陣R0,然后根據(jù)式(13)求平移矩陣T0,令K=0;

        b) 第二步:用qi表示空間點(diǎn)在歸一化圖像平面的像點(diǎn)坐標(biāo),根據(jù)下式計(jì)算qi點(diǎn)坐標(biāo)

        qi(R,T)=Vi(RPi+T)

        (14)

        c) 第三步:進(jìn)一步得到式(15)

        (15)

        最小化上式,求得旋轉(zhuǎn)矩陣R;

        d) 第四步:令Rk+1=R,同時根據(jù)式(3-31)計(jì)算Tk+1=T(Rk+1);

        e) 第五步:若|E(Rk+1,Tk+1)-E(Rk,Tk)|<ε,算法結(jié)束,輸出旋轉(zhuǎn)和平移矩陣,否則k=k+1,返回第二步。

        (4) 分級處理

        本文設(shè)計(jì)的合作目標(biāo)是三級嵌套的正方形,主要是為了解決因?yàn)椴煌叨然蛘咂渌蓴_因素造成無人機(jī)在只提取到目標(biāo)的部分特征點(diǎn)的情況下能正常工作的問題。

        如果攝像頭拍攝的圖像能提取到三個正方形的特征點(diǎn),即目標(biāo)特征點(diǎn)完全提取,圖像特征點(diǎn)與目標(biāo)實(shí)際特征點(diǎn)是一一對應(yīng)的,不需要做處理;如果從圖像中只提取到一個或兩個正方形的特征點(diǎn),需要對圖像特征點(diǎn)進(jìn)行分析以確定正確的目標(biāo)特征點(diǎn)。

        若提取到兩個正方形特征點(diǎn),因?yàn)槠叫兄本€投影變換保持簡比不變,可以根據(jù)圖像中兩個正方形的邊長比與目標(biāo)實(shí)際邊長比進(jìn)行區(qū)分,而本文設(shè)計(jì)的合作目標(biāo)相鄰邊長的比具有明顯的差異,適合用簡比不變的性質(zhì)區(qū)分;若提取到一個正方形特征點(diǎn),利用提取到的圖像特征點(diǎn)坐標(biāo)和每組正方形的特征點(diǎn)坐標(biāo)分別計(jì)算無人機(jī)對于合作目標(biāo)的高度,然后將計(jì)算得到的高度與上一幀的高度或者慣性傳感器測量的高度進(jìn)行比較,選擇最接近的作為計(jì)算結(jié)果。

        上述方法很好地解決了無人機(jī)在不同高度對目標(biāo)的部分識別而引起的特征點(diǎn)對應(yīng)問題,提高了無人機(jī)定位的可靠性。

        3 實(shí)驗(yàn)分析

        本文分別測量攝像機(jī)平移前和平移后相對于 合作目標(biāo)的坐標(biāo),然后將這兩個坐標(biāo)的差與攝像機(jī)實(shí)際的平移進(jìn)行對比分析,以驗(yàn)證算法有效性。

        將攝像機(jī)分別沿x,y,z軸平移,在每一個方向測量10次,將其結(jié)果均值作為該點(diǎn)坐標(biāo)的測量值。在距離目標(biāo)1 500 mm處(此時測得x軸,y軸,z軸的坐標(biāo)分別為261.71,-162.69和302.14),讓攝像機(jī)分別沿x軸,y軸和z軸移動,每移動100 mm測量一次坐標(biāo)值。x方向測量結(jié)果如表1所示,y方向測量結(jié)果如表2所示,z方向測量結(jié)果如表3所示。

        圖8,圖9和圖10分別為x軸,y軸和z軸對應(yīng)測量點(diǎn)的坐標(biāo)曲線。以x軸舉例說明。攝像機(jī)在x軸的初始坐標(biāo)為261.71,在第一次移動后,其理論偏移量應(yīng)為100 mm,在實(shí)際測量后,此時實(shí)際坐標(biāo)為164.03,偏移量為97.68,相對于100的理論值誤差為2.32,之后繼續(xù)進(jìn)行10次測量,并記錄數(shù)據(jù)。圖10中的(a)圖繪制出了位移的理論值和實(shí)際值的曲線,(b)圖繪制出了誤差的曲線。y軸和z軸同理。

        表1 x方向測量值

        表2 y方向測量值

        表3 z方向測量值

        圖10-12中:(a)圖表示測量值與真值;(b)圖表示測量值與真值的誤差,根據(jù)圖10(b)和圖11(b)圖可以看出,在距離目標(biāo)1 500 mm處,x和y的視場范圍內(nèi),這兩個方向測量100 mm的絕對誤差在15 mm內(nèi),圖12(b)表明z方向的絕對誤差也在15 mm內(nèi)。

        4 結(jié)束語

        本文研究基于合作目標(biāo)的無人機(jī)視覺定位方法,首先分析了合作目標(biāo)的設(shè)計(jì)思想;然后研究從圖像中提取合作目標(biāo)的圖像處理算法,包括圖像濾波、閾值分割、邊緣提取、特征點(diǎn)提取等算法,提出了分級目標(biāo)的識別算法,并對算法做了驗(yàn)證;最后研究了已知圖像特征點(diǎn)坐標(biāo)和實(shí)際特征點(diǎn)坐標(biāo)解算無人機(jī)相對位置的算法和合作目標(biāo)分級處理的方法。

        圖10 x方向測量值與誤差

        圖11 y方向測量值與誤差

        圖12 z方向測量值與誤差

        [1] Wendel J, Meister O, Schlaile C, et al.An Integrated GPS/MEMS-IMU Navigation System for an Autonomous Helicopter [J]. Aerospace Science and Technology, 2006, 10(6): 527-533.

        [2] Ronnbaek S.Development of a INS/GPS Navigation Loop for an UAV[J].Master,Dissertation: Lulea University of Technology, Swedish; Lulea, 2000.

        [3] 張偉.導(dǎo)航定位裝備[M].北京:航空工業(yè)出版社, 2010: 101-130.

        [4] 黃顯臨,姜肖楠,盧鴻謙,等.自主視覺導(dǎo)航方法綜述[D].吉林大學(xué)學(xué)報(bào)(信息科學(xué)版), 2010, 28(2): 158-163.

        [5] Saaidi A, Halli A, Tairi H, et al. Self-calibration Using a Particular Motion of Camera[J]. WSEAS Transactions on Computer Research, 2008, 3(5): 295-299.5

        [6] 鄭曉平.基于視覺的小型無人直升機(jī)自主降落導(dǎo)航系統(tǒng)的研究[D].浙江大學(xué)碩士學(xué)位論文, 2013: 12-30.

        [7] Harris C,Stephens M. A Combined Corner and Edge Detector[A]. Fourth Alvey Vision Conference[C]. 1988: 147-151.

        [8] 龍古燦.無人機(jī)視覺引導(dǎo)中的位姿估計(jì)問題研究[D].長沙:國防科學(xué)技術(shù)大學(xué), 2011: 15-23.

        AMethodofUAV’SVisionPositioningUsingaCooperativeObject

        NIEXuan1,LUMan-jun2,XIChao-min1,QIMan-hua1

        (1. Northwestern Polytechnical University, Xi’an Shaanxi 710072, China; 2. Shanghai Radio Equipment Research Institute, Shanghai 200090, China)

        A measurement algorithm based on the Unmanned Aerial Vehicle (UAV) current spatial position and gesture of the cooperative object feature points is proposed. With the cooperative object as a reference object, on the basis of image filtering algorithm, threshold segmentation algorithm, edge extraction algorithm and corner extraction algorithm, extract the cooperative object feature points and establish the mathematical model describing the correlativity among image coordinate, world coordinate and the parameters of camera, and then solve this model to get the initial value of the UAV rotation and transition matrix according to SVD algorithm. Finally, use orthogonal iteration algorithm to find optimization and get the position and gesture information of the UAV. Besides, the algorithm of feature extraction adapting to different altitude specific to the hierarchical cooperative object is designed, the reliability of the object recognition is improved. The analysis of the simulation experiments verifies the validity of this method.

        vision positioning; cooperative object; simulated test

        1671-0576(2017)02-0042-09

        2017-01-18

        聶 烜(1976-),男,博士,碩士生導(dǎo)師,副教授,主要從事軟件工程和計(jì)算機(jī)應(yīng)用技術(shù)研究。

        V443.2

        A

        猜你喜歡
        特征測量
        抓住特征巧觀察
        新型冠狀病毒及其流行病學(xué)特征認(rèn)識
        如何表達(dá)“特征”
        把握四個“三” 測量變簡單
        不忠誠的四個特征
        滑動摩擦力的測量和計(jì)算
        滑動摩擦力的測量與計(jì)算
        測量的樂趣
        抓住特征巧觀察
        測量
        97日日碰日日摸日日澡| 97se色综合一区二区二区| 手机福利视频| 猫咪免费人成网站在线观看| 天天干夜夜躁| 中文片内射在线视频播放| 亚洲av日韩av卡二| 天天色影网| 伊人22综合| 国产精品专区一区二区av免费看| 在线观看中文字幕二区| 色综合久久精品亚洲国产| 草莓视频成人| 色婷婷亚洲十月十月色天| 日本成人精品在线播放| 国产综合在线观看| 视频一区二区在线播放| 婷婷开心五月综合基地| 变态另类手机版av天堂看网| 国产免费人成视频在线观看| 亚州精品无码久久aV字幕| 日本久久黄色高清视频| 久久国产精品一区二区三区| 国产真实夫妇视频| 亚洲AV无码一区二区二三区我| 亚洲精品综合一区二区| 久久婷婷色香五月综合缴缴情 | 在线观看免费不卡网站| 精品偷拍被偷拍在线观看| y111111少妇影院无码| 久久精品这里就是精品| 好大好爽我要高潮在线观看| 国产精品成人国产乱| 亚洲AV秘 无码一区二区三| 国产三级不卡视频在线观看| 亚洲av美国av产亚洲av图片| 国产另类综合区| 性色av一区二区三区四区久久| 放荡的美妇在线播放| 亚洲欧洲中文日韩久久av乱码| 黄片在线观看大全免费视频|