亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        圖像透視特征提取方法及其在無(wú)人機(jī)視覺(jué)導(dǎo)航中的應(yīng)用

        2014-04-12 00:00:00姚西亢巖
        現(xiàn)代電子技術(shù) 2014年2期

        摘 要: 近年來(lái),圖像透視特征在無(wú)人機(jī)視覺(jué)導(dǎo)航中應(yīng)用日益廣泛,因此結(jié)合近年來(lái)視覺(jué)導(dǎo)航技術(shù)的發(fā)展?fàn)顩r,分析了圖像透視特征在無(wú)人機(jī)視覺(jué)導(dǎo)航領(lǐng)域中的重要作用。同時(shí),還詳細(xì)介紹了圖像透視特征的提取方法,以及圖像透視特征提取方法在無(wú)人機(jī)視覺(jué)導(dǎo)航技術(shù)中的應(yīng)用,如飛行器姿態(tài)角估計(jì),高度估計(jì)以及相對(duì)位姿估計(jì)等。

        關(guān)鍵詞: 透視特征; 無(wú)人機(jī)導(dǎo)航; 滅點(diǎn); 透視變換

        中圖分類號(hào): TN919?34 文獻(xiàn)標(biāo)識(shí)碼: A 文章編號(hào): 1004?373X(2014)02?0016?05

        0 引 言

        無(wú)人機(jī)在監(jiān)視、巡邏、搜索、救援、航拍、航測(cè)等領(lǐng)域具有廣泛的應(yīng)用前景。以前最常用的無(wú)人機(jī)導(dǎo)航技術(shù)主要有慣性導(dǎo)航系統(tǒng)(Inertial Navigation System,INS)和全球定位系統(tǒng)(Global Position System,GPS)。然而這兩種系統(tǒng)都存在明顯的缺陷,如慣性導(dǎo)航系統(tǒng)在導(dǎo)航過(guò)程中存在累計(jì)誤差,對(duì)初始值過(guò)于敏感[1],而全球定位系統(tǒng)并非在任何情況下都能夠獲取,且其精度往往滿足不了無(wú)人機(jī)導(dǎo)航的需要[1]。

        近年來(lái),視覺(jué)導(dǎo)航方法由于其自主性、可靠性,以及設(shè)備低重量、小尺寸、廉價(jià)等特點(diǎn)越來(lái)越成為導(dǎo)航策略領(lǐng)域的研究熱點(diǎn),并且在無(wú)人飛行器(Unmanned Air Vehicles,UAV)上得到了廣泛應(yīng)用。視覺(jué)導(dǎo)航通常指利用計(jì)算機(jī)模擬人的視覺(jué)功能,提取客觀事物圖像中的有價(jià)值信息并進(jìn)行識(shí)別和理解,從而獲得載體相關(guān)導(dǎo)航參數(shù)的導(dǎo)航技術(shù)[2]。視覺(jué)導(dǎo)航技術(shù)主要包括圖像處理、計(jì)算機(jī)視覺(jué)、模式識(shí)別和信息融合等,其最早應(yīng)用于地面機(jī)器人的障礙規(guī)避和路徑規(guī)劃,之后便逐漸廣泛應(yīng)用于空中機(jī)器人導(dǎo)航。而圖像的透視特征作為一類典型的圖像特征,在視覺(jué)導(dǎo)航技術(shù)中具有十分廣闊的應(yīng)用前景。因此本文針對(duì)圖像透視特征提取方法及其無(wú)人機(jī)視覺(jué)導(dǎo)航中的應(yīng)用進(jìn)行研究和總結(jié),以供本領(lǐng)域研究工作者參考。

        1 圖像透視特征提取方法

        能夠應(yīng)用于無(wú)人機(jī)視覺(jué)導(dǎo)航的圖像透視特征提取方法有很多,最常見的是對(duì)滅點(diǎn)的多種提取方法以及通過(guò)透視變換對(duì)圖像信息進(jìn)行提取等。

        1.1 滅點(diǎn)的提取

        在理想情況下,用針孔相機(jī)拍攝平行線時(shí),若圖像中與這些平行線相對(duì)應(yīng)的直線相交于一點(diǎn),那么這個(gè)交叉點(diǎn)就被稱為滅點(diǎn)(Vanishing Point),這個(gè)點(diǎn)有時(shí)候是位于無(wú)窮遠(yuǎn)的。一個(gè)平面內(nèi)的滅點(diǎn)所決定的直線被稱為消失線(Vanishing Line)。圖1展示了一個(gè)立方體的三個(gè)滅點(diǎn)和消失線,其中一個(gè)滅點(diǎn)位于無(wú)窮遠(yuǎn)處[3]。

        圖1 立方體的三個(gè)消失點(diǎn)和消失線

        Straforini等人提出了一種滅點(diǎn)提取方法,其主要思想是用有界并且已分區(qū)的極坐標(biāo)空間中的點(diǎn)來(lái)表示線段,并且將極坐標(biāo)空間中相同分區(qū)中的線段歸于一類[4]。然而這種方法忽略了線段參數(shù)的精度問(wèn)題,且會(huì)受到相機(jī)與被拍攝物體的相對(duì)位置的局限,并且極坐標(biāo)空間的分區(qū)要依賴于相機(jī)與被拍攝物體間相對(duì)角度。

        目前最常見的滅點(diǎn)提取方法是基于Hough變換(Hough Transform,HT)[5]的提取方法。Hough變換是利用圖像的全局特性將源圖像上的點(diǎn)映射到用于累加的參數(shù)空間,從而對(duì)已知解析式曲線進(jìn)行識(shí)別的方法。最簡(jiǎn)單的Hough變換是對(duì)直線進(jìn)行識(shí)別,通過(guò)Hough變換可以把對(duì)圖像空間中的直線檢測(cè)轉(zhuǎn)換為對(duì)參數(shù)空間中的點(diǎn)的檢測(cè),即點(diǎn)?線對(duì)偶。另一種通過(guò)Hough變換求直線的基本思想是點(diǎn)?正弦曲線對(duì)偶,其原理與點(diǎn)?線對(duì)偶相似,只是用極坐標(biāo)描述直線使圖像空間中的點(diǎn)于參數(shù)空間中的正弦曲線相對(duì)應(yīng),從而避免了點(diǎn)?線對(duì)偶在圖像空間的直線斜率無(wú)窮大時(shí)累加器尺寸過(guò)大的弊端。為了解決Hough變換運(yùn)算量大的問(wèn)題同時(shí)改善Hough變換的實(shí)時(shí)探測(cè)性能,Leandro A.F.等人針對(duì)實(shí)時(shí)直線探測(cè)進(jìn)行了Hough變換的改進(jìn)[6],J. Matas等人將一種改進(jìn)的Hough變換法(Progressive Probabilistic Hough Transform,PPHT)用于機(jī)器人的直線探測(cè)[7]。當(dāng)利用Hough變換或其改進(jìn)方法得到圖像空間直線后,即可通過(guò)直線的坐標(biāo)求出直線的交叉點(diǎn),即滅點(diǎn)的坐標(biāo)。

        對(duì)于平面內(nèi)線段較多的情況,人們最常使用另一種基于Hough變換提取滅點(diǎn)的方法[8],該方法是將參數(shù)空間置于一個(gè)高斯球體上,此時(shí)與圖像中直線相對(duì)應(yīng)的平面和球體相交并且使球體中心與投影中心重合,則滅點(diǎn)就是大圓的交點(diǎn),如圖2所示[9]。

        L. Quan等人曾對(duì)上述方法進(jìn)行了改進(jìn),他們采用分級(jí)的Hough變換方式在室內(nèi)進(jìn)行滅點(diǎn)的探測(cè)[9]。而Magee等人則基于上述方法,將所有線段都投影到高斯球體上來(lái)增加判斷的準(zhǔn)確性,但是此方法使計(jì)算量大大增加[10]。為了減小計(jì)算的復(fù)雜度,Brillault建立了一個(gè)線段的不確定性模型[11],而Tuytelarrs等人是通過(guò)將線段的參數(shù)映射到有界的Hough空間來(lái)減少計(jì)算量[12]。此外,Shufelt等人基于上述方法研究了另外兩種關(guān)于提取滅點(diǎn)的方法[13?14]。一種是整合相機(jī)方位和成像物體幾何形狀的先驗(yàn)知識(shí),另一種則是用邊緣誤差建模,從而對(duì)線段的探測(cè)精度和長(zhǎng)度進(jìn)行分析。

        近些年來(lái),人們又提出了一些新的滅點(diǎn)探測(cè)方法,如Andres Almansa等人提出了一種基于Helmoltz原則的方法[15],該方法不需要先驗(yàn)知識(shí),同時(shí)能保證很高的準(zhǔn)確性, 不過(guò)此方法需要犧牲較大的計(jì)算量。

        針對(duì)滅點(diǎn)的檢測(cè),F(xiàn)araz M. Mirzaei等人使用了隨機(jī)抽樣一致性算法(RANdom Sample Consensus,RANSAC)[16],而Wolfgang Forstner加入了MLESAC估計(jì)法并且提出了一種對(duì)點(diǎn)、線的齊次坐標(biāo)和旋轉(zhuǎn)的不確定度的最小表示,從而避免出現(xiàn)奇異矩陣[17?18]。

        對(duì)于現(xiàn)有的滅點(diǎn)檢測(cè)技術(shù)的內(nèi)部缺陷,Jean?Charles Bazin等人使用了基于區(qū)間分析理論(Interval Analysis Theroy)的分支定界(branch?and bound)程序[19]。另外,Jean?Philippe Tardif提出了一種基于J?linkage的滅點(diǎn)檢測(cè)算法,這種方法既不需要迭代也不依賴于對(duì)空間內(nèi)滅點(diǎn)的統(tǒng)計(jì),是一種較新的方法[20]。

        1.2 圖像透視投影及透視變換

        透視投影[21]是計(jì)算機(jī)圖像學(xué)中一種基本的投影方式,是在二維平面上將三維感官體現(xiàn)出來(lái),因此具有和人眼類似的視覺(jué)體驗(yàn)。

        基本的透視投影模型由視點(diǎn)E和視平面P構(gòu)成,如圖3所示,對(duì)世界中的任一點(diǎn),構(gòu)造一條起點(diǎn)為視點(diǎn)E并經(jīng)過(guò)該點(diǎn)的射線,射線與視平面的交點(diǎn)即是該任意點(diǎn)的在平面P上的透視點(diǎn)。將這一系列透視點(diǎn)排列到視平面上即產(chǎn)生了三維世界的透視圖。

        視點(diǎn)E與視平面之間的射線組成的可視空間可以視為一無(wú)限大椎體,但因人類實(shí)際視野范圍有限,往往取一特定范圍使其有限大。如圖4所示,該有限棱臺(tái)被稱為視椎體,其所包圍區(qū)域是可視區(qū)域,其余為非可視區(qū)域。

        定義透視投影模型——視點(diǎn)E位于原點(diǎn),視平面垂直于z軸,且四邊分別平行于x軸和y軸。其中視平面距視點(diǎn)的距離為n,三維物體上的實(shí)際點(diǎn)坐標(biāo)設(shè)為(x,y,z),其在視平面的透視投影點(diǎn)坐標(biāo)為(xp,yp,zp),如圖5所示。

        從實(shí)際點(diǎn)和投影點(diǎn)分別做z軸的垂線并在x?z平面上投影,則有:

        在x?z平面上投影:

        [xPn=xz]

        在y?z平面上投影:

        [yPn=yz]

        解得:

        [xP=x·nz, yP=y·nz, zP=n] (1)

        式(1)便是透視投影的變換公式,由于投影點(diǎn)始終位于視平面,所以zp恒等于n,實(shí)際計(jì)算的時(shí)候可以不考慮zp。但當(dāng)投影平面為凸面或凹面時(shí),zp不恒等于n,此時(shí)投影圖形會(huì)產(chǎn)生違背人類視覺(jué)的形變,需另作考慮。

        根據(jù)透視投影原理,這里希望獲得一個(gè)與圖3中P平面相平行的平面上的圖像,即一個(gè)觀測(cè)者在對(duì)事物進(jìn)行垂直觀測(cè)時(shí)所獲圖像。但實(shí)際中,特別在無(wú)人機(jī)的視覺(jué)導(dǎo)航中,攝像設(shè)備往往不能垂直觀測(cè)該平面,而這種情況下所得到的視平面上的待觀測(cè)目標(biāo)是扭曲的,不利于導(dǎo)航和識(shí)別。因此需要對(duì)直接獲取的視平面圖像進(jìn)行透視變換以獲得更為理想的圖像。

        透視變換的原理十分簡(jiǎn)單,其實(shí)質(zhì)是將一個(gè)嵌入在三維空間的二維平面上的映射點(diǎn)映射到另一個(gè)不同的二維空間。為了使所獲扭曲圖像恢復(fù)原本的形狀,需要給這些二維平面的點(diǎn)額外增加一維,即給二維空間引入z維,并將z值設(shè)為1,之后將該空間再投影到輸出的二維空間,其透視變換公式為:

        [x′=a11x+a12x+a13a31x+a32x+a33 ; y′=a21x+a22x+a23a31x+a32x+a33] (2)

        1.3 圖像透視特征提取方法在無(wú)人機(jī)視覺(jué)導(dǎo)航中的應(yīng)用

        無(wú)人機(jī)視覺(jué)導(dǎo)航技術(shù)是利用計(jì)算機(jī)視覺(jué)和圖像處理等方法從已獲圖像中提取無(wú)人機(jī)的導(dǎo)航參數(shù)以便實(shí)現(xiàn)自主導(dǎo)航,其主要提取的無(wú)人機(jī)導(dǎo)航參數(shù)包括姿態(tài)、位置、速度等[3]。由于圖像透視特征的提取方法應(yīng)用于速度參數(shù)提取的方面較少,因此本文著重從飛行器姿態(tài)與位置相關(guān)參數(shù)提取的角度介紹圖像透視特征提取方法在無(wú)人機(jī)視覺(jué)導(dǎo)航中的應(yīng)用。

        (1) 姿態(tài)角估計(jì)

        姿態(tài)角是飛行器飛行姿態(tài)的重要參數(shù),可分為俯仰角、滾動(dòng)角、偏航角等。俯仰角指機(jī)體縱軸與水平面的夾角,在飛機(jī)起降過(guò)程的導(dǎo)航中尤為重要;滾動(dòng)角指機(jī)體橫軸與水平面的夾角,對(duì)飛行器的平穩(wěn)和方向調(diào)整十分重要;偏航角指機(jī)體縱軸在水平面上的投影與地面坐標(biāo)系x軸的夾角,用于檢測(cè)飛機(jī)的飛行方向。

        滾動(dòng)角提取最常用的視覺(jué)導(dǎo)航方法是直接利用提取的地平線進(jìn)行估計(jì)[22],偏航角主要根據(jù)分析“T”形等特殊形狀的人工標(biāo)志進(jìn)行測(cè)算[23]。但俯仰角無(wú)法像前兩者那樣在由攝像機(jī)獲取的圖像上直觀地獲取,因此需要對(duì)其進(jìn)行間接提取。下面主要從滅點(diǎn)的角度簡(jiǎn)述無(wú)人機(jī)俯仰角的估計(jì)方法。

        在此方法中,利用滅線的特點(diǎn)可求得飛行器位姿的關(guān)鍵參數(shù)。所謂滅線即指平行直線的所有滅點(diǎn)所在的直線。因此可以在一剛性支架兩端分別固定一架攝像機(jī),同時(shí)使其面向同一場(chǎng)景且光軸平行,從而獲取滅線的位置。以飛機(jī)著陸為例,設(shè)飛行器相對(duì)著陸點(diǎn)的俯仰角為θ,飛行器與地面相對(duì)高度為H,攝像機(jī)坐標(biāo)系為XcYcZc,世界坐標(biāo)系為XwYwZw,攝像機(jī)光心為FOVC,攝像機(jī)平移方向在圖像中的膨脹中心為FOE,則根據(jù)圖6所示的幾何關(guān)系可得到滅線和滅點(diǎn)的位置[24]。

        圖6 飛行器著陸模型

        當(dāng)攝像機(jī)預(yù)先標(biāo)定時(shí),利用飛行器著陸模型圖上滅點(diǎn)、光心、膨脹中心三個(gè)參數(shù)即可求得俯仰角θ,公式如下:

        [θ=arctanLbfP=arctanLffP=arctanfP(LP-Lf)f2b+LbLf] (3)

        式中:Lf為FOVC到FOE距離;Lh為FOVC到滅點(diǎn)距離;fp為XcYcZc坐標(biāo)系的原點(diǎn)到FOVC的距離,即攝像機(jī)焦距[24] 。

        (2) 高度估計(jì)

        由立體視覺(jué)原理可知,若兩個(gè)攝像機(jī)間的基線長(zhǎng)度、攝像機(jī)焦距以及目標(biāo)特征點(diǎn)在圖6中的視差已知,則可通過(guò)式(4)計(jì)算得到目標(biāo)特征點(diǎn)相對(duì)于攝像機(jī)深度yc的信息。

        [yC=bfPD] (4)

        式中:b為兩攝像機(jī)間的基線長(zhǎng)度;fp為攝像機(jī)焦距;D為雙目視差。

        若假設(shè)攝像機(jī)與飛行器位置重合,則根據(jù)式(3)所得俯仰角θ,運(yùn)用三維重建方法可近似求得攝像機(jī)相對(duì)地面的高度H如下所示:

        [H=ycsinθ+zccosθ] (5)

        式中zc為特征點(diǎn)到光心的距離[24]。

        另一種關(guān)于圖像透視特征的飛行器高度提取方法是將一個(gè)魚眼相機(jī)結(jié)合一個(gè)透視相機(jī)進(jìn)行高度估計(jì)[25]。與傳統(tǒng)的基于特征匹配的立體視覺(jué)系統(tǒng)不同,這種方法是根據(jù)兩幅圖像的相同特征的對(duì)應(yīng)對(duì)高度進(jìn)行測(cè)量從而對(duì)地平面進(jìn)行檢測(cè)。

        (3) 相對(duì)位姿估計(jì)

        在相對(duì)位姿估計(jì)過(guò)程中,基于圖像透視特征的視覺(jué)導(dǎo)航方法具有直觀、精度高的特點(diǎn),例如可以通過(guò)透視變換及其相關(guān)算法方法進(jìn)行信息的采集和處理。

        以飛行器與地標(biāo)的相對(duì)位姿估計(jì)為例,通過(guò)圖象矩與聲納傳感器所獲信息的結(jié)合即可估計(jì)出UAV與地標(biāo)的相對(duì)位置信息[26]。此外,用基于單應(yīng)性矩陣 (Homography)[27]分解的相對(duì)位姿估計(jì)算法[28]不僅能得到飛行器相對(duì)于地標(biāo)的位置,還可以得到飛行器與地標(biāo)間的三維姿態(tài)信息,因此單應(yīng)性矩陣在視覺(jué)導(dǎo)行中的應(yīng)用比圖像矩更為廣泛。例如Kanade T等人就用其實(shí)現(xiàn)了微小型無(wú)人直升機(jī)的位姿估計(jì)和導(dǎo)航控制[29],任沁源等人同樣將單應(yīng)性矩陣應(yīng)用于他們所提出的基于視覺(jué)信息的UAV位姿估計(jì)算法中[30],從而獲得無(wú)人機(jī)的位姿信息[31]。

        2 展 望

        無(wú)人機(jī)視覺(jué)導(dǎo)航技術(shù)由于其成本低、方法簡(jiǎn)便等特點(diǎn)在實(shí)際無(wú)人機(jī)導(dǎo)航中具有廣泛的應(yīng)用。其中關(guān)于滅點(diǎn)等圖像透視特征的無(wú)人機(jī)自主導(dǎo)航方法更是在近幾年得到了大量研究并有了很大進(jìn)展。然而僅有圖像透視特征視覺(jué)導(dǎo)航方法使無(wú)人機(jī)進(jìn)行精確的自主導(dǎo)行是遠(yuǎn)遠(yuǎn)不夠的,如對(duì)于運(yùn)動(dòng)目標(biāo)的檢測(cè),需要采用光流法、背景差法、幀差法等進(jìn)行實(shí)現(xiàn)。另外,視覺(jué)導(dǎo)航方法本身也并不能夠全面地進(jìn)行無(wú)人機(jī)導(dǎo)航。雖然視覺(jué)導(dǎo)航方法能構(gòu)精確應(yīng)用于簡(jiǎn)單的室內(nèi)環(huán)境、有特殊地標(biāo)的機(jī)場(chǎng)和空曠的外界環(huán)境,然而在應(yīng)用于室外復(fù)雜環(huán)境時(shí),視覺(jué)導(dǎo)航方法則會(huì)受到限制并且減少可信度。如在復(fù)雜環(huán)境中飛行過(guò)快時(shí),無(wú)人機(jī)導(dǎo)航須要進(jìn)行大量的算法處理同時(shí)保證較少的延時(shí)[1],這是僅僅通過(guò)視覺(jué)導(dǎo)航方法很難達(dá)到的。因此需要運(yùn)用相關(guān)的濾波方法和數(shù)據(jù)融合算法將視覺(jué)導(dǎo)航方法得到的信息與其他導(dǎo)航方法進(jìn)行有效融合使無(wú)人機(jī)在室外復(fù)雜環(huán)境的導(dǎo)航精度提高。同時(shí),還應(yīng)當(dāng)針對(duì)如何提高無(wú)人機(jī)視覺(jué)導(dǎo)航算法的速度,如何面對(duì)無(wú)人機(jī)自身模型的不確定性和外界的干擾等問(wèn)題進(jìn)行進(jìn)一步的研究,使視覺(jué)導(dǎo)航方法在無(wú)人機(jī)導(dǎo)航中的應(yīng)用更加廣泛。

        參考文獻(xiàn)

        [1] 吳顯亮,石宗英,鐘宜生.無(wú)人機(jī)視覺(jué)導(dǎo)航研究綜述[J].系統(tǒng)仿真學(xué)報(bào),2010,22(z1):62?65.

        [2] 王先敏,曾慶化,熊智,等.視覺(jué)導(dǎo)航技術(shù)的發(fā)展及其研究分析[J].信息與控制,2010,35(5):609?613.

        [3] ROTHER Carsten. A new approach to vanishing point detection in architectural environments [J]. Image and Vision Computing, 2002, 20(9/10): 54?59.

        [4] STRAFORINI M, COELHO C, CAMPANI M. Extraction of vanishing points from images of indoor and outdoor scenes [J]. Images and Vision Computing, 1993, 11: 91?99.

        [5] BALLARD D H. Generalizing the hough transform to detect arbitrary shapes [J]. Pattern Recognition, 1981, 13(2): 111?122.

        [6] FERNANDEZ LA F, OLIVEIRA M M. Real?time line detection through an improved hough transform voting scheme [J]. Pattern Recognition, 2008, 41(1): 299?314.

        [7] MATAS J, GALAMBOS C, KITTLER J. Robust detection of lines using the progressive probabilistic hough transform [J]. Computer Vision and Image Understanding, 2000, 78(1): 119?137.

        [8] BARNARD S T. Interpreting perspective images [J]. Artificial Intelligence, 1983, 21(4):435?462.

        [9] QUAN L, MOHR R. Determining perspective structures using hierarchical hough transform [J]. Pattern Recognition, 1989, 9(4): 279?286.

        [10] MAGEE M J, AGGARWAL J K. Determining vanishing points from perspective images [J]. Computer Vision, Graphics and Image Processing, 1984, 26(2): 222?231.

        [11] BRILLAULT?O’MAHONY B. New method for vanishing point detection [J]. Computer Vision, Graphics, and Image Processing, 1991, 54(2): 289?300.

        [12] TUYTELAARS T, VAN GOOL L, PROESMANS M, et al. A cascaded hough transform as an aid in aerial image interpretation [C]// Proceedings of the 6th International Conference on Computer Vision. Bombay, India: ICCV, 1998: 67?72.

        [13] SHUFELT J A. Exploiting photogrammetric methods for building extraction in aerial images [J]. International Archives of Photogrammetry and Remote Sensing, 1996, 331: 74?79.

        [14] SHUFELT J A. Performance Evaluation and Analysis of Vanishing Point Detection Techniques [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1999, 21(3):282?288.

        [15] ALMANSA A, DESOLNEUX A, VAMECH S. Vanishing point detection without any a priori information [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2003, 25(4): 502?507.

        [16] MIRZAEI F M, ROUMELIOTIS S I. Optimal estimation of vanishing points in a manhattan world [C]// Proceedings of 2011 International Conference on Computer Vision. Barcelona, Spain: ICCV, 2011: 2454?2461.

        [17] FORSTNER Wolfgang. Optimal vanishing point detection and rotation estimation of single images from a legoland scene [C]// Proceedings of ISPRS Commission III Symp Photogramm Comput Vis Image Anal. [S.l.]: [s.n.], 2010: 156?162.

        [18] TORR P H S. MLESAC: a new robust estimator with application to estimating image geometry [J]. Computer Vision and Image Understanding, 2000, 78(1): 2000?2016.

        [19] MIRZAEI F M, ROUMELIOTIS S I. Globally optimal line clustering and vanishing point estimation in manhattan world [C]// Proceedings of 2011 IEEE International Conference on Computer Vision and Pattern Recognition. Barcelona: CVPR, 2012: 2454?2461.

        [20] TARDIF J?P. Non?iterative approach for fast and accurate vanishing point detection [C]// Proceedings of 2009 IEEE 12th International Conference on Computer Vision. Kyoto: IEEE, 2009:1250?1257.

        [21] 孫家廣,楊長(zhǎng)貴.LearningOpenCV[M].北京:清華大學(xué)出版社,1998.

        [22] ETTINGER S M, NECHYBA M C, IFJU P G, et al. Vision?guided flight stability and control for micro air vehicles [J]. Advanced Robotics, 2003, 17(7): 617?640.

        [23] SHARP C S, SHAKERNIA O, SASTRY S S. A vision system for landing an unmanned aerial vehicle [C]// Proceedings of 2001 IEEE International Conference on Robotics and Automation. [S.l.]: IEEE, 2001, 2: 1720?1727.

        [24] 潘翔,馬德強(qiáng),吳貽軍,等.基于視覺(jué)著陸的無(wú)人機(jī)俯仰角與高度估計(jì)[J].浙江大學(xué)學(xué)報(bào):工學(xué)版,2009(4):692?696.

        [25] EYNARD D, VASSEUR P, DEMONCEAUX C, et al. UAV altitude estimation by mixed stereoscopic vision [C]// Proceedings of 2010 IEEE/RSJ International Conference on Intelligent Robots and Systems. [S.l.]: IEEE, 2010: 646?651.

        [26] SARIPALLI S, MONTGOMERY J F, SUKHATME G S. Vision?based autonomous landing of an unmanned aerial vehicle [C]// Proceedings of IEEE international conference on Robotics and automation. [S.l.]: IEEE, 2002, 3: 2799?2804.

        [27] HARTLEY R, ZISSERMAN A. Multiple view geometry in computer vision [M]. Cambridge: [s.n.], 2000.

        [28] FAUGERAS O D, LUSTMAN F. Motion and structure from motion in a piecewise planar environment [J]. International Journal of Pattern Recognition and Artificial Intelligence, 1988, 2(03): 485?508.

        [29] KANADE T, AMIDI O, KE Q. Real?time and 3D vision for autonomous small and micro air vehicles [C]// Proceedings of 2004 CDC 43rd IEEE Conference on Decision and control. [S.l.]: IEEE, 2004, 2: 1655?1662.

        [30] 任沁源,李平,韓波.基于視覺(jué)信息的微型無(wú)人直升機(jī)位姿估計(jì)[J].浙江大學(xué)學(xué)報(bào):工學(xué)版,2009(1):18?22.

        [31] 谷雨.空中機(jī)器人視覺(jué)導(dǎo)航與控制若干問(wèn)題研究[D].杭州:浙江大學(xué),2009.

        亚洲精品欧美二区三区中文字幕 | 极品少妇被后入内射视| 日韩一区二区三区人妻免费观看| 狠狠噜狠狠狠狠丁香五月| 国产成人综合久久精品免费| 国产片三级视频播放| 蜜臀人妻精品一区二区免费| 久久无码字幕中文久久无码| 亚洲av无码片在线观看| 成人国产在线观看高清不卡| 亚洲国产av综合一区| 日韩av无码久久一区二区| 国产a v无码专区亚洲av| 国产精品欧美成人片| 男女搞事在线观看视频| 人妻色综合网站| 欧美色图中文字幕| 给我播放的视频在线观看| 精品厕所偷拍一区二区视频| 国产人妻精品一区二区三区| 思思99热| 亚洲成在人线天堂网站| 全黄性性激高免费视频| 国产精品乱码在线观看| 手机免费日韩中文字幕| 亚洲高清三区二区一区| 国产精品一区二区久久久av| 在线看片免费人成视频电影| 国产精品麻豆最新AV| 农村国产毛片一区二区三区女| 99久久婷婷国产亚洲终合精品 | 久久精品人妻一区二区三区| 99热高清亚洲无码| 日本黄色3级一区二区| 亚洲精品午夜无码专区| 99国产精品久久久蜜芽| 亚洲av色香蕉一区二区三区av| а√天堂8资源中文在线| 国产日产高清欧美一区| 国产一区二区三区白浆在线观看| 日本精品视频免费观看|