亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        無(wú)人機(jī)視覺(jué)導(dǎo)航著陸地標(biāo)實(shí)時(shí)檢測(cè)跟蹤方法

        2018-05-07 02:20:18李靖馬曉東陳懷民段曉軍張彥龍
        關(guān)鍵詞:特征

        李靖, 馬曉東, 陳懷民, 段曉軍, 張彥龍

        1.西北工業(yè)大學(xué) 機(jī)電學(xué)院, 陜西 西安 710072; 2.西北工業(yè)大學(xué) 自動(dòng)化學(xué)院, 陜西 西安 710072; 3.西北工業(yè)大學(xué) 無(wú)人機(jī)特種技術(shù)國(guó)防科技重點(diǎn)實(shí)驗(yàn)室, 陜西 西安 710072

        近年來(lái),由于無(wú)人機(jī)具有成本低、可操作性好、可垂直起降、可攜帶其他載物等優(yōu)點(diǎn),其在軍事及民用領(lǐng)域應(yīng)用較多[1-2]。特別是配備了視覺(jué)系統(tǒng)后,更能加強(qiáng)其自主化、智能化,使其應(yīng)用領(lǐng)域更為廣泛。其中基于視覺(jué)的無(wú)人機(jī)定點(diǎn)著陸是一個(gè)熱門的研究主題。通過(guò)對(duì)視覺(jué)傳感器采集到的圖像進(jìn)行處理,并識(shí)別、跟蹤著陸地標(biāo)圖像,以輔助無(wú)人機(jī)進(jìn)行自主著陸[3]。但在著陸過(guò)程中,目標(biāo)尺度、光照、拍攝角度以及局部區(qū)域環(huán)境會(huì)發(fā)生變化,再加上復(fù)雜的背景環(huán)境等干擾,使得目標(biāo)的跟蹤難度加大,甚至?xí)G失目標(biāo)。因此,無(wú)人機(jī)定點(diǎn)著陸過(guò)程中的視覺(jué)跟蹤問(wèn)題是一個(gè)非常具備挑戰(zhàn)性的研究課題。

        近年來(lái),人們針對(duì)視覺(jué)跟蹤問(wèn)題提出很多算法,但現(xiàn)有的算法在解決無(wú)人機(jī)定點(diǎn)著陸過(guò)程中的長(zhǎng)時(shí)間實(shí)時(shí)視覺(jué)跟蹤問(wèn)題上仍存在不足。早期的基于模板匹配的跟蹤是通過(guò)選擇性地更新模板來(lái)描述相似性,從而找到最優(yōu)的跟蹤結(jié)果[4]。此類方法雖然對(duì)于目標(biāo)的外觀變化有一定的魯棒性,但沒(méi)有充分利用目標(biāo)的特征信息,且模板更新存在誤差,故無(wú)法長(zhǎng)時(shí)間穩(wěn)定準(zhǔn)確地跟蹤目標(biāo)?;谙∈璞硎?sparse representation)的方法是另一種常用的跟蹤方法[5-6],但此類方法計(jì)算密集,沒(méi)有充分利用上下文信息,無(wú)法保證長(zhǎng)時(shí)間目標(biāo)跟蹤的穩(wěn)定性與準(zhǔn)確性。tracking-by-detection是通過(guò)在線學(xué)習(xí)模式(如SVM[7],boosting[8]),在序列圖像中進(jìn)行目標(biāo)與背景的分類檢測(cè),從而達(dá)到目標(biāo)跟蹤的目的。但此類方法耗費(fèi)時(shí)間較長(zhǎng),無(wú)法滿足實(shí)時(shí)性的要求。Kalal等人對(duì)光流法進(jìn)行改進(jìn),設(shè)計(jì)出一種中值流跟蹤器[9]。該跟蹤器跟蹤性能較好,提高了目標(biāo)跟蹤的可靠性與實(shí)時(shí)性;但沒(méi)有充分利用上下文信息,且無(wú)法在目標(biāo)消失后重新找回目標(biāo)。對(duì)此,Kalal等人在中值流跟蹤器的基礎(chǔ)上,提出了tracking-learning-detection(TLD)跟蹤算法[10],此算法魯棒性較高,通過(guò)在線訓(xùn)練多個(gè)專家模型(multiple experts),綜合判斷并糾正當(dāng)前跟蹤結(jié)果,保證目標(biāo)跟蹤的準(zhǔn)確性。但此算法由于需在線訓(xùn)練多個(gè)專家模型,故實(shí)時(shí)性較為一般,不滿足無(wú)人機(jī)基于視覺(jué)進(jìn)行頂點(diǎn)著陸對(duì)于視覺(jué)跟蹤算法實(shí)時(shí)性的要求。

        本文基于上述背景分析,利用以SURF-BoW特征進(jìn)行線下訓(xùn)練的SVM分類器進(jìn)行跟蹤器初始化,之后利用改進(jìn)后的基于上下文信息相關(guān)性的中值流跟蹤算法進(jìn)行目標(biāo)跟蹤,保證目標(biāo)跟蹤的可靠性、完整性,并設(shè)計(jì)目標(biāo)再搜索方法,保證在上述跟蹤失敗的情況下仍能找回目標(biāo)并進(jìn)行跟蹤,提升整套算法的魯棒性。

        1 基于前后跟蹤誤差的中值流跟蹤算法

        1.1 前后跟蹤誤差

        對(duì)于計(jì)算機(jī)視覺(jué)中特征點(diǎn)的跟蹤,是通過(guò)t時(shí)刻的某特征點(diǎn)的位置,估算出t+1時(shí)刻該點(diǎn)位置。但點(diǎn)的跟蹤通常面臨被跟蹤點(diǎn)改變或者從圖像中消失的情況,此時(shí)則認(rèn)為該特征點(diǎn)跟蹤失敗。為了能夠使得跟蹤器自我評(píng)價(jià)特征點(diǎn)跟蹤的可靠性,Kalal等人提出了一種基于向前向后一致性假設(shè)的中值流跟蹤算法,假設(shè)如下[9]:①跟蹤器由t時(shí)刻前向跟蹤特征點(diǎn)到t+1時(shí)刻會(huì)生成1條軌跡;②跟蹤器由t+1時(shí)刻后向跟蹤特征點(diǎn)到t時(shí)刻,生成1條驗(yàn)證軌跡;③2條軌跡相比較,若明顯不同,則認(rèn)為該特征點(diǎn)跟蹤錯(cuò)誤。如圖1所示,a)中點(diǎn)A的前后跟蹤軌跡一致,故跟蹤正確;相反,b)中的點(diǎn)B前后跟蹤軌跡不一致,則認(rèn)為跟蹤失敗。

        圖1 前后雙向跟蹤示意圖

        前后跟蹤誤差可用來(lái)判斷雙向跟蹤軌跡是否相同。如圖2所示,It是t時(shí)刻圖像,It+1是t+1時(shí)刻圖像。使用跟蹤器,對(duì)It中的特征點(diǎn)xt向前跟蹤到It+1中的點(diǎn)xt+1。之后,向后跟蹤,即從It+1中的特征點(diǎn)xt+1向后跟蹤到It中的xt。前后誤差被定義為這2條軌跡的相似性。前后誤差EFB=‖xt-t‖,即點(diǎn)xt與t之間的歐式距離,距離越小,則跟蹤效果越好。

        圖2 前后雙向跟蹤誤差

        1.2 中值流跟蹤算法

        中值流跟蹤算法采用L-K光流法[11-12]為核心跟蹤算法,通過(guò)前后向跟蹤誤差及跟蹤特征點(diǎn)相鄰2幀周邊區(qū)域相似性進(jìn)行跟蹤性能判斷,從而準(zhǔn)確跟蹤到目標(biāo)。如圖3所示。

        圖3 中值流跟蹤算法

        Ni=∑x′,y′(T(x′,y′)·I(x′,y′))∑x′,y′T(x′,y′)2·∑x′,y′I(x′,y′)2

        (1)

        式中,Ni的值域?yàn)閇0,1],0表示完全不相似,1表示完全相似。T(x,y)為圖像T在(x,y)處的灰度值,I(x,y)為圖像I在(x,y)處的灰度值。

        2 基于上下文信息相關(guān)性的改進(jìn)中值流跟蹤器

        中值流跟蹤器以L-K光流法為核心,通過(guò)前后雙向跟蹤誤差及跟蹤特征點(diǎn)局部相似性檢驗(yàn),篩除50%跟蹤效果較差的特征點(diǎn),用剩下的特征點(diǎn)來(lái)估計(jì)整個(gè)邊界框的位移。該算法雖提高了目標(biāo)跟蹤的可靠性與實(shí)時(shí)性,卻無(wú)法自己初始化目標(biāo),不能保證長(zhǎng)時(shí)間跟蹤后目標(biāo)的完整性,并且無(wú)法在跟蹤失敗后再次檢索目標(biāo),使得整個(gè)跟蹤算法不具備魯棒性。為了解決上述問(wèn)題,本文基于改進(jìn)的中值流跟蹤算法,設(shè)計(jì)了一套專門用于視覺(jué)導(dǎo)航的無(wú)人機(jī)定點(diǎn)自主著陸的目標(biāo)實(shí)時(shí)跟蹤算法,該算法流程如圖4所示。

        圖4 基于上下文相關(guān)信息的中值流跟蹤算法流程

        2.1 著陸地標(biāo)設(shè)計(jì)

        為實(shí)現(xiàn)基于視覺(jué)導(dǎo)航的無(wú)人機(jī)自主著陸,本文設(shè)計(jì)了易檢測(cè)識(shí)別并能夠提取特征進(jìn)行相對(duì)位姿解算的合作目標(biāo),如圖5所示。

        圖5 合作目標(biāo)

        如圖5a)所示,該合作目標(biāo)由同心的圓和菱形組成。圓為黑色,菱形為白色,顏色相對(duì)明顯,易于分割與識(shí)別。最外圍的圓的作用是用來(lái)通過(guò)輪廓特征確定感興趣區(qū)域,即目標(biāo)所在區(qū)域;內(nèi)部的菱形則用來(lái)提取特征點(diǎn),用于相對(duì)位姿信息的計(jì)算。提取的特征點(diǎn)為圖1b)中紅色點(diǎn),而圓與菱形的中心點(diǎn)與特征點(diǎn)的連線可作為參考航向線使用。

        實(shí)際的無(wú)人機(jī)飛行避免不了合作目標(biāo)被遮擋的情況。本文設(shè)計(jì)的合作目標(biāo)在面對(duì)圖2中的遮擋情況仍能繼續(xù)使用。圖6a)外圍圓部分被遮擋,但仍能通過(guò)部分圓確定目標(biāo)區(qū)域,從而識(shí)別目標(biāo);而內(nèi)部菱形區(qū)域完整,可提取完整的特征點(diǎn)進(jìn)行現(xiàn)對(duì)位姿等導(dǎo)引信息的解算。圖6b)內(nèi)部的菱形也被遮擋一部分,通過(guò)部分圓能確定目標(biāo)區(qū)域,從而識(shí)別目標(biāo);但內(nèi)部的菱形特征點(diǎn)缺少一個(gè),無(wú)法計(jì)算相對(duì)位姿等導(dǎo)引信息。此時(shí)可對(duì)目標(biāo)進(jìn)行直線檢測(cè),通過(guò)檢測(cè)到的菱形邊所在直線,確定交點(diǎn)所在。檢測(cè)到的交點(diǎn)即為所需特征點(diǎn)。

        圖6 合作目標(biāo)部分被遮擋

        2.2 著陸地標(biāo)檢測(cè)

        著陸地標(biāo)檢測(cè)的目的是為了提取感興趣區(qū)域圖像,為下一步地標(biāo)識(shí)別打下基礎(chǔ)。首先,需對(duì)采集到的視頻幀圖像進(jìn)行預(yù)處理。如圖7所示,預(yù)處理包括:圖像灰度化、濾波去噪、圖像分割、邊緣檢測(cè)和輪廓提取。在圖像預(yù)處理后,可以得到包含目標(biāo)輪廓的可疑目標(biāo)的輪廓集。然后利用最小矩形框包圍這些輪廓,得到包含地標(biāo)圖像的矩形圖像集。

        圖7 圖像預(yù)處理

        2.3 著陸地標(biāo)識(shí)別

        著陸地標(biāo)識(shí)別的目的是在目標(biāo)檢測(cè)之后,準(zhǔn)確地識(shí)別出地標(biāo)圖像,完成跟蹤器目標(biāo)初始化。本文基于SURF-BoW特征進(jìn)行離線SVM分類器訓(xùn)練,用于著陸地標(biāo)識(shí)別。SURF(speeded up robust features)是一種尺度不變、旋轉(zhuǎn)不變的特征點(diǎn)檢測(cè)子與描述子,具備速度快、魯棒性好等優(yōu)點(diǎn)[13]。而詞袋(bag of words,簡(jiǎn)稱BoW)模型原是自然語(yǔ)言處理領(lǐng)域用于文本信息檢索和文本分類的技術(shù)[14],用于圖像領(lǐng)域時(shí),需要將二維圖像信息映射成視覺(jué)關(guān)鍵詞集合,這樣即保存了圖像的局部特征又有效壓縮了圖像的描述[15]。本文結(jié)合SURF與BoW的優(yōu)勢(shì),提取SURF-BoW特征來(lái)描述樣本圖像,利用SVM算法對(duì)這些特征進(jìn)行訓(xùn)練,從而得到用于目標(biāo)識(shí)別的SVM分類器。其中分類器構(gòu)建步驟如下:

        Step1 獲取樣本圖像,并將尺寸統(tǒng)一調(diào)整為256*256像素;

        Step2 將每個(gè)樣本圖像分割為大小為32*32像素的單元格。每個(gè)單元格都提取SURF特征,整幅樣本圖像所有的單元格提取到的SURF特征形成一個(gè)SURF特征集合;

        Step3 使用K-means均值聚類算法對(duì)所有樣本圖像提取的SURF特征進(jìn)行聚類,得到K個(gè)類,每個(gè)類的聚類中心對(duì)應(yīng)一個(gè)視覺(jué)單詞,即每個(gè)類用一個(gè)視覺(jué)單詞表示,從而生成一個(gè)由K個(gè)視覺(jué)單詞構(gòu)成的視覺(jué)單詞表,即為視覺(jué)詞典;

        Step4 每個(gè)樣本圖像都要統(tǒng)計(jì)提取到的每個(gè)SURF特征點(diǎn)的所屬類別,確定每一類別中包含該樣本圖像SURF特征的個(gè)數(shù);統(tǒng)計(jì)結(jié)束后每一幅樣本圖像可生成一個(gè)K維的特征向量,即為該樣本圖像的視覺(jué)詞匯特征向量;

        Step5 設(shè)正樣本圖像的類別標(biāo)簽為1,負(fù)樣本的類別標(biāo)簽為0,每一個(gè)樣本圖像的K維視覺(jué)詞匯特征向量和相應(yīng)的類別標(biāo)簽可作為訓(xùn)練數(shù)據(jù),基于SVM訓(xùn)練算法,訓(xùn)練得到著陸地標(biāo)圖像分類器。

        目標(biāo)的識(shí)別過(guò)程如下:

        Step1 輸入待分類圖像,并將其尺寸調(diào)整為256*256像素;

        Step2 將待分類圖像分割為大小為32*32像素的單元格。每個(gè)單元格都提取SURF特征,所有的單元格提取到的SURF特征形成一個(gè)SURF特征集合;

        Step3 統(tǒng)計(jì)提取到的每個(gè)SURF特征點(diǎn)的所屬類別,確定每一類別中包含該圖像SURF特征的個(gè)數(shù);統(tǒng)計(jì)結(jié)束后可生成一個(gè)K維的特征向量,即為待分類圖像的視覺(jué)詞匯特征向量;

        Step4 將待分類圖像的視覺(jué)詞匯特征輸入到著陸地標(biāo)圖像分類器內(nèi)進(jìn)行分類識(shí)別。

        圖8 目標(biāo)識(shí)別算法工作流程

        2.4 著陸地標(biāo)跟蹤

        中值流跟蹤算法是以跟蹤特征點(diǎn)來(lái)表征目標(biāo)圖像,經(jīng)雙向L-K光流跟蹤后,以所有跟蹤點(diǎn)的EFB與N的中值為閾值,來(lái)去除50%跟蹤效果較差的跟蹤點(diǎn),以剩下的50%的跟蹤點(diǎn)來(lái)估計(jì)目標(biāo)邊界框的位移。但該方法去除的50%的跟蹤點(diǎn)不一定都是跟蹤效果較差的點(diǎn),且跟蹤到的目標(biāo)無(wú)法保證其完整性。而且該方法還需要每一幀初始化跟蹤點(diǎn),這樣會(huì)浪費(fèi)一定的時(shí)間。

        故本文對(duì)中直流跟蹤算法做出改進(jìn),采用固定值ET,NT作為閾值,來(lái)濾除跟蹤效果較差的點(diǎn)。如式(2)所示,當(dāng)跟蹤點(diǎn)滿足式(2)中的條件,即認(rèn)為該點(diǎn)跟蹤效果較好,反之,則較差。

        ≤ET

        Ni≥NT

        (2)

        式中,i指的是第i個(gè)跟蹤點(diǎn)。經(jīng)多次實(shí)驗(yàn),當(dāng)ET=5,NT=0.7,算法性能最好。如果剩下的跟蹤點(diǎn)的數(shù)目不及初始化的一半,則需重新初始化跟蹤點(diǎn)。如此避免多次初始化,減小了算法的時(shí)間復(fù)雜度。之后,為了保證跟蹤目標(biāo)的完整性與準(zhǔn)確性,基于幀間目標(biāo)相似性的特點(diǎn),以上一幀跟蹤到的目標(biāo)圖像為模板,與本幀跟蹤到的目標(biāo)圖像進(jìn)行歸一化相關(guān)性匹配。具體過(guò)程是將2幀跟蹤到的目標(biāo)圖像調(diào)整到相同尺寸,然乎利用(1)式計(jì)算歸一化相關(guān)系數(shù)NL。若NL滿足(3)式,則認(rèn)為該時(shí)刻目標(biāo)跟蹤成功,否則,跟蹤失敗。

        NL≥Nthr

        (3)

        式中,Nthr為設(shè)定的閾值。經(jīng)多次試驗(yàn)Nthr=0.7時(shí),算法性能最好。

        2.5 跟蹤失敗后的目標(biāo)再搜索

        跟蹤失敗后,可采用SVM分類器來(lái)準(zhǔn)確地識(shí)別目標(biāo)。但用分類起識(shí)別目標(biāo)耗費(fèi)時(shí)間較長(zhǎng),會(huì)增加整套算法的時(shí)間復(fù)雜度,降低算法的實(shí)時(shí)性,故本文設(shè)計(jì)了跟蹤失敗后目標(biāo)再搜索方法。該方法基于上下文信息來(lái)確定再搜索區(qū)域,減小目標(biāo)搜索范圍;之后利用時(shí)間復(fù)雜度較小的歸一化模板匹配算法來(lái)進(jìn)行目標(biāo)識(shí)別。其中模板匹配所用模板是上一幀跟蹤到的著陸地標(biāo)圖像,通過(guò)實(shí)時(shí)更新模板圖像,可提高算法的魯棒性,并且能夠準(zhǔn)確識(shí)別到目標(biāo)。該算法如下:

        算法輸出:t時(shí)刻跟蹤到的目標(biāo)圖像。

        2) 通過(guò)(4)式計(jì)算出短時(shí)間速度變化最大尺度λ;

        3) 通過(guò)(5)式來(lái)估算出t-1時(shí)刻到t時(shí)刻的速度vem;

        λ=v2maxv1max,(v2max>v1max)

        v1maxv2max,(v1max>v2max)

        (4)

        vem=λv2max

        (5)

        4) 確定在t時(shí)刻目標(biāo)的再搜索區(qū)域在整幅圖中的位置如圖9所示,其中Δt2為t-1時(shí)刻到t時(shí)刻的時(shí)間間隔;

        5) 再搜素區(qū)域劃分后,在該區(qū)域里重新進(jìn)行圖像預(yù)處理、邊緣提取、輪廓檢測(cè)和目標(biāo)檢測(cè),得到“疑似目標(biāo)”圖像集;

        6) 將上一幀目標(biāo)圖像與該“疑似目標(biāo)”集里的目標(biāo)一一進(jìn)行歸一化相關(guān)系數(shù)計(jì)算;

        7) 取其中相關(guān)系數(shù)大于0.7且最大的“疑似目標(biāo)”圖像為本幀最終再搜索到目標(biāo),若所有“疑似目標(biāo)”圖像的歸一化相關(guān)系數(shù)均小于0.7,則采用分類器去精確識(shí)別目標(biāo)。

        圖9 再搜索區(qū)域劃分示意圖

        3 實(shí)驗(yàn)結(jié)果與分析

        3.1 實(shí)驗(yàn)結(jié)果

        實(shí)驗(yàn)在Inter(R)Core(TM) i5-6200 CPU with HD Graphics 2.40GHz 處理器、4.00GB內(nèi)存的PC機(jī)上運(yùn)行,操作系統(tǒng)為Windows 10,軟件開(kāi)發(fā)工具為VS2013+OpenCV2.4.9。實(shí)驗(yàn)采用3組視頻A,B,C,其中A,C視頻幀圖像尺寸大小為1 280×720,B視頻幀圖像尺寸大小為800×448;實(shí)驗(yàn)視頻A中目標(biāo)在191幀后完全消失,于198幀后重新出現(xiàn),實(shí)驗(yàn)視頻B,C中目標(biāo)一直存在。

        此次實(shí)驗(yàn)分別采用中值流跟蹤算法、基于中值流跟蹤器的TLD實(shí)時(shí)跟蹤算法以及本文設(shè)計(jì)的算法進(jìn)行著陸地標(biāo)跟蹤。對(duì)應(yīng)每一個(gè)實(shí)驗(yàn)視頻,每種算法要運(yùn)行10次并將結(jié)果取均值,作為最后的結(jié)果。本文采用2種度量手段來(lái)評(píng)估算法。第一種為目標(biāo)跟蹤成功率及每幀圖像算法運(yùn)行時(shí)間,其中目標(biāo)跟蹤成功率指的是目標(biāo)跟蹤成功的幀數(shù)與實(shí)驗(yàn)視頻總幀數(shù)的比值。跟蹤結(jié)果滿足下式則認(rèn)為跟蹤成功:

        (6)

        Terr=(Gx-Tx)2+(Gy-Ty)2

        (7)

        式中,(Gx,Gy)為算法跟蹤成功的目標(biāo)所在矩形中心像素點(diǎn)的坐標(biāo),(Tx,Ty)為真實(shí)的目標(biāo)所在矩形中心像素點(diǎn)的坐標(biāo)。

        經(jīng)過(guò)實(shí)驗(yàn)后,目標(biāo)跟蹤成功率及每幀圖像算法運(yùn)行時(shí)間如表1與表2所示。各算法對(duì)應(yīng)的跟蹤誤差如圖10所示。圖11為各個(gè)實(shí)驗(yàn)視頻在運(yùn)行算法后跟蹤到的目標(biāo)截圖。

        表1 跟蹤成功率/%

        表2 每幀平均處理時(shí)間/ms

        圖10 跟蹤誤差

        3.2 結(jié)果分析

        由表1可知,在跟蹤地面靜止的著陸地標(biāo)時(shí),本文所設(shè)計(jì)的目標(biāo)跟蹤算法相對(duì)于中值流跟蹤算法,目標(biāo)跟蹤成功率較高,與TLD算法相近。由表2可知,本文所設(shè)計(jì)的目標(biāo)跟蹤算法相對(duì)于TLD算法來(lái)說(shuō)實(shí)時(shí)性較強(qiáng),滿足無(wú)人機(jī)自主著陸對(duì)于圖像處理的時(shí)間要求。由圖10的目標(biāo)跟蹤誤差曲線圖可知,本文所設(shè)計(jì)的算法的目標(biāo)跟蹤誤差不超過(guò)5個(gè)像素,相對(duì)于中值流跟蹤算法與TLD算法,目標(biāo)跟蹤準(zhǔn)確性較好。而由圖11中列出的各算法跟蹤到的目標(biāo)結(jié)果截圖可以明顯看出,本文所設(shè)計(jì)的算法跟蹤到的目標(biāo)相對(duì)于TLD與中值流跟蹤算法來(lái)說(shuō),較為完整,表明本文所設(shè)計(jì)的算法在跟蹤地面靜止的著陸地標(biāo)時(shí),穩(wěn)定性較好,能夠跟蹤到完整的地標(biāo)圖像,有利于下一步能夠提取到足夠的特征進(jìn)行位姿導(dǎo)航信息的解算。

        綜上所述,在無(wú)人機(jī)定點(diǎn)著陸中利用視覺(jué)傳感器進(jìn)行地面著陸地標(biāo)跟蹤方面,本文所設(shè)計(jì)的算法相對(duì)于中值流跟蹤算法與TLD算法,跟蹤性能較好,實(shí)時(shí)性較強(qiáng),能夠準(zhǔn)確、穩(wěn)定的跟蹤地標(biāo)圖像。

        4 結(jié) 論

        本文基于中值流跟蹤算法的基礎(chǔ)進(jìn)行改進(jìn),設(shè)計(jì)了一套適用于無(wú)人機(jī)頂點(diǎn)著陸過(guò)程中對(duì)著陸地標(biāo)進(jìn)行跟蹤的目標(biāo)跟蹤算法。實(shí)驗(yàn)結(jié)果表明,該算法不僅能夠自動(dòng)識(shí)別著陸地標(biāo),完成跟蹤目標(biāo)初始化,還能夠?qū)崟r(shí)、準(zhǔn)確的跟蹤目標(biāo),并且在跟蹤失敗后能夠快速地重新搜索到目標(biāo),是一套魯棒性較強(qiáng)的適用于無(wú)人機(jī)定點(diǎn)自主著陸的目標(biāo)跟蹤算法。該算法實(shí)時(shí)跟蹤到的完整目標(biāo)還可用于下一步提取足夠的特征進(jìn)行位姿導(dǎo)航信息的解算,為無(wú)人機(jī)在視覺(jué)著陸導(dǎo)航領(lǐng)域中的應(yīng)用打下基礎(chǔ)。

        參考文獻(xiàn):

        [1] 董國(guó)忠, 王省書(shū), 胡春生. 無(wú)人機(jī)的應(yīng)用及發(fā)展趨勢(shì)[J]. 國(guó)防科技, 2006, 29(10):34-38

        Dong Guozhong, Wang Shengshu, Hu Chunsheng. Application and Development Trend of Unmanned Aerial Vehicle[J]. National Defense Science and Technology, 2006, 29(10): 34-38 (in Chinese)

        [2] 吳顯亮, 石宗英, 鐘宜生. 無(wú)人機(jī)視覺(jué)導(dǎo)航研究綜述[J]. 系統(tǒng)仿真學(xué)報(bào), 2010, 22(suppl 1):62-65

        Wu Xianliang, Shi Zongying, Zhong Yisheng. An Overview of Vision-Based UAV Navigation[J]. Journal of System Simulation, 2010, 22(suppl 1): 62-65 (in Chinese)

        [3] Zheng Z, Wei H, Tang B, et al. A Fast Visual Tracking Method via Spatio-Temporal Context Learning for Unmanned Rotorcrafts Fixed-Pointed Landing[C]∥Guidance, Navigation and Control Conference, 2017

        [4] Matthews I, Ishikawa T, Baker S. The Template Update Problem[J]. IEEE Trans on Pattern Analysis & Machine Intelligence, 2004, 26(6): 810-815

        [5] Kulikowsk C. Robust Tracking Using Local Sparse Appearance Model and K-Selection[C]∥Computer Vision and Pattern Recognition, 2011: 1313-1320

        [6] Zhong W, Lu H, Yang M H. Robust Object Tracking via Sparse Collaborative Appearance Model[J]. IEEE Trans on Image Processing, 2014, 23(5): 2356-2368

        [7] Bai Y, Tang M. Robust Tracking via Weakly Supervised Ranking SVM[C]∥IEEE Conference on Computer Vision and Pattern Recognition, 2012:1854-1861

        [8] Grabner H, Grabner M, Bischof H. Real-Time Tracking via On-Line Boosting[C]∥British Machine Vision Conference 2006, Edinburgh, Uk, 2013: 47-56

        [9] Kalal Z, Mikolajczyk K, Matas J. Forward-Backward Error: Automatic Detection of Tracking Failures[C]∥International Conference on Pattern Recognition, 2010:2756-2759

        [10] Kalal Z, Mikolajczyk K, Matas J. Tracking-Learning-Detection[J]. IEEE Trans on Pattern Analysis & Machine Intelligence, 2012, 34(7):1409

        [11] Lucas B D, Kanade T. An Iterative Image Registration Technique with an Application to Stereo Vision[C]∥International Joint Conference on Artificial Intelligence, 1981: 674-679

        [12] Shi J, Tomasi. Good Features to Track[C]∥1994 IEEE Computer Society Conference on Computer Vision and Pattern Recognition, 2002:593-600

        [13] Bay H, Tuytelaars T, Gool L V. Surf: Speeded up Robust Features[J]. Computer Vision & Image Understanding, 2006, 110(3):404-417

        [14] Lewis D D. Naive(Bayes) at Forty: The Independence Assumption in Information Retrieval[C]∥Europen Conference on Machine Learning Springer, Berlin, Heidelberg, 1998: 4-15

        [15] 李遠(yuǎn)寧, 劉汀, 蔣樹(shù)強(qiáng),等. 基于“Bag of Words”的視頻匹配方法[J]. 通信學(xué)報(bào), 2007, 28(12):147-151

        Li Yuanning, Liu Ting, Jiang Shuqiang, et al. Video Matching Method Based on “Bag of Words”[J]. Journal on Communications, 2007, 28 (12): 147-151 (in Chinese)

        猜你喜歡
        特征
        抓住特征巧觀察
        離散型隨機(jī)變量的分布列與數(shù)字特征
        具有兩個(gè)P’維非線性不可約特征標(biāo)的非可解群
        月震特征及與地震的對(duì)比
        如何表達(dá)“特征”
        被k(2≤k≤16)整除的正整數(shù)的特征
        不忠誠(chéng)的四個(gè)特征
        詈語(yǔ)的文化蘊(yùn)含與現(xiàn)代特征
        新聞傳播(2018年11期)2018-08-29 08:15:24
        抓住特征巧觀察
        基于特征篩選的模型選擇
        日韩肥熟妇无码一区二区三区| 日韩一区国产二区欧美三区 | 亚洲一区二区三区偷拍视频| 国产精品无码dvd在线观看| 88久久精品无码一区二区毛片| 日韩性爱视频| 成年无码av片在线| 午夜tv视频免费国产区4| 成人影院免费观看在线播放视频| 偷拍视频网址一区二区| 全免费a敌肛交毛片免费| 婷婷五月综合激情| 国产成人精品蜜芽视频| 日本激情久久精品人妻热| 性av一区二区三区免费| 丰满少妇被粗大的猛烈进出视频| 这里只有久久精品| 成年女人18毛片毛片免费| 国产91色综合久久免费| 粉嫩被粗大进进出出视频| 人妻无码视频| 亚洲一区二区日韩在线| 免费观看全黄做爰大片| 真人直播 免费视频| 日本色偷偷| 丝袜美腿制服诱惑一区二区| 亚洲av中文无码乱人伦在线观看| 一性一交一口添一摸视频| 女女同性黄网在线观看| 亚洲中文字幕乱码免费看| 狠狠色狠狠色综合网| 台湾佬娱乐中文22vvvv| 国内精品91久久久久| 婷婷久久av综合一区二区三区| 中文字幕人妻熟在线影院| 人成午夜免费大片| 午夜无码亚| 亚洲伊人av天堂有码在线| 亚洲日韩国产精品乱-久| 亚洲日韩中文字幕在线播放| 日本办公室三级在线观看|