亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于重心偏移量的無人機(jī)圖像興趣點檢測算法

        2015-03-30 05:53:50李鵬俊李建增
        傳感器與微系統(tǒng) 2015年7期
        關(guān)鍵詞:對應(yīng)點魯棒性光照

        李鵬俊,李建增

        (軍械工程學(xué)院 無人機(jī)工程系,河北 石家莊050050)

        0 引 言

        圖像特征提取技術(shù)被廣泛地應(yīng)用于計算機(jī)視覺任務(wù)處理中,譬如:圖像拼接[1]、圖像檢索[2]、圖像配準(zhǔn)[3]、目標(biāo)識別[4]、SLAM 系統(tǒng)[5]等。興趣點檢測作為其中最關(guān)鍵的一步,一直是人們研究的熱點。在過去的40 多年里,人們提出了許多興趣點檢測算法,這些算法大多都集中研究圖像局部區(qū)域的不變性,包括旋轉(zhuǎn)不變性、尺度不變性和仿射不變性等。對無人機(jī)圖像進(jìn)行深入研究發(fā)現(xiàn),利用定位與方向系統(tǒng)(positioning and orientation system,POS)數(shù)據(jù)對圖像進(jìn)行簡單的空間姿態(tài)校正后,可以削弱旋轉(zhuǎn)、尺度及仿射等變換,進(jìn)而可以將其忽略。

        無人機(jī)在戰(zhàn)場進(jìn)行偵察作業(yè)時,往往會受到敵方的干擾,完成一次偵察任務(wù)往往需要多次飛行,導(dǎo)致拍攝的圖像很容易受光照、模糊和噪聲等非幾何變換的影響。同時,為使圖像能實時傳回到地面控制站進(jìn)行處理,還需要對圖像進(jìn)行壓縮傳輸。這些因素的存在都大大提高了興趣點檢測的難度。為此,本文利用區(qū)域重心抗干擾能力強的特性,提出了基于重心偏移量(offset of barycenter,OoB)的興趣點檢測算法。通過與幾種常用興趣點檢測算法實驗對比,結(jié)果表明:本文所提算法具有較強的魯棒性和抗干擾能力。

        1 興趣點檢測

        興趣點檢測是在圖像大量像素點中提取出具有某種特征的點集。自1977 年,Moravec 提出利用灰度方差進(jìn)行興趣點檢測以來,陸續(xù)有大量的興趣點檢測算法被提出。1988年,Harris C 等人[6]在其基礎(chǔ)上發(fā)展出了利用自相關(guān)矩陣進(jìn)行角點提取的Harris 算子,該算子提取角點速度較快,但抗干擾能力差。1994 年,文獻(xiàn)[7]提出的Shi-Tomasi 角點檢測算法對Harris 算法進(jìn)行改進(jìn),提高了圖像仿射變換情況下的魯棒性。2006 年,Rosten E 等人[8]提出的FAST 角點檢測算法,具有很強的實時性,但對噪聲較為敏感。2008 年,Bayn H 等人[9]在SIFT 算法的基礎(chǔ)上提出了SURF 斑點檢測算法,該算法具有尺度不變性和較高的魯棒性,但算法需要建立多尺度空間,并不適合對無人機(jī)圖像的處理。

        2 基于OoB 的興趣點檢測算法

        文獻(xiàn)[10]將圖像看成是一塊質(zhì)量密度不均勻的薄板,那么,對應(yīng)的圖像各階矩就有其相應(yīng)的物理含義,如,零階矩為薄板總質(zhì)量,一階矩表示薄板的重心等。受此啟示,本文提出了基于OoB 的興趣點檢測算法。

        2.1 區(qū)域重心

        區(qū)域的矩是利用區(qū)域內(nèi)所有的點計算出來的,對噪聲具有較強的魯棒性[11]。設(shè)圖像的強度函數(shù)為f(x,y),那么,可以定義圖像的p+q 階矩如式(1)

        區(qū)域的重心是根據(jù)區(qū)域的零階矩和1 階矩計算出來,設(shè)區(qū)域的重心坐標(biāo)為Δ=(Δx,Δy),其計算公式為

        2.2 算法原理

        定義OoB 指的是區(qū)域的幾何中心(形心)到重心之間的距離,如圖1 所示。它的大小在一定程度能表征圖像結(jié)構(gòu)的變化,偏移量越大,變化越劇烈,相應(yīng)的區(qū)域信息量越豐富。興趣點檢測總是希望其所在區(qū)域信息豐富,這樣在生成特征描述符時,更具獨特性。

        基于OoB 的角點檢測算法流程如下:

        1)對無人機(jī)圖像進(jìn)行預(yù)處理,利用POS 系統(tǒng)提供的姿態(tài)數(shù)據(jù)和高度信息對圖像進(jìn)行空間姿態(tài)校正。

        圖1 檢測示意圖Fig 1 Detection diagram

        2)設(shè)置局部區(qū)域半徑,計算局部區(qū)域像素圓的0 階和1 階矩。為了計算的結(jié)果嚴(yán)格符合區(qū)域圓范圍,對0 階和1階矩進(jìn)行修正。

        3)根據(jù)步驟(2)計算的0 階和1 階矩計算重心坐標(biāo)。

        4)根據(jù)重心坐標(biāo)和圓心坐標(biāo)計算局部區(qū)域的OoB,形成檢測響應(yīng)圖像。

        5)利用非極大值抑制的方法,在5×5 的區(qū)域內(nèi)進(jìn)行極大值搜索,并設(shè)置閾值t,當(dāng)極大值大于所設(shè)閾值時,將其作為興趣點。

        6)對興趣點進(jìn)行定位,直接使用區(qū)域的重心坐標(biāo)作為興趣點的位置坐標(biāo)。

        3 實驗結(jié)果

        3.1 評價指標(biāo)

        本文給出了四項指標(biāo),對算法的性能進(jìn)行對比分析,它們分別是整體復(fù)現(xiàn)率、單邊復(fù)現(xiàn)率、精確度及對應(yīng)點對數(shù)。

        3.1.1 復(fù)現(xiàn)率

        復(fù)現(xiàn)率評價指標(biāo)最早由Schmid C[12]提出,“復(fù)現(xiàn)率為兩幅圖像上檢測出來的一致點對數(shù)量占總觀測點數(shù)的百分比”。

        1)記圖像Ii上檢測到的興趣點點集為{pointi},圖像Ij上的點集為{pointj}

        2)實際上,對于圖像Ii上一點pointi來說,很難精確地在圖像Ij上檢測到pointj,使之滿足pointj=Hji·pointi。而只需滿足pointi映射到pointj的ε 領(lǐng)域內(nèi),即可認(rèn)為它們是一對對應(yīng)點對

        3)復(fù)現(xiàn)率定義式如下

        文獻(xiàn)[13]對以上復(fù)現(xiàn)率定義存在的問題與不足進(jìn)行了分析,并提出了兩種精確性更好的復(fù)現(xiàn)率評價指標(biāo):整體復(fù)現(xiàn)率與單邊復(fù)現(xiàn)率。

        整體復(fù)現(xiàn)率

        單邊復(fù)現(xiàn)率

        整體復(fù)現(xiàn)率體現(xiàn)了兩幅圖像的相似程度;單邊復(fù)現(xiàn)率評價了興趣點應(yīng)對圖像變化的魯棒性。文獻(xiàn)[14]分析文獻(xiàn)[15]所用整體復(fù)現(xiàn)率計算方法可能導(dǎo)致在一些情況下計算的復(fù)現(xiàn)率不準(zhǔn)確,并給出了一種新的復(fù)現(xiàn)率計算方法如式(10)所示

        經(jīng)過仔細(xì)對比,最終選用式(9)和式(10)作為復(fù)現(xiàn)率計算公式。

        3.1.2 精確度

        定義:在對應(yīng)點對中,圖像Ii上的興趣點經(jīng)單應(yīng)變換Hji映射到圖像Ij上,與Ij上對應(yīng)興趣點之間的偏差的平均水平,即

        3.2 數(shù)據(jù)集

        本文所用數(shù)據(jù)集如圖2 所示,這些圖像大多選自Mikolajczyk 提供的參考圖像。

        圖2 數(shù)據(jù)集Fig 2 Data set

        3.3 實驗結(jié)果

        實驗對比結(jié)果如圖3 ~圖6 所示。

        分析實驗結(jié)果發(fā)現(xiàn):1)不論是光照變暗、模糊增大、壓縮比提高還是噪聲加強,復(fù)現(xiàn)率都呈減小的趨勢,相應(yīng)的對應(yīng)點對的位置誤差呈增大趨勢,對應(yīng)點對數(shù)量呈減少的趨勢;2)不論是整體復(fù)現(xiàn)率,還是單邊復(fù)現(xiàn)率,OoB 算法的都要高一些。

        圖3 光照變化Fig 3 Illumination changes

        4 結(jié)束語

        圖4 圖像模糊Fig 4 Image blur

        圖5 圖像(JPEG)壓縮Fig 5 JPEG compression

        圖6 圖像加噪Fig 6 Image adding noise

        本文提出了一種新的無人機(jī)圖像興趣點檢測算法,該算法相比其它算法來說結(jié)構(gòu)簡單且具有較強的抗干擾能力。通過實驗,對比了光照、模糊、壓縮及噪聲對各興趣點檢測算法性能的影響。結(jié)果表明:1)在光照持續(xù)變暗、模糊程度變大、壓縮比提高和噪聲增大的情況下,各個算法的復(fù)現(xiàn)率和一致點對數(shù)都呈減小的趨勢,而相應(yīng)的誤差(即精確度)呈增大的趨勢;2)OoB 算法較其它幾種算法的復(fù)現(xiàn)率要高一些,特別是能體現(xiàn)算法魯棒性的單邊復(fù)現(xiàn)率;3)OoB 算法在光照變化和噪聲影響的情況下的單邊復(fù)現(xiàn)率趨勢曲線要比模糊和壓縮情況下的趨勢曲線變化要更加平緩,故在光照變化和噪聲影響的情況下OoB 算法的抗擾動能力更強。

        本文只有在獲取POS 信息對無人機(jī)圖像進(jìn)行姿態(tài)和比例校正的基礎(chǔ)上,OoB 算法才能獲得最佳的性能,在具有重疊區(qū)域的圖像上能更穩(wěn)定地檢測出一致對應(yīng)點對。

        [1] Wu Yu,Yu Tao,Xie Donghai.Fast automatic stitching for images of unmanned aerial vehicle in emergency response[J].Journal of Computer-Aided Design&Computer Graphics,2013,25(3):410-416.

        [2] Schmid C,Mohr R.Local grayvalue invariants for image retrieval[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,1997,19(5):530-535.

        [3] Wang Yuru,Huang Jianhua,Liu Jiafeng,et al.An efficient imageregistration method based on probability density and global parallax[J].Int’l J Electron Commun(AEü),2010,64(12):1148-1156.

        [4] Lowe D G.Object recognition from local scale-invariant features[C]∥Proceedings of the Seventh IEEE International Conference on Computer Vision,1999.

        [5] Gil A,Mozos O M,Ballesta M,et al.A comparative evaluation of interest point detectors and local descriptors for visual SLAM[J].Machine Vision and Applications,2010,21(6):905-920.

        [6] Harris C,Stephens M.A combined corner and edge detector[C]∥Proceedings of the 4th Alvey Vision Conference,Manchester,UK,1988:147-151.

        [7] Shi J,Tomasi C.Good features to track[C]∥Proceedings 1994 IEEE Computer Society Conference on Computer Vision and Pattern Recognition,NY,USA,1994:593-600.

        [8] Rosten E,Drummond T.Machine learning for high-speed corner detection[J].Lecture Notes in Computer Science,2006,3951(1):430-443.

        [9] Bay H,Ess A,Tuytelaars T,et al.Speeded-up robust features(SURF)[J].Computer Vision and Image Understanding,2008,110(3):346-359.

        [10]Wei Weibo,Rui Xiaoting.Study on moment invariant method[J].Fire Control and Command Control,2007,32(11):114-117.

        [11]Zhang Yujin.Image engineering[M].2nd ed.Beijing:Tsinghua University Press,2007.

        [12]Schmid C,Mohr R,Bauckhage C.Comparing and evaluating interest points[C]∥Proceedings of the Sixth International Conference on Computer Vision,Bombay,India,1998:230-235.

        [13]Smirnov P,Semenov P,Redkin A,et al.Toward accurate feature detectors performance evaluation[J].Lecture Notes in Computer Science,2011,6962(1):51-60.

        [14]Miao Zhenwei,Jiang Xudong.Interest point detection using rank order LoG filter[J].Pattern Recognition,2013,46(11):2890-2901.

        [15]Mikolajczyk K,Tuytelaars T,Schmid C,et al.A comparison of affine region detectors[J].International Journal of Computer Vision,2005,65(1/2):43-72.

        猜你喜歡
        對應(yīng)點魯棒性光照
        節(jié)能環(huán)保 光照萬家(公益宣傳)
        凸四邊形的若干翻折問題
        三點定形找對應(yīng)點
        節(jié)能環(huán)保光照萬家(公益宣傳)
        “一定一找”話旋轉(zhuǎn)
        荒漠綠洲區(qū)潛在生態(tài)網(wǎng)絡(luò)增邊優(yōu)化魯棒性分析
        基于確定性指標(biāo)的弦支結(jié)構(gòu)魯棒性評價
        春光照瑤鄉(xiāng)
        比較大小有訣竅
        基于非支配解集的多模式裝備項目群調(diào)度魯棒性優(yōu)化
        丝袜国产高跟亚洲精品91| 老妇高潮潮喷到猛进猛出| 国产精品免费_区二区三区观看| 婷婷综合缴情亚洲| 无码区a∨视频体验区30秒| 国产一区二区三区精品毛片| 色窝窝亚洲av网在线观看| 熟妇人妻无乱码中文字幕| 无夜精品久久久久久| 中文字幕av一区二区三区诱惑| 亚洲中文字幕舔尻av网站| 亚洲精品国偷拍自产在线麻豆| 久久无码精品精品古装毛片| 中文字幕一区二区人妻在线不卡| 精品国产成人av久久| 午夜无码伦费影视在线观看| 欧美一级视频精品观看| 亚洲国产精品成人av| 久草青青91在线播放| 午夜成人精品福利网站在线观看 | 无码人妻aⅴ一区二区三区| 男女18禁啪啪无遮挡| 国产360激情盗摄一区在线观看 | 亚洲国产一区久久yourpan| 性色av色香蕉一区二区蜜桃| 少妇厨房愉情理伦bd在线观看| 亚洲成a人片在线观看久| 97中文字幕一区二区| 中文字幕亚洲综合久久天堂av| 中国农村熟妇性视频| 成人午夜视频一区二区无码| 国产人妖在线观看一区二区三区| 国产乱人偷精品人妻a片| 国产精品亚洲五月天高清| 天堂av在线一区二区| 男人天堂这里只有精品| 国产av人人夜夜澡人人爽麻豆 | 大屁股流白浆一区二区| 四虎永久在线精品免费一区二区 | 在线人妻无码一区二区| 女人天堂av免费在线|