郎博,劉彥君,桂維振,蔣雯
(北京工業(yè)職業(yè)技術(shù)學(xué)院,北京100042)
分辨率差異較大的遙感圖像自動配準(zhǔn)算法研究
郎博,劉彥君,桂維振,蔣雯
(北京工業(yè)職業(yè)技術(shù)學(xué)院,北京100042)
本文在研究了已有配準(zhǔn)算法的基礎(chǔ)上,針對兩個分辨率差異較大的遙感圖像,提出了自動配準(zhǔn)的改進(jìn)方法,自動獲取基準(zhǔn)影像,并對每個波段的圖像做直方圖均衡化增強,最后,構(gòu)建影像金字塔,運用SIFT算法提取特征點。
自動配準(zhǔn);圖像特征點;SIFT算法
圖像配準(zhǔn)是遙感圖像鑲嵌、圖像融合的重要步驟之一,配準(zhǔn)的精度對后續(xù)圖像處理產(chǎn)生重要的影響,而當(dāng)前遙感圖像自動配準(zhǔn)的主要困難,在于遙感圖像特征點提取的自動化程度不高,而且計算速度較慢。本文提出了運用改進(jìn)的SIFT算法提取特征點,首先自動獲取基準(zhǔn)影像,其次,對每個波段的圖像做直方圖均衡化增強,再構(gòu)建影像金字塔,并逐波段、逐層運用SIFT算法提取特征點,剔除錯誤的匹配點,用三次多項式實現(xiàn)精確配準(zhǔn)。
1.1 SIFT特征匹配算法
SIFT特征匹配算法包括兩個階段,第一階段是SIFT特征的生成;第二階段是SIFT特征向量的匹配,總共包括4步。
①尺度空間極值檢測,主要是為了尋找到尺度空間的極值點,首先將圖像進(jìn)行高斯金字塔分解,然后逐層進(jìn)行差分,得到DOG金字塔,最后在DOG金字塔的基礎(chǔ)上檢測尺度空間的極值點,如圖1所示。
圖1 在DOG尺度空間檢測極值點
②精確定位特征點和確定主方向,由上一步驟找到的極值點是非常粗略的,需要經(jīng)過進(jìn)一步檢驗提高精度。這里,利用三維二次函數(shù)擬合精確確定特征點位置和尺度,刪除低對比度的點和邊緣點,提高特征點的精度,同時匹配穩(wěn)定性和抗噪聲能力也得到了一定程度的增強。
確定了關(guān)鍵點的位置后,利用特征點鄰域像素點的梯度方向分布特性來計算特征點的方向。公式如下:
式中一m(二 x, y三)表示在坐標(biāo)一(x, 三y)位置上像素梯度的模值,一(二x, y三)則表示其梯度的方向,L為所用的尺度。實際計算中,鄰域像素點梯度的模值一m 和方向一用直方圖來表示(如圖2)。
③SIFT特征向量的生成:通過以上步驟,獲得了特征點的位置、所處尺度和方向,由此可以確定一個SIFT特征區(qū)域。
圖2 由關(guān)鍵點鄰域梯度信息生產(chǎn)特征向量
首先,將坐標(biāo)軸調(diào)整至與關(guān)鍵點方向一致,以確保旋轉(zhuǎn)不變性。如圖2左圖所示,中心紅色點為關(guān)鍵點,以其為中心取8×8的窗口,黑色箭頭為該像素點的梯度方向(箭頭長短表示梯度模值的大?。?,紅色圈代表高斯加權(quán)的范圍(離紅色關(guān)鍵點越近的像素點,其梯度信息的作用越大)。
④SIFT特征點匹配,經(jīng)過上述三個步驟之后生成了兩幅影像的SIFT特征向量,隨即須進(jìn)行相似性程度的判斷。本文用特征點的歐氏距離的最近距離和次近距離比作為特征點匹配的判定標(biāo)準(zhǔn)。
1.2 參考影像的自動搜索
一般的遙感影像配準(zhǔn)系統(tǒng)是通過人工選擇待配準(zhǔn)影像的參考影像,這種方法自動化的程度不高,本文系統(tǒng)實現(xiàn)基準(zhǔn)影像的自動尋找。首先,建立參考影像的數(shù)據(jù)庫,將已經(jīng)糾正好的全國環(huán)境星數(shù)據(jù)存儲在數(shù)據(jù)庫中,并且建立全國環(huán)境星的索引,在索引中包括每景環(huán)境星影像的四個角點經(jīng)緯度坐標(biāo)和中心點的經(jīng)緯度坐標(biāo),其算法的基本思想是:
①輸入待配準(zhǔn)影像,計算其中心點坐標(biāo),設(shè)為一R(二 x, 三y )。
②計算一R( 二x, 三y)到影像的四個角點的距離,分別記為為圓心,以一D為半徑做圓。
③遍歷數(shù)據(jù)庫中所有參考影像的中心坐標(biāo),找到中心點落在②中所述的圓中影像,記為
④計算待配準(zhǔn)影像中心點一R( x二, y)三和③中遍歷所得參考影像中心點坐標(biāo)
歐式距離最小的影像就是最佳的基準(zhǔn)影像。
在單個波段內(nèi),像素間灰度值的差異小,對于特征信息的表達(dá)不充分。遙感圖像尺寸大,而且存儲方式不局限于單字節(jié),同時,如果單純的切分圖像,容易造成圖像有效信息的割裂,降低特征信息的表達(dá)能力。針對遙感影像以上特點,對于兩張獨立的遙感圖像,特別是兩張分辨率差異較大的圖像,對本文特征點提取的算法的分析如下。
首先,依據(jù)地理坐標(biāo)信息,搜索出同一個區(qū)域,獲取兩張遙感圖像的處理范圍。
其次,各個對應(yīng)波段運用直方圖均衡化對圖像增強,然后獨立的提取同名點,分別用SIFT算法獲取各對應(yīng)波段的同名點對,再合并所有同名點對,本文加載的是影像的RGB以及紅外四個波段。
本文主要是利用SIFT算法提取特征點,首先輸入待配準(zhǔn)的影像,通過自動搜索基準(zhǔn)影像功能系統(tǒng)自動加載基準(zhǔn)影像,然后進(jìn)行特征點的提取、粗匹配、錯誤匹配點剔除以及精匹配,最后,將本文算法配準(zhǔn)后的結(jié)果和Erdas的配準(zhǔn)結(jié)果做比較分析,如果精度合格,將配準(zhǔn)后的結(jié)果存儲到數(shù)據(jù)庫中,如圖3所示。
圖3 配準(zhǔn)結(jié)果流程
分辨率,所用的無人機遙感影像是該地區(qū)的0.1m的海南影像,以geoeye影像為基準(zhǔn)影像,無人機影像為待配準(zhǔn)影像。分別用本文算法和ERDAS軟件進(jìn)行配準(zhǔn)分析。
圖4 特征點分布
圖5 配準(zhǔn)后拼接
圖6 Erdas提取的特征點分布
圖7 配合后拼接
視覺結(jié)果:
圖8 本文算法配準(zhǔn)結(jié)果
圖9 ERDAS軟件配準(zhǔn)結(jié)果
均方差比較:
表1 均方差分析
配準(zhǔn)時間分析:
表2 時間分析表
通過上述實驗分析,本文所用的遙感圖像自動配準(zhǔn)算法和其他的圖像軟件相比提高了圖像配準(zhǔn)的精度,對不同時相、分辨率差異較大的兩幅影像實現(xiàn)較好的配準(zhǔn)。
[1]張祖勛,張劍清,廖明生.遙感影像的高精度自動配準(zhǔn)[J].武漢測繪科技大學(xué)學(xué)報,1998(4):320-323.
[2]Zhang Jixian,Li Guosheng,Zeng Yu.The Study on Automatic and High-precision Rectification and Registration of Multisource Remote Sensing Imagery[J].Journal of Remote Sensing,2005,9(1):73-77.
[3]Lowe D G.Distinctive Image Features from Scale Invariant Keypoints[J].International Journal of Computer Vision, 2004,60(2):91-110.
[4]張祖勛,張劍清.數(shù)字?jǐn)z影測量學(xué)[M].武漢:武漢測繪科技大學(xué)出版社,1996:144-174.
[5]Lowe D G.Object recognition from local scale-invariant features[C].In ICCV,1999:1150-1157.
[6]張繼賢,李國勝,曾鈺.多源遙感影像高精度自動配準(zhǔn)的方法研究[J].遙感學(xué)報,2005,9(1):73-77.
P237;TP751
A
10.3969/j.issn.1001-0270.2014.04.21
2014-03-03