亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        一種基于SIFT和SUSAN特征的圖像匹配方法

        2011-02-28 05:10:32吳毅良
        關(guān)鍵詞:尺度空間圖像匹配角點(diǎn)

        吳毅良

        (暨南大學(xué) 計算機(jī)科學(xué)系,廣東 廣州 510632)

        圖像匹配是圖像處理的一個基本問題,在計算機(jī)視覺、圖像配準(zhǔn)、信息檢索等領(lǐng)域得到了廣泛的應(yīng)用,是很多基于圖像內(nèi)容應(yīng)用的基礎(chǔ)。隨著計算機(jī)技術(shù)的發(fā)展和數(shù)字圖像應(yīng)用的日益廣泛,圖像匹配技術(shù)在諸多領(lǐng)域內(nèi)發(fā)揮越來越重要的作用。長期以來,國內(nèi)外很多學(xué)者都致力于解決圖像匹配的技術(shù)問題。

        簡單來說,圖像匹配就是找出兩幅圖像中相同或相似景物,目前圖像匹配的方法一般分為基于區(qū)域匹配和基于特征匹配兩類。

        近年來,在計算機(jī)視覺領(lǐng)域,基于局部不變量描述符的方法在目標(biāo)識別和圖像匹配方面取得了顯著發(fā)展。SIFT特征描述符克服了傳統(tǒng)圖像匹配在圖像尺度、視差變化的局限性。參考文獻(xiàn)[1]對10種最具代表性的特征匹配描述算子進(jìn)行了實(shí)驗(yàn)和性能比較,結(jié)果表明,SIFT特征描述符在對光照變化、圖像旋轉(zhuǎn)、比例縮放、幾何變形、模糊和圖像壓縮等6種情況下性能最好。

        本文在SIFT方法的基礎(chǔ)上加入SUSAN角點(diǎn)檢測的思想,提出一種新的更加穩(wěn)健的圖像匹配方法。

        1 SIFT特征檢測

        2004年,LOWE D提出了一種新的點(diǎn)特征匹配算法——SIFT(Scale Invariant Feature Transform)算法,較好地解決了場景部分遮擋、旋轉(zhuǎn)縮放、視點(diǎn)變化引起的圖像變形等問題,并且有效應(yīng)用于目標(biāo)識別、圖像復(fù)原、圖像拼接等領(lǐng)域。

        SIFT算法首先在尺度空間進(jìn)行特征點(diǎn)檢測,并確定關(guān)鍵點(diǎn)的位置和所處的尺度,然后使用關(guān)鍵點(diǎn)鄰域梯度的主方向作為該點(diǎn)的方向特征,以實(shí)現(xiàn)算子對尺度和方向的無關(guān)性。

        1.1 尺度空間理論

        尺度空間理論是一種對圖像從多尺度考察圖像特征的理論方法,能夠發(fā)掘出很多從單一尺度無法發(fā)現(xiàn)的圖像特征。

        SIFT方法選用了高斯函數(shù),利用其標(biāo)準(zhǔn)差σ作為尺度參數(shù)與圖像進(jìn)行卷積運(yùn)算以產(chǎn)生多尺度的圖像。一幅二維圖像的尺度空間定義為:

        其中*表示卷積,G(x,y,σ)是尺度可變高斯函數(shù),

        其中(x,y)是圖像的二維坐標(biāo),σ是尺度坐標(biāo)。

        σ稱為尺度空間參數(shù),其值越小表示圖像被平滑得越少。大尺度對應(yīng)圖像的概貌,小尺度對應(yīng)圖像的細(xì)節(jié)。給定一個σ,就決定了一個高斯濾波器,以不同的σ對原圖像進(jìn)行濾波就可以生成對應(yīng)的尺度空間圖像。

        由式(1)可以看出,高斯卷積需要利用一個二維可變大小的卷積模板進(jìn)行運(yùn)算,運(yùn)算效率低下。本文將式(1)分解成分別對x方向和y方向作一維卷積,將二維高斯模糊轉(zhuǎn)變成兩次一維高斯模糊,大大減少了運(yùn)算時間。

        SIFT實(shí)際是使用DoG算子來建立尺度空間,它是LoG算子的近似,具有很好的穩(wěn)定性,且比LoG運(yùn)算更加高效。DoG定義如下:

        由式(3)可知,DoG其實(shí)就是利用兩個臨近尺度的高斯濾波圖像相減得出的,因此計算量上只是增加了一次減法運(yùn)算。

        1.2 檢測空間極值點(diǎn)

        生成尺度空間后,需要檢測空間上的極值點(diǎn),同時對同一尺度的周圍鄰域8個像素和上下相鄰尺度對應(yīng)位置的鄰域9個像素,一共26個像素進(jìn)行比較,如果當(dāng)前像素比周圍26個像素都大或者都小,就認(rèn)為該點(diǎn)屬于極值點(diǎn)。

        1.3 精確定位極值點(diǎn)

        因?yàn)镈oG算子具有比較強(qiáng)的邊緣響應(yīng),在邊緣上可能會產(chǎn)生不穩(wěn)定的特征點(diǎn),所以有必要把這些不穩(wěn)定點(diǎn)去掉,以增強(qiáng)匹配穩(wěn)定性,提高抗噪聲能力。本文通過擬和尺度空間的三維二次函數(shù)可以精確確定關(guān)鍵點(diǎn)的位置和尺度,同時去除低對比度的關(guān)鍵點(diǎn)和不穩(wěn)定的邊緣響應(yīng)點(diǎn)。

        1.4 計算方向參數(shù)

        利用極值點(diǎn)鄰域像素的梯度方向分布特性為每個極值點(diǎn)指定方向參數(shù),使算子具備旋轉(zhuǎn)不變性。

        其中θ和m為(x,y)梯度的方向和模。

        1.5 特征描述子

        首先以特征點(diǎn)為中心取8×8的鄰域作為采樣窗口,窗口內(nèi)每個方格代表特征點(diǎn)尺度空間的一個像素,箭頭方向代表該像素的梯度相對于特征點(diǎn)方向的相對方向,箭頭長度代表梯度的模,大圓圈代表加權(quán)的范圍。然后利用直方圖統(tǒng)計的方法,在每 4×4的小塊上計算 8個方向的梯度方向直方圖,即可形成 4個種子點(diǎn),如圖1所示。

        每個種子點(diǎn)可以產(chǎn)生8個方向信息,共4×8=32個方向信息,按順序就可以組成32維的特征向量。本文采用16×16的采樣窗口,一共產(chǎn)生 16個種子點(diǎn),產(chǎn)生16×8=128維的特征向量,更多的種子點(diǎn)可以增加匹配的穩(wěn)定性。

        2 SUSAN角點(diǎn)檢測

        1997年 SMITH S M和 BRADY J M提出了一種最小核值相似區(qū)SUSAN(Smallest Univalue Segment Assimilating Nucleus)算法,它直接對圖像灰度值進(jìn)行操作,方法簡單,算法效率高,定位準(zhǔn)確,對多個區(qū)域的角點(diǎn)也能精確檢測,對局部噪聲不敏感,抗噪能力強(qiáng)。

        2.1 SUSAN方法簡介

        SUSAN方法其實(shí)是利用圓形模板遍歷整個圖像,如果模板內(nèi)其他像素值與模板中心像素值相差小于一定閾值,就認(rèn)為該點(diǎn)與中心點(diǎn)具有近似的灰度值,模板內(nèi)滿足這樣條件的像素組成的區(qū)域稱為核值相似區(qū)USAN(Univalue Segment Assimilating Nucleus)。利用這個區(qū)域可以將像素點(diǎn)的性質(zhì)分成幾類考慮,而屬于直角角點(diǎn)的大概就是具有1/4模板大小的USAN區(qū)的像素點(diǎn),如圖2所示。

        2.2 USAN區(qū)域

        USAN區(qū)域利用中心點(diǎn)與周圍像素的差值和預(yù)先設(shè)定的閾值進(jìn)行比較得出,其相似比較函數(shù)表示為:

        2.3 角點(diǎn)檢測

        SUSAN方法通過設(shè)定角點(diǎn)閾值,利用角點(diǎn)響應(yīng)函數(shù)判斷角點(diǎn)位置,計算公式如下:

        其中g(shù)為角點(diǎn)閾值,它影響檢測到的角點(diǎn)形狀,g越小,檢測到的角點(diǎn)越尖銳,一般設(shè)定為1/2模板區(qū)域大小。

        SUSAN角點(diǎn)檢測的最后一個階段,就是尋找初始角點(diǎn)響應(yīng)的局部最大值,在局部范圍內(nèi),如果中心像素的初始響應(yīng)是此區(qū)域內(nèi)的最大值,則判斷其屬于角點(diǎn)。

        3 基于SIFT和SUSAN特征檢測

        SIFT方法能夠從尺度空間尋找出具有結(jié)構(gòu)化特性的特征點(diǎn),但是可能在視覺上沒有特殊意義,而實(shí)際圖像中很多具有視覺意義的特征位置,如角點(diǎn)利用SIFT方法檢測會出現(xiàn)位置偏移或者漏檢的情況,如圖3所示。

        從圖3可以看出,最右角出現(xiàn)漏檢,其他角的特征點(diǎn)均發(fā)生一定程度的位置偏移,這是由于高斯平滑的過程中極值點(diǎn)會隨著像素擴(kuò)散引起的。但是圖像上的角點(diǎn)往往是進(jìn)行圖像匹配比較理想的特征,SIFT方法并沒有很好地將角點(diǎn)利用起來,遺漏了某些重要的角點(diǎn)信息。

        本文在SIFT的基礎(chǔ)上引入SUSAN角點(diǎn)檢測就是為了增強(qiáng)其對圖像特性信息的利用率,從而應(yīng)用于圖像匹配上得到更多有意義的正確匹配點(diǎn),因?yàn)镾USAN能夠有效檢測出圖像中的角點(diǎn),如圖4所示。

        由圖4可以看出,SUSAN方法能夠準(zhǔn)確定位并檢測到4個角點(diǎn)。SUSAN角點(diǎn)檢測的優(yōu)點(diǎn)在于可以簡單快捷地檢測出圖像的明顯形狀特征,但是針對紋理圖像或者低對比度圖像,效果并不明顯。

        通過以上分析,本文在SIFT方法的基礎(chǔ)上引入SUSAN角點(diǎn)檢測思想,基本能夠?qū)D像中的結(jié)構(gòu)化信息特征和形狀信息的特征檢測出來。算法的流程圖如圖5所示。

        圖5 算法流程圖

        4 特征匹配

        已經(jīng)找出圖像上的特征向量,接下來的任務(wù)就是特征匹配,即對特征向量作相似性度量判斷其相似程度。本文采用兩個向量的歐氏距離作為相似性的判斷度量,歐氏距離定義如下:

        取圖像1中的某個關(guān)鍵點(diǎn),并找出其與圖像2中歐式距離最近的前兩個關(guān)鍵點(diǎn),在這兩個關(guān)鍵點(diǎn)中,如果最近的距離除以次近的距離小于某個比例閾值,則接受這一對匹配點(diǎn)。如果降低這個比例閾值,匹配點(diǎn)數(shù)目會減少,但更加穩(wěn)定。最后再設(shè)定一個匹配點(diǎn)數(shù)目閾值,如果匹配點(diǎn)數(shù)目大于閾值,就認(rèn)為兩幅圖像是相似的。

        5 實(shí)驗(yàn)結(jié)論

        在Core 2,2.2 GHz CPU,2.0 GB RAM的PC機(jī)上運(yùn)行Solaris 10操作系統(tǒng),采用C語言編程實(shí)現(xiàn)了本文提出的算法,通過實(shí)驗(yàn)圖片驗(yàn)證本文方法的有效性(限于篇幅,下文僅給出一組實(shí)驗(yàn)結(jié)果),并將本文算法與SIFT算法進(jìn)行了實(shí)驗(yàn)分析和比較。實(shí)驗(yàn)中,最近鄰特征點(diǎn)距離與次近鄰特征點(diǎn)距離之比取0.7。

        圖6利用SIFT方法,左圖和右圖分別生成了356個和369個特征點(diǎn),最終產(chǎn)生12對匹配對,其中兩個錯誤的絕對變化在0.01以內(nèi),相對變化在1%以內(nèi)。理論上來說,k取值越大,相鄰模型變化就越小,極限情況下,模型應(yīng)該收斂到一個統(tǒng)一模型,這種極限模型稱為穩(wěn)定模型。一個網(wǎng)格劃分對應(yīng)一個穩(wěn)定模型。從圖6和表1可以看出,k取任何值,所得模型都很接近該網(wǎng)格劃分對應(yīng)的穩(wěn)定模型,考慮到k取1時所得模型不夠光滑,因此,認(rèn)為k取2所得到模型很接近穩(wěn)定模型。由此可以看出,在計算PSF模型時,網(wǎng)格的細(xì)密程度對計算模型的準(zhǔn)確性影響很大,當(dāng)網(wǎng)格劃分固定后,只要保證每網(wǎng)格內(nèi)有兩個采樣數(shù)據(jù)就可以得到穩(wěn)定的模型??傮w來說,采樣星體數(shù)目達(dá)到2n2個就可以得到較好的穩(wěn)定模型。

        本文通過對模擬欠采樣星象的處理實(shí)驗(yàn),可知處理欠采樣星象使用ePSF方法計算PSF模型時,每個網(wǎng)格的采樣星體越多,計算結(jié)果越逼近一個穩(wěn)定模型,這個穩(wěn)定模型和真實(shí)模型的誤差主要由網(wǎng)格劃分的細(xì)密程度來決定,網(wǎng)格劃分越密,模型誤差越小。當(dāng)網(wǎng)格劃分固定時,每網(wǎng)格內(nèi)有兩個采樣數(shù)據(jù)時即可得到一個較精確的穩(wěn)定模型,即采樣星體數(shù)目對ePSF網(wǎng)格模型的準(zhǔn)確性影響不大。但在實(shí)際處理中,由于星體的相位差分布不均,因此平均每網(wǎng)格采樣星體數(shù)目應(yīng)該大于2。該結(jié)論在實(shí)際應(yīng)用ePSF方法時,對更精確的建模有一定的指導(dǎo)意義。

        [1]ANDERSON J,KING I R.Toward high-precision astrometry with WFPC2.I.Deriving an Accurate Point-Spread Function[J].PASP,2000,112:1360-1392.

        [2]ANDERSON J,BEDIN L R,PIOTTO G,et al.Groundbased CCD astrometrywith wide field images I.Oberservations just a few years apart allow decontamination of field objects from members in two globular clusters[J].A&A,2006,454:1029-1045.

        [3]張志淵,彭青玉.ePSF擬合法與Gaussian擬合法的比較[J].Astronomical Research&Technology,2010,7(2):132-139

        [4]KING I R.The profile of a star image[J].PASP,1971,83:199-201.

        [5]李展,彭青玉,韓國強(qiáng).CCD圖像數(shù)字定心算法的比較[J].天文學(xué)報,2009,50(3):340-348.

        猜你喜歡
        尺度空間圖像匹配角點(diǎn)
        基于AHP的大尺度空間域礦山地質(zhì)環(huán)境評價研究
        基于FAST角點(diǎn)檢測算法上對Y型與X型角點(diǎn)的檢測
        居住區(qū)園林空間尺度研究
        魅力中國(2016年42期)2017-07-05 21:16:42
        一種用于光照變化圖像匹配的改進(jìn)KAZE算法
        基于邊緣的角點(diǎn)分類和描述算法
        電子科技(2016年12期)2016-12-26 02:25:49
        基于圓環(huán)模板的改進(jìn)Harris角點(diǎn)檢測算法
        基于降采樣歸一化割的多尺度分層分割方法研究
        挖掘機(jī)器人圖像匹配算法研究
        基于尺度空間的體數(shù)據(jù)邊界不確定性可視化研究
        基于SIFT和LTP的圖像匹配方法
        成人网站免费看黄a站视频| 少妇下面好紧好多水真爽| 中文字幕av长濑麻美| 久久中文字幕av第二页 | 日本免费三片在线视频| 亚洲av中文字字幕乱码软件 | 欧美国产亚洲日韩在线二区| 国产a国产片国产| 国产精品久久久久乳精品爆| 性色做爰片在线观看ww| 夜夜高潮夜夜爽夜夜爱爱| 国产精品九九热| 国产午夜精品美女裸身视频69| 精品蜜臀国产av一区二区| 亚洲女同系列在线观看| 久久久久成人精品免费播放动漫| 蜜桃久久精品成人无码av| 亚洲第一成人网站| 国产女人18毛片水真多| 亚洲AV无码久久精品国产老人| 久久人人做人人妻人人玩精| 日本人妻av在线观看| 成av人大片免费看的网站| 日韩欧美在线综合网另类 | 一区二区中文字幕在线观看污污| 国内自拍色第一页第二页| 九九久久精品国产免费av| 极品少妇hdxx麻豆hdxx| 国产乱对白刺激视频| 久久国产成人精品国产成人亚洲| 精品人妻少妇一区二区三区不卡 | 亚洲av成人片无码网站| 囯产精品一品二区三区| 亚洲精品国产福利一二区| 久久精品国产亚洲不av麻豆 | 成人影院免费视频观看| 久久国产成人午夜av免费影院 | 天干天干天啪啪夜爽爽av| 欧美裸体xxxx极品少妇| 免费一本色道久久一区| 狼人狠狠干首页综合网|