亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于爬山搜索的高斯模糊不變SIFT算子

        2016-07-19 02:07:23趙熙臨李超順
        關(guān)鍵詞:點(diǎn)數(shù)高斯算子

        付 波 張 敏 趙熙臨 李超順

        1(湖北工業(yè)大學(xué)電氣與電子工程學(xué)院 湖北 武漢 430068)2(華中科技大學(xué)水電與數(shù)字化工程學(xué)院 湖北 武漢 430074)

        ?

        基于爬山搜索的高斯模糊不變SIFT算子

        付波1張敏1趙熙臨1李超順2

        1(湖北工業(yè)大學(xué)電氣與電子工程學(xué)院湖北 武漢 430068)2(華中科技大學(xué)水電與數(shù)字化工程學(xué)院湖北 武漢 430074)

        摘要針對SIFT算子對于高斯模糊環(huán)境下的特征匹配困難,提出基于目標(biāo)圖像形變空間重采樣的高斯模糊不變SIFT算子GI-SIFT(Gaussian Invariant SIFT)。首先構(gòu)建清晰目標(biāo)的高斯模糊模型,重采樣模型參數(shù)重建目標(biāo)圖像完備形變空間;其次,引入降采樣與爬山法,構(gòu)建目標(biāo)圖像的降采樣形變空間,在降采樣空間中以大采樣步長快速搜索當(dāng)前峰值,對峰值鄰域進(jìn)行曲線擬合,快速找到最優(yōu)匹配。實(shí)驗(yàn)結(jié)果表明,所提算法不僅對高斯模糊目標(biāo)能較好匹配,同時(shí)較大提升了目標(biāo)的特征匹配效率。

        關(guān)鍵詞尺度不變特征變換形變空間重采樣高斯模糊降采樣爬山法特征匹配

        0引言

        高斯模糊形變常見于圖像復(fù)原領(lǐng)域中[1,2],由于其點(diǎn)擴(kuò)展函數(shù)較難檢測,故特征提取與辨識較為困難。SIFT算子[3,4]信息量豐富,獨(dú)特性好且可擴(kuò)展性強(qiáng),具有旋轉(zhuǎn)、尺度、亮度變化等不變性,并對于視角變化、仿射變換、噪聲有一定的穩(wěn)定性[5],廣泛應(yīng)用于各類圖像工程領(lǐng)域。例如運(yùn)動(dòng)目標(biāo)跟蹤與檢測[6,7]、雷達(dá)影像配準(zhǔn)[8]、紅外目標(biāo)跟蹤[9]、手背靜脈識別[10]等。

        目前,多畸不變SIFT分為兩類。一類關(guān)注關(guān)鍵點(diǎn)局部區(qū)域特征模型與描述,如Harris-Affine[11]、MSER[12]、Hassian-Affine[13]等。劉向增等[14]針對大角度旋轉(zhuǎn)提出基于改進(jìn)奇異值分解的仿射不變SIFT;Wang等[15]認(rèn)為SIFT仿射不變性弱的原因在于DoG對關(guān)鍵點(diǎn)的關(guān)注區(qū)域是圓形,提出用MSER算子代替DoG算子;Zhao等[16]預(yù)估目標(biāo)翻轉(zhuǎn)類型,使翻轉(zhuǎn)區(qū)域標(biāo)準(zhǔn)化,構(gòu)建F-SIFT算子;Zhou等[17]提出基于采樣的局部描述子SLD,使圓形區(qū)域隨視點(diǎn)變化變成橢圓型區(qū)域,提升仿射穩(wěn)定性。

        關(guān)鍵點(diǎn)描述算子通過局部不變性統(tǒng)計(jì)特征反映目標(biāo)的全局不變性,對現(xiàn)實(shí)場景中的變形目標(biāo)匹配能力較弱。Morel等提出另一類基于形變空間重采樣的ASIFT(AffineScaleInvariantFeatureTransform)算子[18]。通過重采樣逼近仿射形變空間以尋找目標(biāo)圖像的可能投影,大大提高算法的匹配準(zhǔn)確度。但由于重構(gòu)空間計(jì)算量較大,限制其應(yīng)用,需要新的手段提高重構(gòu)空間匹配效率。

        1高斯模糊環(huán)境下的SIFT特征匹配

        1.1SIFT算法

        SIFT特征算法主要包括三個(gè)步驟:

        1) 特征點(diǎn)檢測

        (1) 在DoG尺度空間中對檢測點(diǎn)及其相鄰26個(gè)點(diǎn)比較,確保在尺度空間和二維空間檢測到極值點(diǎn)。DoG空間由不同尺度圖像高斯差分函數(shù)卷積得:

        D(x,y,σ)=(G(x,y,kσ)-G(x,y,σ))×I(x,y)

        =L(x,y,kσ)-L(x,y,σ)

        (1)

        式中,G為二維高斯核函數(shù);L為圖像的高斯尺度空間。DoG空間由高斯金字塔相鄰兩層相減得到;I(x,y)為圖像(x,y)位置處的像素值,其中G為:

        (2)

        式中τ為高斯分布標(biāo)準(zhǔn)差,即尺度空間因子。

        (2)DoG空間中檢測到的候選極值點(diǎn)并不一定是真正的極值點(diǎn),一般進(jìn)行三維二次函數(shù)擬合,精確確定關(guān)鍵點(diǎn)的位置和尺度;引入2×2Hessian矩陣,剔除不穩(wěn)定邊緣響應(yīng)點(diǎn);最后使用圖像梯度方法為每個(gè)極值點(diǎn)求取穩(wěn)定方向,即對每個(gè)極值點(diǎn)的鄰域內(nèi)像素的梯度和方向特征采集,使用36柱直方圖統(tǒng)計(jì)。直方圖峰值代表該極值點(diǎn)處鄰域梯度主方向,并將大于主方向峰值80%的方向作為輔方向。至此,檢測出的含有位置、尺度和方向的極值點(diǎn)即是SIFT特征點(diǎn)。

        2) 特征點(diǎn)描述

        SIFT一般采用128維特征向量對每個(gè)特征點(diǎn)描述,即在關(guān)鍵點(diǎn)周圍4×4窗口內(nèi)計(jì)算8個(gè)方向的梯度信息,然后對該向量歸一化處理。

        3) 特征點(diǎn)匹配

        兩個(gè)SIFT描述子匹配一般采用歐氏距離法,Lowe針對128維特征向量維數(shù)較高的問題,對傳統(tǒng)k-d樹進(jìn)行了改進(jìn)。如果最近距離與次近距離的比值小于某個(gè)閾值,則認(rèn)定這是一對匹配點(diǎn)。

        1.2ASIFT算法

        ASIFT算子構(gòu)建待匹配圖像仿射形變空間,來模擬目標(biāo)在不同參數(shù)的變形。其指出對于任意因視角變化引起的仿射變換,均可得到正定仿射變換矩陣A并且通過奇異值分解變換為:

        (3)其中,λ>0表示尺度變化,φ為相機(jī)方位旋轉(zhuǎn)角度,Ф∈[0,π),θ=arcos(1/t),t≥1。Rφ與RΦ為相機(jī)方位對應(yīng)的旋轉(zhuǎn)矩陣。

        圖1為ASIFT仿射形變空間采樣規(guī)則,SIFT算子具有旋轉(zhuǎn)與尺度不變性,故只需對圖1中t與Φ采樣,以模擬所有可能的仿射形變。仿射形變空間構(gòu)建完成后,空間中所有采樣圖像均與待匹配圖像進(jìn)行SIFT特征匹配。記錄最優(yōu)匹配結(jié)果。

        圖1 t與Φ的采樣規(guī)則

        1.3高斯模糊環(huán)境下的SIFT特征匹配

        圖像的高斯模糊可通過以下模型實(shí)現(xiàn):

        (4)

        其中,m、n為二維模板矩陣大小,σ為高斯正態(tài)分布標(biāo)準(zhǔn)差,同時(shí)也代表模糊半徑。

        二維高斯函數(shù)圖像表現(xiàn)為從其中心點(diǎn)開始呈正態(tài)分布的同心圓,且離中心越遠(yuǎn)的像素點(diǎn)權(quán)重越小,故二維模板矩陣的大小必須取適當(dāng)值才能盡量減小計(jì)算量,同時(shí)保證模糊效果。一般模板矩陣大小取邊長為(1+2×3σ)的方陣,即(6σ+1)×(6σ+1),簡化計(jì)算的同時(shí),也將三個(gè)參數(shù)m、n、σ減少至一個(gè)參數(shù)σ。

        在高斯模糊環(huán)境下,待匹配圖像相對于清晰圖像來說已十分“平滑”,對高斯模糊目標(biāo)辨識不利。如圖2所示,高斯模糊圖像與清晰目標(biāo)成功配117對,模糊圖像自身匹配成功245對,因此有必要提高SIFT算子在高斯模糊環(huán)境下的適應(yīng)能力。

        圖2 高斯模糊環(huán)境下SIFT算子匹配效果對比

        2基于形變空間重采樣的高斯模糊目標(biāo)特征匹配

        2.1形變空間重采樣基本原理

        設(shè)清晰目標(biāo)S與待匹配圖像T在變換F下匹配建模,首先構(gòu)造S的形變空間S′:

        S′=F{α1,α2,…,αn|S}

        (5)

        其中,A={α1,α2,…,αn}為模型參數(shù)集,n是模型參數(shù)個(gè)數(shù)。對模型參數(shù)αi離散化:

        αi→{αi1,αi2,…,αim}

        (6)

        其中,m為重采樣點(diǎn)數(shù),由n維離散化模型參數(shù){αij}(i=1,2,…,n,j=1,2,…,m)實(shí)現(xiàn)對形變空間的采樣,構(gòu)成重采樣空間D逼近原始形變空間S′:

        D→S′={D1,D2,…,Dp}

        (7)

        其中,p=mn,再由Di與T的匹配點(diǎn)數(shù)排序得:

        D={Df1,Df2,…,Dfp}

        (8)

        其中,f1…fp是SIFT特征匹配點(diǎn)數(shù)從大到小排序,確定最優(yōu)模型參數(shù)組合Af1。該過程實(shí)際上是一個(gè)優(yōu)化過程,目標(biāo)函數(shù):

        (9)

        約束條件:

        S′=F{α1,α2,…,αn|S}αi=Ri

        (10)

        其中,Ri是形變參數(shù)空間。

        2.2高斯模糊目標(biāo)特征匹配步驟

        GI-SIFT算法流程如圖3所示。

        圖3 形變空間重采樣算法流程

        1) 構(gòu)造清晰目標(biāo)S的高斯模糊形變空間S′;

        2) 設(shè)離散模糊參數(shù)為σ,構(gòu)建參數(shù)空間Σ={σ1,σ2,…,σm},進(jìn)而由Σ構(gòu)建S的高斯模糊重采樣空間D={D1,D2,…,Dm}逼近原始形變空間S′,Di為S與高斯模糊核函數(shù)F卷積后的圖像;

        3) 將待匹配圖像T與采樣空間D匹配,獲得目標(biāo)匹配點(diǎn)數(shù)空間P={N1,N2,…,Nm};

        4) 空間P中最大匹配點(diǎn)數(shù)Nmax對應(yīng)的樣本D*即為所求目標(biāo),同時(shí)確定T對應(yīng)的參數(shù)σ*。

        3基于降采樣與爬山法的重采樣空間遍歷優(yōu)化

        單純的重采樣空間遍歷算法,例如ASIFT中所采用的將待匹配圖像T與重采樣空間D中的所有樣本一一匹配。雖然能準(zhǔn)確搜尋最大匹配,但計(jì)算量過大,如圖4所示。

        圖4 σ=5的待匹配圖像與不同分辨率下的重采樣空間匹配結(jié)果

        圖4中,待匹配圖像T的高斯模糊參數(shù)σ0=5,其表示在不同分辨率條件下,模糊圖像與清晰目標(biāo)的N-σ曲線。圖中降采樣下的曲線1在匹配點(diǎn)數(shù)上遠(yuǎn)遠(yuǎn)少于原分辨率下的曲線2,但兩條曲線的變化趨勢卻是相同的。N-σ曲線均可看作一幅單峰波形圖,說明降采樣方法在減少計(jì)算量的同時(shí),并不會影響N-σ曲線的走勢。

        3.1圖像降采樣

        降采樣常用于圖像特征提取類算法,如SIFT算法DoG圖像金字塔的構(gòu)建采用2×2降采樣,但參數(shù)過大的降采樣會導(dǎo)致圖片出現(xiàn)嚴(yán)重的失真。必須選擇合適的參數(shù),在保證N-σ曲線趨勢不變的同時(shí),減少單幅圖像匹配計(jì)算量。本文采用3×3的降采樣。

        3.2爬山搜索

        將3×3降采樣后的待匹配圖像Ts與重采樣空間Ds中任意一幅圖像進(jìn)行匹配。通過對高斯模糊參數(shù)σ的擾動(dòng),判斷擾動(dòng)前后匹配點(diǎn)數(shù)N的變化情況,按照使匹配點(diǎn)數(shù)N增加的原則在重采樣空間中搜索與Ts的最大匹配。該方法思路簡單,且易實(shí)現(xiàn)。

        如圖4所示的N-σ曲線,用爬山法能輕易地找出當(dāng)前曲線的峰值點(diǎn),但該點(diǎn)可能與真實(shí)峰值點(diǎn)有所偏差。本文通過構(gòu)建N-σ曲線,快速搜索曲線峰值點(diǎn)區(qū)域,然后采用局部曲線擬合確定峰值P點(diǎn)。該方法兼具搜索效率高與精確度高的優(yōu)點(diǎn)。

        3.3算法實(shí)現(xiàn)

        基于降采樣與爬山法的重采樣空間遍歷優(yōu)化算法流程如圖5所示。

        圖5 基于圖像降采樣及爬山法的改進(jìn)算法流程圖

        算法實(shí)現(xiàn)步驟如下:

        1) 以采樣步長Δ重構(gòu)清晰目標(biāo)S的重采樣空間Da,對待匹配圖像T,Da進(jìn)行3×3降采樣,得到Ts、Das,將Ts與空間Das中樣本的匹配點(diǎn)數(shù)N定義為樣本模糊參數(shù)σ的函數(shù):N=f(σ);

        2) 理論上來說,高斯模糊參數(shù)σ可以趨近于無窮大,但課題組經(jīng)過大量實(shí)驗(yàn)后發(fā)現(xiàn),當(dāng)模糊參數(shù)σ>8以后,肉眼已難以分辨目標(biāo)形態(tài),不具備辨識價(jià)值,因此本文設(shè)置采樣參數(shù)范圍上限閾值σend≤8;

        3) 降采樣條件下,在步長Δ采樣重構(gòu)空間Das內(nèi)搜索峰值,令σ0=σend/2,得到匹配點(diǎn)數(shù)N0=f(σ0),對σ0擾動(dòng),設(shè)σ1=σ0+Δ,則N1=f(σ1),匹配點(diǎn)數(shù)增量:

        ΔN1=N1-N0=f(σ0+Δ)-f(σ0)

        (11)

        (1) 若ΔN1>0,說明峰值點(diǎn)在σ0右邊,繼續(xù)增加σ,直到σk+1=σk+Δ,如果:

        ΔNk+1=Nk+1-Nk=f(σk+1)-f(σk)<0

        (12)

        則Nk為對應(yīng)步長Δ下的N-σ曲線峰值;

        (2) 若ΔN1<0,說明峰值點(diǎn)在σ0左邊,重定義σ1=σ0-Δ,持續(xù)減少σ,直到σk+1=σk-Δ,如果:

        ΔNk+1=Nk+1-Nk=f(σk+1)-f(σk)<0

        (13)

        則Nk為對應(yīng)步長Δ下的N-σ曲線峰值;

        4) 此時(shí)回到原分辨率,在峰值點(diǎn)Nk對應(yīng)的σk周圍半徑為ε的鄰域進(jìn)行曲線擬合,求得擬合最優(yōu)參數(shù)(Nmax、σmax)。

        4實(shí)驗(yàn)結(jié)果及分析

        匹配算法運(yùn)行在IntelCore(TM)2 2.0GHz處理器上,編譯環(huán)境為VisualStudio2012。課題組在查閱大量文獻(xiàn)后發(fā)現(xiàn),目前學(xué)術(shù)界并沒有專門針對高斯模糊形變的SIFT衍生算法,故在此采用標(biāo)準(zhǔn)SIFT算子與GI-SIFT作對比實(shí)驗(yàn)。實(shí)驗(yàn)采用程序來自RobHess維護(hù)的SIFT算法庫(http://robwhess.github.io/opensift/)。實(shí)驗(yàn)分為高斯模糊環(huán)境下的特征匹配效果對比,采樣空間遍歷算法優(yōu)化前后的計(jì)算效率對比以及實(shí)際應(yīng)用效果對比。

        4.1高斯模糊環(huán)境下目標(biāo)特征匹配效果對比

        圖6、圖7采用512×512分辨率的標(biāo)準(zhǔn)lena圖像,分別表示模糊參數(shù)σ為1、3的模糊圖像在三種算法下的匹配結(jié)果對比。(a)、(b)分別為SIFT、GI-SIFT對高斯模糊圖片的匹配結(jié)果,N為匹配點(diǎn)數(shù)。實(shí)驗(yàn)結(jié)果顯示,本文提出的GI-SIFT,相比于SIFT在針對高斯模糊圖片的匹配點(diǎn)數(shù)上,有顯著提高。

        圖6 模糊圖像(上)σ=1在經(jīng)典SIFT算子與GI-SIFT算子的匹配效果

        圖7 模糊圖像(上)σ=3在經(jīng)典SIFT算子與GI-SIFT算子的匹配效果

        同時(shí),課題組采用華盛頓大學(xué)GroundtruthDatabase圖片庫進(jìn)行實(shí)驗(yàn)。該圖片庫包含24類圖片,課題組選取其中巴塞羅那、劍橋、哥倫比亞峽谷、格陵蘭等九類圖片,每類50張,分別進(jìn)行隨機(jī)參數(shù)的高斯模糊形變,對兩種算法匹配點(diǎn)數(shù)均值統(tǒng)計(jì)如圖8所示。橫坐標(biāo)代表圖像的類別,縱坐標(biāo)代表匹配點(diǎn)數(shù)。從統(tǒng)計(jì)結(jié)果可以看出,對每一類圖片,GI-SIFT的平均匹配點(diǎn)數(shù)明顯高于SIFT。但由于每類圖片內(nèi)容與模糊度的不同,GI-SIFT相對于SIFT的匹配點(diǎn)數(shù)提升幅度也不一樣,由64.4%到253.3%,平均提升幅度在117.5%左右,說明GI-SIFT對圖片的高斯模糊形變匹配效果提高了很多。

        圖8 兩種算法匹配點(diǎn)數(shù)對比

        4.2遍歷算法優(yōu)化前后匹配運(yùn)行時(shí)間對比

        由于算法的設(shè)計(jì)思路不同,GI-SIFT在算法效率上與MSER、PCA-SIFT、Harris-Affine等算法并不具有可比性,因此此處只考慮GI-SIFT算法優(yōu)化前后的時(shí)間對比。圖9是針對標(biāo)準(zhǔn)Lena圖片的高斯模糊特征匹配時(shí)間測試,其中鄰域半徑ε=1,步長Δ=1,σend=8,對目標(biāo)圖像模糊參數(shù)σ每隔0.5進(jìn)行一次時(shí)間采樣。

        圖9 遍歷算法優(yōu)化前后運(yùn)行時(shí)間對比

        實(shí)驗(yàn)結(jié)果顯示,當(dāng)待匹配圖像模糊參數(shù)在2以下時(shí),匹配時(shí)間由優(yōu)化前的400到750秒縮短至20秒左右;當(dāng)模糊參數(shù)進(jìn)一步增大時(shí),優(yōu)化算法所需時(shí)間還能夠進(jìn)一步的降低;相對于優(yōu)化前,GI-SIFT在特征匹配效率上有質(zhì)的提升,且目標(biāo)圖像的模糊度越小,效率提升越明顯。

        4.3實(shí)際應(yīng)用效果對比

        圖10為SIFT與GI-SIFT在實(shí)際生活中的應(yīng)用效果對比。測試圖片來自課題組所拍攝的日常照片,其中N為匹配點(diǎn)數(shù)。由于日常生活中所遇到的絕大多數(shù)圖片所受到的均為復(fù)合形變,因此并不能完全依照其受到的形變種類來進(jìn)行絕對的分類。本文在采集實(shí)驗(yàn)所用的實(shí)際生活照片時(shí),也不可避免會受到光照、視角、焦距等各種因素的影響。但課題組已盡量對除高斯模糊以外的形變進(jìn)行了限制,以期達(dá)到預(yù)期的實(shí)驗(yàn)效果。 同時(shí),考慮到目標(biāo)物體被部分遮擋這一情況并不會影響高斯形變的處理效果,在采集實(shí)驗(yàn)圖片時(shí)也加入了目標(biāo)遮擋這一情況。

        圖10 SIFT算子與GI-SIFT算子對于實(shí)際場景的高斯模糊特征匹配效果

        由圖10可以看出,(a)、(b)中,待匹配圖片模糊度σ1=0.7,目標(biāo)物體進(jìn)行了90度的旋轉(zhuǎn),SIFT算子匹配點(diǎn)數(shù)為218,但能明顯看出有較多錯(cuò)誤匹配點(diǎn),GI-SIFT的匹配點(diǎn)數(shù)為245,且錯(cuò)誤匹配點(diǎn)數(shù)量沒有較大變化。(c)、(d)中,待匹配圖片模糊度σ2=1.3,目標(biāo)物體有一部分被遮擋,SIFT算子的匹配點(diǎn)數(shù)為54,GI-SIFT卻能找出94個(gè)匹配點(diǎn)。(e)(f)中,待匹配圖片模糊度σ3=2.7,目標(biāo)物體有輕微的仿射形變,SIFT算子只能找出5個(gè)匹配點(diǎn),GI-SIFT的匹配點(diǎn)數(shù)為13。以上結(jié)果說明,本算法在實(shí)際應(yīng)用中也具有較好的匹配效果,與前文實(shí)驗(yàn)結(jié)果相符。

        5結(jié)語

        針對SIFT算子對高斯模糊環(huán)境下的特征匹配能力弱的問題,提出了一種基于圖像形變空間重采樣的改進(jìn)算法。通過高斯模糊模型構(gòu)建待識別目標(biāo)的重采樣形變空間,在該空間內(nèi)搜尋與待匹配圖像具有最大匹配的圖像采樣,較大提升了特征匹配能力。在此基礎(chǔ)上又提出了基于降采樣與爬山法的遍歷優(yōu)化算法,在不影響匹配結(jié)果的情況下,顯著加快運(yùn)算效率。

        參考文獻(xiàn)

        [1] 陳曦,汪彥剛,彭思龍.部分模糊核已知的混合模糊圖像復(fù)原算法[J].計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào),2010,22(2):272-278.

        [2] 王芳,李誼,陸建峰,等.模糊圖像盲復(fù)原的魯棒自適應(yīng)濾波算法[J].計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào),2014,26(3):457-464.

        [3]LoweDG.Objectrecognitionfromlocalscale-invariantfeatures[C]//ProceedingsofInternationalConferenceonComputerVision.Kerkyra,Greece:IEEE,1999:1150-1157.

        [4]LoweDG.Distinctiveimagefeaturesfromscale-invariantkeypoints[J].InternationalJournalofComputerVision,2004,60(2):91-110.

        [5] 吳慧蘭,劉國棟,劉炳國,等.基于SIFT算法的圓心快速精確定位技術(shù)研究[J].光電子·激光,2008,19(11):1512-1515.

        [6] 藺海峰,馬宇峰,宋濤.基于SIFT特征目標(biāo)跟蹤算法研究[J].自動(dòng)化學(xué)報(bào),2010,36(8):1204-1208.

        [7] 明安龍,馬華東.多攝像機(jī)之間基于區(qū)域SIFT描述子的目標(biāo)匹配[J].計(jì)算機(jī)學(xué)報(bào),2008,31(4):650-661.

        [8] 陳爾學(xué),李增元,田昕,等.尺度不變特征變換法在SAR影像匹配中的應(yīng)用[J].自動(dòng)化學(xué)報(bào),2008,34(8):861-868.

        [9] 鄭紅,鄭晨,閆秀生,等.基于SUKF與SIFT特征的紅外目標(biāo)跟蹤算法研究[J].光電子·激光,2012,23(4):791-797.

        [10] 王云新,劉鐵根,江俊峰,等.基于局部SIFT分析的手背靜脈識別[J].光電子·激光,2009,20(5):681-684.

        [11]MikolajczykK,SchmidC.Scale&affineinvariantinterestpointdetectors[J].InternationalJournalofComputerVision,2004,60(1):63-86.

        [12]ForssénPE,LoweDG.Shapedescriptorsformaximallystableextremalregions[C]//ProceedingsofThe11thInternationalConferenceonComputerVision.RiodeJaneiro,Brazil:IEEE,2007:601-614.

        [13]RuanL,SridhaS,ClintonF.Hessian-Basedaffineadaptationofsalientlocalimagefeatures[J].JournalofMathematicalImagingandVision,2012,44(2):150-167.

        [14] 劉向增,田錚,溫金環(huán),等.基于仿射不變SIFT特征的SAR圖像配準(zhǔn)[J].光電工程,2010,37(11):121-127.

        [15]ZhupingWang,HuiyuMo,HanWang,etal.AnAffineInvariantFeatureDetectionMethodBasedonSIFTandMSER[C]//Proceedingsof2012 7thIEEEConferenceonIndustrialElectronicsandApplications(ICIEA).Singapore:IEEE,2012:69-72.

        [16]WanleiZhao,ChongwahNgo.Flip-InvariantSIFTforCopyandObjectDetection[J].IEEETransactionsonImageProcessing,2013,22(3):980-991.

        [17]WenZhou,ChunhengWang,BaihuaXiao,etal.SLD:ANovelRobustDescriptorforImageMatching[J].IEEESignalProcessingLetters,2014,21(3):339-342.

        [18]MorelJM,YuG.ASIFT:anewframeworkforfullyaffineinvariantimagecomparison[J].SIAMJournalonImagingSciences,2009,2(2):438-469.

        GAUSSIAN BLUR INVARIANT SIFT OPERATOR BASED ONHILL-CLIMBINGSEARCHING

        Fu Bo1Zhang Min1Zhao Xilin1Li Chaoshun2

        1(School of Electrical and Electronic Engineering,Hubei University of Technology,Wuhan 430068,Hubei,China)2(School of Hydropower and Information Engineering,Huazhong University of Science and Technology, Wuhan 430074,Hubei,China)

        AbstractSIFT operator is difficult in feature matching in Gaussian blur environment. Aiming at this problem, we proposed a Gaussian blur invariant SIFT operator (GI-SIFT) which is based on resampling in deformation space of object image. First, we built the Gaussian blur model of the clear object and re-sampled the model parameters to reconstruct complete deformation space of the object image. Secondly, we introduced subsampling and hill climbing approaches to construct the subsampling deformation space of the object image, and rapidly searched the current peak value in subsampling space with large sampling step, and made curve fitting in peak neighbourhood to quickly find the optimal matching. Experimental results showed that the proposed algorithm can well match Gaussian blur object, at the same time it also greatly improves the efficiency of objects feature matching.

        KeywordsScale invariant feature transform (SIFT)Resampling of deformation spaceGaussian blurSubsamplingHill-climbingFeature matching

        收稿日期:2014-12-18。國家自然科學(xué)基金項(xiàng)目(61072130,5110 9088);武漢市科技攻關(guān)計(jì)劃項(xiàng)目(2013012401010845);湖北工業(yè)大學(xué)科研基金項(xiàng)目(BSQD12107);廣東省工業(yè)攻關(guān)項(xiàng)目(2011B010100037)。付波,教授,主研領(lǐng)域:圖像處理。張敏,碩士生。趙熙臨,副教授。李超順,副教授。

        中圖分類號TP391.4

        文獻(xiàn)標(biāo)識碼A

        DOI:10.3969/j.issn.1000-386x.2016.06.045

        猜你喜歡
        點(diǎn)數(shù)高斯算子
        小高斯的大發(fā)現(xiàn)
        擬微分算子在Hp(ω)上的有界性
        各向異性次Laplace算子和擬p-次Laplace算子的Picone恒等式及其應(yīng)用
        天才數(shù)學(xué)家——高斯
        一類Markov模算子半群與相應(yīng)的算子值Dirichlet型刻畫
        看不到的總點(diǎn)數(shù)
        Roper-Suffridge延拓算子與Loewner鏈
        畫點(diǎn)數(shù)
        破解“心靈感應(yīng)”
        多核并行的大點(diǎn)數(shù)FFT、IFFT設(shè)計(jì)
        久久久亚洲欧洲日产国产成人无码| 国产成人无码a区在线观看视频| 国产在线观看午夜视频| 亚洲一区二区三区99| 妃光莉中文字幕一区二区| 无码一区二区三区| 亚洲av成人无遮挡网站在线观看| 影音先锋中文字幕无码资源站| 疯狂撞击丝袜人妻| 日韩精品无码一区二区三区视频 | 欧美第五页| 亚洲区偷拍自拍29p| 亚洲 美腿 欧美 偷拍| 国产伦精品一区二区三区在线| 日本女优五十路中文字幕| 一区二区在线观看视频高清| 成人免费a级毛片| 丁香花在线影院观看在线播放| 国内少妇人妻丰满av| 人妻无码Aⅴ中文系列| 国产精品日本一区二区三区| 国产毛片黄片一区二区三区| 国产精品美女久久久久av超清| 99久久综合狠狠综合久久| 亚洲黄色在线看| 国产精品一区二区三区色| av在线播放一区二区免费| 久久99精品国产麻豆| 中文字幕aⅴ人妻一区二区| 亚洲av无码精品色午夜蛋壳| 日韩欧美第一页| 免费无码黄网站在线观看| 日本成人午夜一区二区三区 | 国产成人无精品久久久| 97自拍视频国产在线观看| 看日本全黄色免费a级| 日本做受高潮好舒服视频| av中文字幕综合在线| 国产亚洲精选美女久久久久| 亚洲av大片在线免费观看| 亚洲天堂av在线网站|