亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于稀疏結(jié)構(gòu)的圖像特征匹配算法①

        2018-05-04 06:33:20包曉安詹秀娟張俊為胡玲玲桂江生
        關(guān)鍵詞:特征區(qū)域結(jié)構(gòu)

        包曉安, 詹秀娟, 張俊為, 王 強(qiáng), 胡玲玲, 桂江生

        (浙江理工大學(xué) 信息學(xué)院,杭州 310018)

        圖像匹配是目標(biāo)跟蹤、圖像檢索和圖像全景拼接等多個(gè)應(yīng)用領(lǐng)域中重要的組成部分[1-4]. 目前匹配算法主要是基于圖像特征學(xué)習(xí)的,該類方法對(duì)于復(fù)雜環(huán)境的圖像匹配仍能保持較好的穩(wěn)定性,已逐漸成為圖像匹配研究的主流方向.

        SIFT算法[5]是公認(rèn)性能最好的特征匹配算法之一,適用于圖像的尺度、旋轉(zhuǎn)變換、光線強(qiáng)弱變化等各種復(fù)雜情況下. 但是算法的復(fù)雜度較高,影響特征點(diǎn)的檢測(cè)速度和匹配速度. 快速魯棒特征(SURF)算法[6]是對(duì)SIFT的改進(jìn),該算法采用海森矩陣,使特征點(diǎn)的檢測(cè)速度提高幾倍,但降低了匹配準(zhǔn)確率. PCA-SIFT算法[7],其思想是用主元分析法[8]代替SIFT算法中直方圖方法,提高算法運(yùn)行的速度,但匹配數(shù)目較少. 近年來(lái)也產(chǎn)生了一些性能較好的算法,如Xu等[9]是將局部輪廓信息和全局信息融合,并結(jié)合改進(jìn)的DTW技術(shù),通過(guò)計(jì)算全局最佳匹配路徑,能夠?qū)崿F(xiàn)局部匹配. Chen等[10]通過(guò)基礎(chǔ)矩陣計(jì)算特征點(diǎn)極線,并通過(guò)極線約束剔除錯(cuò)誤匹配. Ren等[11]是將彩色信息和灰度信息疊加,形成改進(jìn)的SURF特征描述子,并采用雙向搜索策略實(shí)現(xiàn)特征匹配.

        特征匹配時(shí),無(wú)論是最佳路徑的選擇,還是采用雙向搜索策略,都會(huì)有效提高匹配正確率. 但是多數(shù)匹配算法是對(duì)圖像進(jìn)行全局特征點(diǎn)檢測(cè),而且特征匹配時(shí)使用全局搜索策略,也會(huì)影響算法運(yùn)行速度. 針對(duì)上述問(wèn)題,提出一種基于稀疏結(jié)構(gòu)的圖像特征匹配(Sparse Structure Matching,SSM)算法. 通過(guò)分析每個(gè)像素點(diǎn)的稀疏度值,篩選出稀疏度高的像素點(diǎn)所在的區(qū)域,作為結(jié)構(gòu)稀疏度區(qū)域,縮小特征點(diǎn)的提取范圍,加快特征點(diǎn)檢測(cè)的速度,并通過(guò)最佳描述子的選擇實(shí)現(xiàn)特征匹配.

        1 SSM算法

        SSM算法是在特征點(diǎn)提取之前,通過(guò)稀疏度值的高低篩選出結(jié)構(gòu)區(qū)域,然后對(duì)結(jié)構(gòu)區(qū)域進(jìn)行特征提取,這樣就避免了在全局進(jìn)行特征點(diǎn)提取,減少了一些不穩(wěn)點(diǎn)特征點(diǎn)的數(shù)量,這就使特征點(diǎn)生成過(guò)程,縮短特征點(diǎn)檢測(cè)時(shí)間,且采用最佳描述子匹配的準(zhǔn)確率得到有效提高.

        1.1 稀疏函數(shù)

        在圖像中一個(gè)較小鄰域的灰度發(fā)生急劇的變化,其實(shí)體現(xiàn)的就是圖像的結(jié)構(gòu). 而灰度變換和空間變換對(duì)局部結(jié)構(gòu)的影響較小[12]. 一般圖像的輪廓、圖形的拐角、交叉區(qū)域包含了圖像中大部分結(jié)構(gòu). 在圖像中,一個(gè)圖像塊與其鄰域中的其余圖像塊之間一般存在一定的聯(lián)系.

        如圖1所示,其中,圖像塊用實(shí)線框區(qū)域表示,其鄰域用虛線框區(qū)域表示. 圖中A位于圖像中平滑區(qū)域,其鄰域內(nèi)有較多的相似圖像塊[13]. 而位于圖像中結(jié)構(gòu)區(qū)域的B,其鄰域范圍內(nèi)有很少的相似圖像塊.

        Xu等[14]根據(jù)圖像中圖像塊和它鄰域內(nèi)其它圖像塊之間的一個(gè)相似度,來(lái)定義圖像稀疏結(jié)構(gòu)的概念. 對(duì)圖像全局進(jìn)行圖像塊的劃分,假設(shè)將圖像中某一像素點(diǎn)m為中心的鄰域窗口記為N(m),其大小為25×25.以該像素點(diǎn)為中心的圖像塊記為ψm,其大小為7×7,ψmi是其鄰域窗口中以mi為中心的鄰域塊,領(lǐng)域窗口N(m)中所有的mi的集合記為Ns(m),即:

        圖1 不同區(qū)域的圖像塊及其鄰域

        直方圖能夠反映圖像的灰度分布,以直方圖計(jì)算相似度,復(fù)雜度低. 梯度信息反映了相鄰像素之間的相對(duì)變化、連接緊密程度以及圖像的方向特征,所以引用文獻(xiàn)[15]中的梯度信息相似性度量,將梯度信息與直方圖相似性度量結(jié)合,增加衡量圖像塊位于結(jié)構(gòu)區(qū)域的可信度,計(jì)算圖像塊的直方圖,則不同圖像塊直方圖之間的相似性定義為:

        式(2)中,H(m,mi)表示圖像塊ψm的直方圖和鄰域范圍中其余圖像塊ψmi的直方圖的相似度,h1i表示圖像塊ψm灰度級(jí)為i時(shí)的像元個(gè)數(shù),h2i表示圖像塊ψmi灰度級(jí)為i時(shí)的像元個(gè)數(shù),灰度級(jí)l=255. 兩圖像塊相似度越高,其直方圖越相似,那么H(m,mi)的值就越小.

        如圖1中A的鄰域內(nèi)圖像塊C和A比較相似,其直方圖之間的相似度較高; 而D則與A相差較大,其直方圖之間相似度較低,所以采用直方圖的方法能夠較好的衡量圖像塊之間的相似度.

        圖像塊ψm與圖像塊ψmi之間的相似度定義為:

        式 (3)中,d(Гm,Гmi)表示在梯度模值圖像中,以m與mi為中心的圖像塊間的距離,α=5,用來(lái)控制相似度的衰減程度.P(m)是歸一化系數(shù),使

        在求得圖像塊之間的相似度之后,圖像塊的稀疏度函數(shù)就可以定義為:

        式(4)中,|Ns(m)|是集合中元素個(gè)數(shù); |N(m)|表示鄰域窗口中元素的個(gè)數(shù).

        1.2 稀疏結(jié)構(gòu)區(qū)域的標(biāo)記

        通過(guò)對(duì)圖像分析,由稀疏度函數(shù)求解出每個(gè)圖像塊的稀疏度值S(m),利用塊結(jié)構(gòu)稀疏概念將圖像劃分為兩類[16]:一是包含大量結(jié)構(gòu)信息的結(jié)構(gòu)區(qū)域,稱為結(jié)構(gòu)塊; 二是包含大量紋理信息或平滑區(qū)域的非結(jié)構(gòu)區(qū)域,稱為非結(jié)構(gòu)塊. 圖像中結(jié)構(gòu)區(qū)域、非結(jié)構(gòu)區(qū)域的結(jié)構(gòu)稀疏度是不同的,結(jié)構(gòu)區(qū)域的結(jié)構(gòu)稀疏度值較高一般在0.7~1.0之間,而非結(jié)構(gòu)區(qū)域的稀疏度值一般小于0.3.

        在運(yùn)算中,將閾值設(shè)置為0.7,這樣對(duì)于不同的圖像基本都可以篩選出它們的結(jié)構(gòu)區(qū)域. 結(jié)構(gòu)塊的稀疏度值都大于規(guī)定的閾值,則為稀疏結(jié)構(gòu)區(qū)域,認(rèn)定關(guān)系表述為:

        式(5)中S(m)為圖像塊的稀疏度值,ξ=0.7為規(guī)定的閾值. 相反,非結(jié)構(gòu)塊的稀疏度值都小于規(guī)定的閾值.在一般情況下,在一幅圖像中結(jié)構(gòu)塊的數(shù)量遠(yuǎn)少于非結(jié)構(gòu)塊的個(gè)數(shù),所以只對(duì)標(biāo)記的結(jié)構(gòu)塊進(jìn)行特征提取,提取的特征穩(wěn)定性好且能有效減少處理的區(qū)域.

        圖2 稀疏結(jié)構(gòu)區(qū)域的標(biāo)記

        計(jì)算每個(gè)像素的稀疏度值,通過(guò)定義的閾值,將稀疏度值高的區(qū)域篩選出來(lái),進(jìn)行標(biāo)記,如圖2所示.

        1.3 稀疏結(jié)構(gòu)區(qū)域的SIFT特征提取

        采用SIFT的方法對(duì)有標(biāo)記的稀疏結(jié)構(gòu)區(qū)域進(jìn)行極值點(diǎn)檢測(cè)、關(guān)鍵點(diǎn)定位和方向分配. 極值點(diǎn)的檢測(cè),如圖3(a),對(duì)圖像特征方向的定位,如圖3(b)所示.

        1.4 最佳描述子選擇及特征匹配

        通過(guò)關(guān)鍵點(diǎn)周圍區(qū)域梯度信息得到SIFT描述子.關(guān)鍵點(diǎn)及其周圍部分像素點(diǎn)都包含在描述子中,而圖像匹配的質(zhì)量依賴于特征提取的描述子,因此如何找到最佳的描述子,是提高匹配準(zhǔn)確率的一種方法. 描述子的有效性不僅取決于圖像內(nèi)的外觀,而且取決于圖像間的變化,因此對(duì)于圖像匹配,最佳的描述子通常是圖像相關(guān)或者是區(qū)域相關(guān)[17].

        圖3 極值點(diǎn)檢測(cè)及SIFT特征

        特征匹配是通過(guò)在特征點(diǎn)鄰域內(nèi)搜索多個(gè)描述子中的一個(gè),該鄰域內(nèi)所有的描述子就作為候選描述子.特征點(diǎn)之間距離可能相隔幾個(gè)像素,特別是對(duì)于鄰域內(nèi)兩個(gè)相距最近的特征點(diǎn),它們的描述子相似度較高,在對(duì)這兩點(diǎn)尋找對(duì)應(yīng)匹配點(diǎn)時(shí),導(dǎo)致錯(cuò)誤匹配的概率就會(huì)增高. 在鄰域內(nèi)的候選描述子中尋找一個(gè)描述子能使該特征點(diǎn)與其相距最近的特征點(diǎn)進(jìn)行區(qū)分,這樣的描述子就是該特征點(diǎn)的最佳描述子. 將最佳描述子選擇問(wèn)題轉(zhuǎn)化為構(gòu)造圖的能量最小化問(wèn)題.

        (1) 構(gòu)造圖

        若給定待匹配圖像Ip和IQ,特征點(diǎn)分別是構(gòu)造圖G,由頂點(diǎn)集v和邊集ε組成,表示為G(v,ε). 圖G中每個(gè)頂點(diǎn)在本文中即是對(duì)應(yīng)于圖像Ip中的特征點(diǎn)Cp,頂點(diǎn)的數(shù)量|v|=Np. 如果在某一鄰域大小為K的區(qū)域中,Cj是距離Ci最近的鄰點(diǎn),則連接它們對(duì)應(yīng)的頂點(diǎn)vi和vj的邊為eij,且復(fù)合變量每個(gè)頂點(diǎn)與復(fù)合變量相關(guān)聯(lián),該復(fù)合變量wi表示通過(guò)描述子di將特征點(diǎn)與特征點(diǎn)進(jìn)行匹配,此時(shí)選擇的描述子di,即是最佳的描述子; 而特征點(diǎn)與特征點(diǎn)是在最佳描述子下的最佳匹配對(duì).

        (2) 尋找合理的圖的標(biāo)號(hào)

        式(6)表示特征點(diǎn)鄰域內(nèi)描述子的評(píng)估功率取最小值,gi(wi)為鄰域內(nèi)選擇的描述子的評(píng)估功率.

        式(7)中,n是空間鄰域的個(gè)數(shù),si是特征點(diǎn)索引,di是描述子索引. 其中,

        式(8)中,Y是特征點(diǎn)的特征向量是在描述子di下,特征點(diǎn)之間的光度相異函數(shù),dist是特征向量之間的歐式距離. 同理,是在描述子di下,特征點(diǎn)之間的光度相異函數(shù).

        (3) 最佳描述子及特征匹配

        當(dāng)式(6)的取值為最小時(shí),則選擇的這個(gè)合理的標(biāo)號(hào)為W=wi,故由可知,鄰域內(nèi)選擇的描述子di,是的最佳描述子,該描述子下的特征點(diǎn)的匹配是最佳的匹配; 否則,該描述子就不屬于最佳描述子,這樣的描述子無(wú)法區(qū)分相鄰匹配點(diǎn)對(duì)故被舍去.

        1.5 算法運(yùn)行步驟

        本文算法步驟如下:

        步驟1. 分別將兩幅利用式(4)計(jì)算圖像塊的稀疏度值,用式(5)進(jìn)行篩選,得到稀疏結(jié)構(gòu)區(qū)域,對(duì)該區(qū)域進(jìn)行標(biāo)記;

        步驟2. 構(gòu)造尺度空間. 將待匹配圖像與高斯核函數(shù)卷積可得到待匹配圖像的尺度空間,為:

        式(9)、(10)中,(x0,y0)是像素點(diǎn)的位置,σ決定圖像平滑程度. 將高斯尺度空間中相鄰兩層相減得到高斯差分金字塔,對(duì)其特征進(jìn)行歸一化,可以得到明顯的差分圖像蘊(yùn)含的特征,這些特征就是要提取的穩(wěn)定特征.

        步驟3. 采用經(jīng)典SIFT算法對(duì)兩幅圖像中有標(biāo)記的稀疏結(jié)構(gòu)區(qū)域中進(jìn)行極值點(diǎn)檢測(cè)和關(guān)鍵點(diǎn)定位.

        步驟4. 統(tǒng)計(jì)關(guān)鍵點(diǎn)鄰域的梯度信息生成SIFT描述子.

        步驟5. 利用式(7)計(jì)算描述子的評(píng)估功率,利用式(6)找到評(píng)估功率的最小值. 在最佳描述子下,將特征點(diǎn)進(jìn)行匹配,對(duì)匹配的兩特征點(diǎn)進(jìn)行連線,直到圖像Ip中所有特征點(diǎn)找到其在圖像IQ中的對(duì)應(yīng)匹配點(diǎn)為止.

        2 算法測(cè)試及結(jié)果分析

        實(shí)驗(yàn)運(yùn)行環(huán)境為Matlab R2014b版本,Intel(R)Core(TM)i5-3210M 2.3 GHz 4 GB內(nèi)存的PC機(jī). 實(shí)驗(yàn)5組圖像數(shù)據(jù),分別為cat、flower、lena、build和street,圖像分辨率均為400 dpi.

        2.1 匹配結(jié)果比較

        為驗(yàn)證本文算法的普適性,使用不同類型的圖像,將SSM算法與三種算法進(jìn)行比較.

        圖4是選擇5種圖像數(shù)據(jù)的特征匹配結(jié)果圖,圖中每根線代表一對(duì)特征匹配對(duì),圖(a)、(b)、(c)和(d)分別表示SIFT、SURF、PCA-SIFT和SSM算法匹配結(jié)果. 從圖中可以看出,圖(d)相比于其它算法的匹配對(duì)個(gè)數(shù)較多.

        圖4 SIFT、SURF、PCA-SIFT和SSM算法特征匹配結(jié)果

        匹配結(jié)果數(shù)據(jù)用表1列出,可知cat圖像的匹配結(jié)果中,SSM方法的匹配對(duì)數(shù)是SIFT方法的2.1倍,是SURF方法的6.3倍,是PCA-SIFT方法的8.9倍.flower圖像的匹配結(jié)果中,SSM方法的匹配對(duì)數(shù)是SIFT方法的1.3倍,是SURF方法的1.7倍,是PCASIFT方法的2.0倍. lena圖像匹配結(jié)果中,SSM方法的匹配對(duì)數(shù)是SIFT方法的1.6倍,是SURF方法的1.9倍,是PCA-SIFT方法的2.5倍. build圖像的匹配結(jié)果中,SSM方法的匹配對(duì)數(shù)是SIFT方法的7.7倍,是SURF方法的7.0倍,是PCA-SIFT方法的9.2倍.street圖像的匹配結(jié)果中,SSM方法的匹配對(duì)數(shù)是SIFT方法的5.7倍,是SURF方法的6.6倍,是PCA-SIFT方法的7.5倍. 5組數(shù)據(jù)中,SSM方法的匹配對(duì)個(gè)數(shù)比其它三種方法高出1.3~9.2倍.

        表1 SIFT、SURF、PCA-SIFT和SSM算法匹配對(duì)個(gè)數(shù)數(shù)據(jù)統(tǒng)計(jì)

        為了直觀表明SSM方法的優(yōu)越性,畫出了四種算法得到的特征點(diǎn)匹配對(duì)數(shù)的柱狀圖,如圖5. 可以看出,對(duì)于任意一組圖像數(shù)據(jù),SSM算法的匹配對(duì)數(shù)都比其它三種算法多出1.3倍以上. 選擇的圖像包括:?jiǎn)蝹€(gè)對(duì)象、自然景物、建筑物和室外復(fù)雜場(chǎng)景,采用SSM算法,匹配效果都得到提高,足以說(shuō)明SSM算法的普適性.

        圖5 特征匹配對(duì)個(gè)數(shù)對(duì)比圖

        2.2 匹配速率

        為了準(zhǔn)確評(píng)估SSM算法性能,分別對(duì)圖像在亮度、旋轉(zhuǎn)、尺度、加椒鹽噪聲和仿射變換等復(fù)雜情況下進(jìn)行對(duì)比試驗(yàn),性能分析中選擇lena圖像作為試驗(yàn)對(duì)象.

        將SSM算法與SIFT、PCA-SIFT、SURF三種方法,在特征檢測(cè)時(shí)間和特征匹配時(shí)間進(jìn)行比較. 算法運(yùn)行時(shí)間對(duì)比,如圖6所示,由圖(a)可以看出,對(duì)于不同的圖像變換,由于SURF通過(guò)海森矩陣定位興趣點(diǎn),所以檢測(cè)耗時(shí)最短; 而SSM算法是在稀疏結(jié)構(gòu)區(qū)域進(jìn)行特征點(diǎn)檢測(cè),有效的縮小了檢測(cè)范圍,但是在尋找稀疏結(jié)構(gòu)區(qū)域時(shí)也會(huì)增加計(jì)算復(fù)雜度,雖然在檢測(cè)速度上優(yōu)于PCA-SIFT算法和SIFT算法,但是仍然沒(méi)有SURF算法檢測(cè)速度快. 由圖(b)可知,SSM算法匹配時(shí)間最短,SIFT算法耗時(shí)最長(zhǎng). 因?yàn)楸疚姆椒ú皇菍?duì)圖像進(jìn)行全局尋找匹配點(diǎn),而是在稀疏結(jié)構(gòu)區(qū)域進(jìn)行全局搜索,這樣就會(huì)大大減少搜索區(qū)域,節(jié)省很多時(shí)間.而其它三種算法均是對(duì)圖像進(jìn)行全局的特征點(diǎn)搜索,每搜索一個(gè)特征點(diǎn),都要進(jìn)行一次步驟5,要將所有特征點(diǎn)一一匹配也是一個(gè)浩大的工程. 所以本文算法在匹配速度上是優(yōu)于其它三種算法的.

        圖6 算法運(yùn)行時(shí)間對(duì)比圖

        2.3 匹配準(zhǔn)確率

        為了直觀反應(yīng)算法的匹配效果,定義了匹配準(zhǔn)確率函數(shù)P.P越大說(shuō)明錯(cuò)誤匹配對(duì)越少,算法的匹配效果越好. 假設(shè)圖像Ip和圖像IQ進(jìn)行特征匹配時(shí),匹配總數(shù)為f,其中錯(cuò)誤匹配數(shù)為f1,那么匹配準(zhǔn)確率可以定義為:

        由表2可以看出,在圖像亮度變換的情況下,SSM算法的匹配準(zhǔn)確率為91.5%,比其它三種算法高6.1%~13.2%,而SIFT準(zhǔn)確率略低. 在圖像旋轉(zhuǎn)變換情況下,SSM算法的匹配準(zhǔn)確率為98.3%,比其它三種算法高12.3%~34.6%,SIFT準(zhǔn)確率還是相對(duì)較高,而旋轉(zhuǎn)變換對(duì)SURF和PCA-SIFT的影響較大. 在圖像尺度變換的情況下,SSM算法的匹配準(zhǔn)確率為98.6%,比其它三種算法高8.5%~19.4%,SURF和PCA-SIFT的匹配準(zhǔn)確率相對(duì)較低,而SIFT的匹配準(zhǔn)確率是圖像幾種變換下最高的,SIFT具有較好的尺度不變性. 在圖像加噪聲的情況下,SSM算法的匹配準(zhǔn)確率為97.8%,比其它三種算法高11.1%~36.1%,而噪聲對(duì)SIFT的影響較大. 在仿射變換下,SSM算法的匹配準(zhǔn)確率為90.2%,比其它三種算法高9.9%~15.8%. 由于SSM算法特征點(diǎn)穩(wěn)定性較好,且采用最佳描述子下進(jìn)行特征匹配,所以受圖像外界影響較小. 因此在圖像進(jìn)行復(fù)雜變換時(shí),SSM算法在匹配準(zhǔn)確率上比其它三種算法更具有優(yōu)勢(shì).

        表2 4種算法匹配準(zhǔn)確率統(tǒng)計(jì)表(單位:%)

        3 結(jié)論

        針對(duì)傳統(tǒng)特征匹配算法特征點(diǎn)檢測(cè)耗時(shí)長(zhǎng)和匹配準(zhǔn)確率低的問(wèn)題,本文提出一種基于稀疏結(jié)構(gòu)的圖像特征匹配算法. 文中通過(guò)引入稀疏結(jié)構(gòu)的概念,進(jìn)而考慮到在稀疏結(jié)構(gòu)區(qū)域提取特征點(diǎn)以縮小特征點(diǎn)的檢測(cè)范圍. 通過(guò)對(duì)實(shí)驗(yàn)結(jié)果的分析,我們可以看出,本文提出的SSM算法與其它的算法相比,無(wú)論在特征點(diǎn)的檢測(cè)速度,還是在特征匹配速度,更或者是匹配準(zhǔn)確率和算法普適性方面,都具有很好的優(yōu)勢(shì). 但是本文算法也存在一些不足,比如在計(jì)算稀疏度值、篩選出稀疏度高的像素點(diǎn)所在的區(qū)域上,比其它的算法稍顯復(fù)雜. 接下來(lái)的研究工作主要在兩個(gè)方面:一是考慮到該方法存在一定的錯(cuò)誤匹配,如果與誤匹配剔除結(jié)合起來(lái),會(huì)使算法性能更好. 二是將本文算法與目標(biāo)跟蹤算法相結(jié)合.

        1 常發(fā)亮,馬麗,喬誼正. 遮擋情況下基于特征相關(guān)匹配的目標(biāo)跟蹤算法. 中國(guó)圖象圖形學(xué)報(bào),2006,11(6):877-882. [doi:10.11834/jig.200606147]

        2 周燕,曾凡智. 基于二維壓縮感知和分層特征的圖像檢索算法. 電子學(xué)報(bào),2016,44(2):453-460.

        3 曹世翔,江潔,張廣軍,等. 邊緣特征點(diǎn)的多分辨率圖像拼接. 計(jì)算機(jī)研究與發(fā)展,2011,48(9):1788-1793.

        4 鄭啟財(cái),曾智勇,池燕玲. 改進(jìn)的基于顏色和SIFT特征的圖像檢索方法. 計(jì)算機(jī)系統(tǒng)應(yīng)用,2015,24(11):129-133.[doi:10.3969/j.issn.1003-3254.2015.11.020]

        5 Lowe DG. Distinctive image features from scale-invariant keypoints. International Journal of Computer Vision,2004,60(2):91-110. [doi:10.1023/B:VISI.0000029664.99615.94]

        6 Bay H,Tuytelaars T,Van Gool L. SURF:Speeded up robust features. In:Leonardis A,Bischof H,Pinz A,eds. Computer Vision-ECCV 2006. Berlin,Heidelberg:Springer,2006.404-417.

        7 Ke Y,Sukthankar R. PCA-SIFT:A more distinctive representation for local image descriptors. Proceedings of the 2004 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Washington,DC,USA.2004. II-506-II-513.

        8 黃煒,趙險(xiǎn)峰,馮登國(guó),等. 基于主成分分析進(jìn)行特征融合的JPEG隱寫分析. 軟件學(xué)報(bào),2012,23(7):1869-1879.

        9 徐貴力,趙妍,姜斌,等. 基于局部尺度特征描述和改進(jìn)DTW技術(shù)的局部輪廓匹配算法. 電子學(xué)報(bào),2016,44(1):135-142.

        10 陳潔,高志強(qiáng),密保秀,等. 引入極線約束的SURF特征匹配算法. 中國(guó)圖象圖形學(xué)報(bào),2016,21(8):1048-1056. [doi:10.11834/jig.20160809]

        11 任克強(qiáng),胡夢(mèng)云. 基于改進(jìn)SURF算子的彩色圖像配準(zhǔn)算法. 電子測(cè)量與儀器學(xué)報(bào),2016,30(5):748-756.

        12 王海明. 基于稀疏結(jié)構(gòu)和SIFT特征的SAR圖像配準(zhǔn)研究[碩士學(xué)位論文]. 西安:西安電子科技大學(xué),2014.

        13 侯躍恩,李偉光,容愛(ài)瓊,等. 融合背景信息的分塊稀疏表示跟蹤算法. 華南理工大學(xué)學(xué)報(bào)(自然科學(xué)版),2013,41(8):21-27.

        14 Xu ZB,Sun J. Image inpainting by patch propagation using patch sparsity. IEEE Transactions on Image Processing,2010,19(5):1153-1165. [doi:10.1109/TIP.2010.2042098]

        15 李志丹,和紅杰,尹忠科,等. 結(jié)合顏色和梯度信息的稀疏圖像修復(fù)算法. 計(jì)算機(jī)研究與發(fā)展,2014,51(9):2081-2093. [doi:10.7544/issn1000-1239.2014.20130071]

        16 程妮. 一種基于結(jié)構(gòu)稀疏度的圖像塊分類方法. 現(xiàn)代計(jì)算機(jī),2016,(17):71-74. [doi:10.3969/j.issn.1007-1423.2016.17.015]

        17 Hu YT,Lin YY. Progressive feature matching with alternate descriptor selection and correspondence enrichment.Proceedings of 2016 IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas,NV,USA. 2016.346-354.

        猜你喜歡
        特征區(qū)域結(jié)構(gòu)
        《形而上學(xué)》△卷的結(jié)構(gòu)和位置
        如何表達(dá)“特征”
        論結(jié)構(gòu)
        不忠誠(chéng)的四個(gè)特征
        抓住特征巧觀察
        論《日出》的結(jié)構(gòu)
        關(guān)于四色猜想
        分區(qū)域
        基于嚴(yán)重區(qū)域的多PCC點(diǎn)暫降頻次估計(jì)
        創(chuàng)新治理結(jié)構(gòu)促進(jìn)中小企業(yè)持續(xù)成長(zhǎng)
        无码人妻品一区二区三区精99| 少妇下面好爽好紧好湿一区二区| 欧洲女人与公拘交酡视频| 狠狠色噜噜狠狠狠888米奇视频| 成人免费va视频| 亚洲av网站首页在线观看| 久久女人精品天堂av影院麻| 51看片免费视频在观看| 亚洲av无码专区亚洲av桃| 国产精品无套粉嫩白浆在线 | 妺妺窝人体色www聚色窝韩国| 久久精品亚洲熟女九色| 国产精品成人观看视频国产奇米| 欧美日韩精品| 免费看一级a女人自慰免费| 开心激情网,开心五月天| 久久久精品久久久久久96| 亚洲精品无码成人a片| 中文字幕无码日韩欧毛| 国产福利一区二区三区在线观看 | 老太婆性杂交视频| 亚洲高潮喷水无码av电影| 国产av色| 人妻少妇av中文字幕乱码| 色www永久免费视频| 亚洲欧美另类自拍| 精品国产97av一区二区三区| 午夜被窝精品国产亚洲av香蕉| 亚洲色在线v中文字幕| 一区二区韩国福利网站| 精品不卡视频在线网址| 欧美熟妇另类久久久久久不卡 | 极品熟妇大蝴蝶20p| 亚洲视频中文字幕更新| 中文字幕亚洲精品一区二区三区| 无码精品人妻一区二区三区影院| 亚洲一区二区在线视频播放| 白白色视频这里只有精品| 好男人社区影院www| 欧美精品中文| 国产色婷亚洲99精品av网站|