亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        快速特征提取與感知哈希結(jié)合的圖像配準(zhǔn)算法

        2018-04-08 05:47:00姜萬(wàn)里熊正強(qiáng)芮華建
        關(guān)鍵詞:哈希梯度像素

        宋 博,姜萬(wàn)里,孫 濤,熊正強(qiáng),芮華建

        SONG Bo1,JIANG Wanli2,SUN Tao1,XIONG Zhengqiang1,RUI Huajian1

        1.武漢大學(xué) 電子信息學(xué)院,武漢 430072

        2.陸軍軍官學(xué)院,合肥 230031

        1.School of Electronics and Information,Wuhan University,Wuhan 430072,China

        2.Army OfficerAcademy of PLA,Hefei 230031,China

        1 引言

        圖像特征點(diǎn)配準(zhǔn)廣泛應(yīng)用于三維重建、醫(yī)學(xué)制導(dǎo)、圖像拼接等領(lǐng)域中,是計(jì)算機(jī)視覺(jué)領(lǐng)域中基礎(chǔ)而又重要的課題[1-3]。圖像特征點(diǎn)是指能夠有效表達(dá)圖像本質(zhì)的點(diǎn),而圖像特征點(diǎn)匹配是指在圖像中找出有效的匹配點(diǎn)對(duì),進(jìn)而實(shí)現(xiàn)圖像配準(zhǔn)。圖像配準(zhǔn)是圖像處理領(lǐng)域中的一項(xiàng)關(guān)鍵技術(shù),一直以來(lái)很多學(xué)者在此方面做了大量的工作,研究的焦點(diǎn)多集中在匹配的準(zhǔn)確率和實(shí)時(shí)性等方面。

        基于特征的圖像配準(zhǔn)方法是利用圖像的特征信息實(shí)現(xiàn)配準(zhǔn)。例如Harris算法,分別在模板圖像和待配準(zhǔn)圖像上,提取Harris角點(diǎn)信息,然后利用相關(guān)系數(shù)關(guān)系,在待匹配圖像中搜索出相關(guān)性最大的位置,但是這種方法不具有尺度和旋轉(zhuǎn)不變性[4]。2004年,Lowe提出的SIFT(Scale Invariant Feature Transform)算法,通過(guò)引入高斯拉普拉斯算子實(shí)現(xiàn)了特征點(diǎn)的尺度旋轉(zhuǎn)不變性,進(jìn)一步實(shí)現(xiàn)了圖像的自動(dòng)配準(zhǔn),但是因?yàn)樗惴ㄒ闅v整幅圖像求解,相應(yīng)地也增加了運(yùn)算工作量,不能達(dá)到實(shí)時(shí)性的要求[5]。2006年,Bay等[6]在SIFT算法基礎(chǔ)上,提出了SURF(Speeded Up Robust Features)算法,該方法利用Haar小波,計(jì)算特征點(diǎn)的主方向,提高了圖像配準(zhǔn)的速度,但是仍然不能達(dá)到實(shí)時(shí)性的要求。對(duì)于紋理信息豐富的圖像,Rosten等[7-8]研究了實(shí)時(shí)性更強(qiáng)的FAST特征檢測(cè)算法,但是該算法不具備縮放旋轉(zhuǎn)不變性。文獻(xiàn)[9]對(duì)具有代表性的特征準(zhǔn)點(diǎn)算法進(jìn)行了分析,證明了SURF算法是綜合性能最好的算法。2015年,Yang等[10]利用限制SURF算法提高了圖像的匹配速度。Lin等[11]在2015年提出利用全局相似變換進(jìn)行圖像配準(zhǔn),提高了圖像配準(zhǔn)精度,但是在前期特征提取部分仍采用SIFT算法全局處理,沒(méi)有針對(duì)性地改善特征提取過(guò)程中計(jì)算量較大的問(wèn)題,實(shí)時(shí)性不足。雒培磊等[12]基于深度學(xué)習(xí)的方法對(duì)遙感影像進(jìn)行拼接,雖然通過(guò)十字點(diǎn)集的方法提前剔除誤匹配點(diǎn),降低了圖像拼接總時(shí)間,但是配準(zhǔn)過(guò)程的時(shí)間消耗相比SIFT卻略有增加。此外,文獻(xiàn)[13-14]采用GPU、多核并行計(jì)算等硬件加速的方法實(shí)現(xiàn)配準(zhǔn),但是該類方法對(duì)硬件要求較高,存在一定的經(jīng)濟(jì)成本。

        針對(duì)特征點(diǎn)匹配中在耗時(shí)和精度方面的缺陷,本文對(duì)算法進(jìn)行改進(jìn),提出了一種快速圖像配準(zhǔn)方法。先采用高斯拉普拉斯算子構(gòu)建邊緣稀疏矩陣,之后采用耗時(shí)較少的改進(jìn)后的FAST算法進(jìn)行特征點(diǎn)的提取,為了提高算法性能,對(duì)圖像進(jìn)行高斯拉普拉斯加權(quán)從而結(jié)合梯度信息求解。此外,采用感知哈希算法對(duì)匹配對(duì)提純,在此基礎(chǔ)上通過(guò)RANSAC算法得到單應(yīng)性矩陣最優(yōu)參數(shù)后,又依據(jù)仿射不變性建立約束條件對(duì)單應(yīng)形矩陣進(jìn)行校驗(yàn)。實(shí)驗(yàn)表明,本文提出的配準(zhǔn)方法具有良好的性能。

        2 圖像快速配準(zhǔn)算法

        2.1 特征點(diǎn)快速檢測(cè)提取

        2.1.1構(gòu)建邊緣稀疏矩陣

        傳統(tǒng)的特征檢測(cè)是對(duì)整幅圖像進(jìn)行遍歷計(jì)算,計(jì)算量是m×n(m是圖像的高度,n是圖像的寬度),會(huì)產(chǎn)生大量的特征信息,從而影響圖像/視頻幀的匹配時(shí)間。圖像的邊緣包含了圖像的大部分信息,通過(guò)高斯拉普拉斯算子(Laplacian of Gaussian,LoG)檢測(cè)出圖像的邊緣區(qū)域,然后在邊緣區(qū)域上進(jìn)行特征點(diǎn)檢測(cè)能夠極大程度上增加檢測(cè)特征點(diǎn)的穩(wěn)定性,同時(shí)可以大大降低計(jì)算量。另一方面,圖像特征的質(zhì)量,影響著圖像的匹配準(zhǔn)確率,好的特征點(diǎn)應(yīng)該具有好的魯棒性。特征點(diǎn)一般位于一階導(dǎo)數(shù)極大值點(diǎn),轉(zhuǎn)換為二階導(dǎo)數(shù),也就是位于二階導(dǎo)數(shù)為零的點(diǎn)。一般直接求一階導(dǎo)數(shù)的極大值比較復(fù)雜,而通過(guò)求解二階導(dǎo)數(shù)為零的點(diǎn),可以減少計(jì)算量,節(jié)省耗時(shí)。

        本文采用LoG算子來(lái)計(jì)算局部特征,它是一種二階導(dǎo)數(shù)算子,具有各向同性的邊緣檢測(cè)算子,能對(duì)任何方向的線條進(jìn)行銳化,且不具有方向性,這是高斯拉普拉斯算子最大的優(yōu)點(diǎn)。對(duì)于函數(shù) f(x,y),在點(diǎn)(x,y)處的拉普拉斯算子如公式(1)所示:

        在實(shí)際圖像邊緣檢測(cè)中,采用如式(2)所示高斯拉普拉斯算子模板M計(jì)算梯度值,模板的中心系數(shù)為正數(shù),其余的系數(shù)為負(fù),所有模板的系數(shù)之和為零。

        通過(guò)高斯拉普拉斯算子求得圖像的梯度信息之后,邊緣圖像中仍然存在著一些梯度值較小的像素點(diǎn)以及因噪聲等因素存在的梯度值較大的像素點(diǎn)。這些信息對(duì)于特征點(diǎn)的提取會(huì)造成干擾,同時(shí)導(dǎo)致提取到的特征點(diǎn)數(shù)量過(guò)多,影響效率。因此,實(shí)際中需要設(shè)置適當(dāng)?shù)奶荻乳撝颠M(jìn)行過(guò)濾,提取邊緣稀疏矩陣。

        如圖1顯示了實(shí)際過(guò)程梯度閾值的設(shè)置流程。首先,根據(jù)潛在邊緣點(diǎn)的梯度分布直方圖得到梯度幅值的遞增排列,初始值選取遞增方向達(dá)到總數(shù)80%的邊緣點(diǎn)對(duì)應(yīng)的梯度值為高閾值TGmax,低閾值TGmin為高閾值的一半。然后,根據(jù)邊緣點(diǎn)像素個(gè)數(shù)占總像素比例對(duì)稀疏度進(jìn)行判斷,本文中設(shè)置判斷參考范圍為3%~10%。若未滿足要求,則根據(jù)浮動(dòng)閾值ΔT進(jìn)行微調(diào)。實(shí)驗(yàn)中,大多數(shù)情況下使用初始閾值便可達(dá)到稀疏度要求,甚至有些情況直接得到的邊緣矩陣已經(jīng)滿足稀疏度條件。

        圖1 梯度閾值設(shè)置示意圖

        通過(guò)邊緣稀疏矩陣提取對(duì)應(yīng)的像素信息,剔除了部分弱邊緣的像素點(diǎn),減少了噪聲的干擾,同時(shí)保留了大部分邊緣信息。對(duì)于紋理較平坦的圖像,因稀疏度判斷并不會(huì)丟失主要信息;對(duì)于紋理豐富的圖像,剔除了部分邊緣,從而減少計(jì)算量,盡管存在部分特征點(diǎn)的丟失,但圖像配準(zhǔn)過(guò)程中理論上只需要四對(duì)準(zhǔn)確的匹配點(diǎn)對(duì),就可以獲得準(zhǔn)確的單應(yīng)性矩陣,在實(shí)驗(yàn)過(guò)程中,保留的邊緣信息中存在足夠的準(zhǔn)確的匹配點(diǎn)對(duì)。

        2.1.2優(yōu)化的FAST特征點(diǎn)檢測(cè)

        FAST是一種角點(diǎn)檢測(cè)方法,該方法最早是由Edward Rosten和Tom Drummond提出的,該方法最明顯的優(yōu)點(diǎn)是它高效的計(jì)算速度。

        如圖2所示,F(xiàn)AST特征點(diǎn)檢測(cè)的方法是在以P像素為中心的圓周上按順時(shí)針?lè)较驈?到16的順序?qū)A周像素點(diǎn)進(jìn)行編號(hào)。根據(jù)式(3)所示,如果在圓周上有N個(gè)連續(xù)的像素的亮度都比圓心像素的亮度lp加上閾值th還要亮,或者比圓心像素的亮度lp減去閾值th還要暗,則圓心像素被稱為候選特征點(diǎn)[15]。

        圖2 FAST特征點(diǎn)檢測(cè)示意圖

        目前使用FAST算法可以通過(guò)先檢測(cè)非特征點(diǎn)的像素點(diǎn)來(lái)提高檢測(cè)速度,但是FAST特征點(diǎn)檢測(cè)算法只考慮了中心像素與圓周上的像素的關(guān)系,這導(dǎo)致該方法僅對(duì)圓周邊緣區(qū)域進(jìn)行特征點(diǎn)檢測(cè),并沒(méi)有結(jié)合圓周內(nèi)部像素點(diǎn)的信息,導(dǎo)致檢測(cè)的特征點(diǎn)較少以及誤檢測(cè)現(xiàn)象發(fā)生。在已通過(guò)LoG算子求得梯度信息之后,如式(4)所示,考慮將需要檢測(cè)的圓心像素I0(x,y)的鄰域(圓周內(nèi)部像素)的梯度信息加權(quán)融合至圓心像素以在保持FAST算法穩(wěn)定性的基礎(chǔ)上增加檢測(cè)特征點(diǎn)的數(shù)目。

        在式(5)的基礎(chǔ)上,使用FAST特征點(diǎn)檢測(cè)算法對(duì)特征點(diǎn)進(jìn)行提取,當(dāng)α?LoG?I(x,y)>0時(shí),則說(shuō)明該待檢測(cè)點(diǎn)是較亮點(diǎn),通過(guò)梯度加權(quán)值變小,則增加了該點(diǎn)比圓周上N個(gè)連續(xù)的像素點(diǎn)都亮的可能性;當(dāng)α?LoG?I(x,y)<0時(shí),說(shuō)明該待檢測(cè)點(diǎn)是較暗點(diǎn),通過(guò)梯度的加權(quán),值變小,則增加了該點(diǎn)比圓周上N個(gè)連續(xù)的像素點(diǎn)都暗的可能性。通過(guò)在檢測(cè)過(guò)程中加入梯度信息,從而調(diào)節(jié)了FAST特征點(diǎn)判斷的閾值范圍,相當(dāng)于利用梯度信息對(duì)候選特征點(diǎn)進(jìn)一步篩選,使得對(duì)圖像中存在的陰影、噪聲、亮度變化等具有更強(qiáng)的適應(yīng)能力,可以增加特征點(diǎn)檢測(cè)數(shù)目,使特征點(diǎn)提取更加穩(wěn)定。

        2.2 誤匹配對(duì)剔除

        2.2.1感知哈希算法優(yōu)化匹配對(duì)

        特征點(diǎn)匹配的好壞直接影響圖像配準(zhǔn)的結(jié)果,而特征點(diǎn)匹配因閾值、噪聲等原因總會(huì)存在誤匹配點(diǎn)。在計(jì)算變換參數(shù)之前移除誤匹配點(diǎn),能夠提高配準(zhǔn)精度,同時(shí)降低計(jì)算復(fù)雜度。本文提出使用均值感知哈希方法[16]提純匹配點(diǎn)對(duì),該方法以匹配點(diǎn)對(duì)為中心,以特征點(diǎn)的主方向?yàn)樗椒较?,提取一定大小的圖像塊計(jì)算得到該特征點(diǎn)的哈希指紋,通過(guò)匹配點(diǎn)對(duì)哈希指紋的對(duì)比驗(yàn)證來(lái)判斷該匹配點(diǎn)對(duì)是否正確匹配。

        均值感知哈希利用圖像的低頻信息計(jì)算哈希指紋,相比其他感知哈希算法[17]具有較快的運(yùn)行速度,通過(guò)比較兩幅圖的哈希指紋就可以判斷兩幅圖像是否相似[18]。哈希指紋一般是在8×8圖像大小尺寸下獲得的0、1哈希值組合,通過(guò)計(jì)算比較相同位置哈希值不同的個(gè)數(shù),如果不同的個(gè)數(shù)為0,則這兩張圖片非常相似,如果這兩張圖片的哈希距離的不同個(gè)數(shù)小于5,則這兩幅圖像相似,否則認(rèn)為這兩幅圖像差別很大,不相似。

        在獲得匹配對(duì)之后,對(duì)于準(zhǔn)確的匹配點(diǎn)對(duì),其所處圖像區(qū)域也是相似的;對(duì)于錯(cuò)誤的匹配點(diǎn)對(duì),其所處圖像區(qū)域是有差異的[19]。根據(jù)這一特性,結(jié)合感知哈希算法對(duì)匹配對(duì)進(jìn)行校驗(yàn),剔除錯(cuò)誤的匹配對(duì),具體的算法流程如下。

        步驟1選取特征點(diǎn)鄰域尺寸:以特征點(diǎn)的主方向?yàn)榇怪狈较颍缓笠酝ㄟ^(guò)FAST提取的特征點(diǎn)為中心,因?yàn)樘卣鼽c(diǎn)距圓周邊緣的最小尺寸為3,為了更好地保留邊緣特征點(diǎn),所以選取7×7的正方形作為感知哈希校驗(yàn)區(qū)域。

        步驟2簡(jiǎn)化色彩:將步驟1中獲得7×7圖像轉(zhuǎn)換為7×7灰度圖像。

        步驟3計(jì)算像素灰度平均值:計(jì)算步驟2中得到的7×7灰度圖像的49個(gè)像素的灰度平均值。

        步驟4比較像素灰度值:將步驟2得到的7×7灰度圖像的每個(gè)像素與步驟3中得到的7×7灰度圖像的灰度平均值進(jìn)行比較,大于平均值的記為1,小于平均值的記為0。

        步驟5計(jì)算哈希值:將步驟4中得到的49個(gè)0、1按固定的順序組合起來(lái),這樣就得到了該以特征點(diǎn)為中心的哈希指紋。

        步驟6匹配點(diǎn)提純:通過(guò)比較步驟5中獲得的哈希指紋,統(tǒng)計(jì)49個(gè)相同位置的值的不同的個(gè)數(shù),如果不同的個(gè)數(shù)小于5,則認(rèn)為這對(duì)匹配點(diǎn)對(duì)是正確匹配的,否則不是正確的匹配點(diǎn)對(duì)。

        如圖3(a)所示,在SURF描述符下使用FAST算法得到的匹配點(diǎn)對(duì),此時(shí)未使用感知哈希驗(yàn)證,可以看到圖中存在數(shù)對(duì)誤匹配對(duì)。圖3(b)為按照上述誤匹配剔除算法對(duì)圖3(a)中匹配點(diǎn)對(duì)進(jìn)行提純,可以看到圖3(a)中原來(lái)存在的誤匹配對(duì)已全部被剔除。

        圖3 圖像匹配點(diǎn)對(duì)感知哈希算法驗(yàn)證前后對(duì)比

        在對(duì)匹配對(duì)進(jìn)行提純之后,使用RANSAC算法來(lái)進(jìn)行迭代尋找最佳的單應(yīng)性矩陣。因?yàn)榻?jīng)過(guò)一次提純,剔除了錯(cuò)誤的匹配對(duì),減少了樣本數(shù)據(jù)集中的無(wú)效數(shù)據(jù),使得在匹配點(diǎn)數(shù)據(jù)集中迭代尋找最優(yōu)參數(shù)矩陣更加高效。

        2.2.2單應(yīng)性矩陣準(zhǔn)確性校驗(yàn)

        在視頻圖像匹配中,經(jīng)過(guò)前述步驟并不能判斷圖像是否正確匹配。Lin等[20]曾在2016年利用改進(jìn)的Seamdriven并且加入了曲線和直線結(jié)構(gòu)保持約束,進(jìn)一步提高了圖像配準(zhǔn)精度。本文根據(jù)圖像的仿射變換的特性,提出了相應(yīng)的約束條件進(jìn)行校驗(yàn),進(jìn)而去除干擾圖像。

        平面圖像的仿射變換應(yīng)具有以下特性:共線線段單比不變性、直線的平行性[21]。已知四點(diǎn) Pi(xi,yi)(i=1,2,3,4),且其中直線P1P2與直線P3P4平行,那么經(jīng)過(guò)仿射變換后

        由直線的平行性可得:

        因直線P1P2與直線P3P4平行,故經(jīng)過(guò)仿射變換后理論上也是平行的,但是在實(shí)際中總會(huì)存在一定誤差,式(6)中β是變換后兩平行線斜率差的閾值。

        由共線線段單比不變性可得:

        通過(guò)式(6)、(7)所示約束條件,對(duì)所得單應(yīng)性矩陣準(zhǔn)確性進(jìn)行校驗(yàn),不滿足閾值約束條件的結(jié)果被判定為錯(cuò)誤的配準(zhǔn)結(jié)果。

        3 實(shí)驗(yàn)分析

        實(shí)驗(yàn)平臺(tái)硬件環(huán)境:Intel?Core? i5 2.50 GHz CPU,4 GB RAM;軟件環(huán)境:Windows 7旗艦版系統(tǒng),Microsoft Visual Studio 2010,Visual C++,Open_CV_VERSION 2.4.8。默認(rèn)采用的梯度閾值TGmin=20,TGmax=40,F(xiàn)AST特征點(diǎn)選取閾值th=30,仿射不變性閾值β=γ=0.2,拉普拉斯加權(quán)系數(shù)α=0.075,漢明閾值為2倍的最小距離。在實(shí)際不同的場(chǎng)景中,提取的特征點(diǎn)數(shù)量存在差異,實(shí)驗(yàn)中特征點(diǎn)的提取數(shù)量范圍設(shè)定為80~120。

        (1)仿射不變性校驗(yàn)

        為驗(yàn)證本文所提仿射不變性約束條件在匹配過(guò)程中的有效性,對(duì)不同算法在匹配圖像中存在和不存在目標(biāo)物體(課本)情況下的匹配結(jié)果進(jìn)行對(duì)比分析。

        如圖4所示,第一行是SIFT算法處理結(jié)果,第二行是SURF算法處理結(jié)果,第三行是ORB算法處理結(jié)果,第四行是本文算法處理結(jié)果。第一列是SIFT、SURF、ORB和本文算法分別對(duì)含有目標(biāo)物體(課本)圖像匹配的結(jié)果,可以看出都能很好地匹配到目標(biāo),SIFT和SURF算法匹配到的特征點(diǎn)較多,但存在的誤匹配對(duì)也較多,ORB和本文算法匹配對(duì)較少;第二列匹配圖像中不存在目標(biāo)物體情況下四種算法的匹配結(jié)果,可以看到SIFT、SURF、ORB方法均匹配到了大量的匹配點(diǎn)對(duì),本文算法也存在少量的匹配對(duì),但是實(shí)際并不存在目標(biāo)。第三列圖像為四種方法在第二列圖像匹配基礎(chǔ)上標(biāo)記出的匹配結(jié)果,可以看到只有本文算法最終未標(biāo)記出目標(biāo)物體匹配結(jié)果,這是因?yàn)楸疚乃惴ɡ脠D像變換的仿射不變性,對(duì)匹配結(jié)果進(jìn)行判斷處理后的結(jié)果,可以看出,算法能夠在不存在目標(biāo)時(shí),很好地糾正誤匹配結(jié)果。

        圖4 匹配圖像中存在和不存在目標(biāo)物狀態(tài)下SIFT、SURF、ORB及本文算法的特征點(diǎn)匹配結(jié)果

        (2)縮放、旋轉(zhuǎn)和噪聲匹配性能分析

        為檢驗(yàn)本文算法的縮放、旋轉(zhuǎn)和噪聲匹配性能,選擇標(biāo)準(zhǔn)Lena圖像(512×512)為參考圖像,以存在縮放旋轉(zhuǎn)的高斯噪聲Lena圖像為待匹配圖像,其獲取方法為:對(duì)標(biāo)準(zhǔn)Lena圖像,加高斯白噪聲,然后對(duì)圖像進(jìn)行橫向4/5,縱向6/5的縮放,然后順時(shí)針旋轉(zhuǎn)35°。將本文算法與SIFT、SURF、ORB算法進(jìn)行匹配性能比較。實(shí)際實(shí)驗(yàn)過(guò)程中,避免匹配過(guò)程特征點(diǎn)數(shù)過(guò)多,對(duì)圖像進(jìn)行一次下采樣處理,以便后續(xù)計(jì)算。另外,SIFT、SURF、ORB算法匹配對(duì)提取最優(yōu)匹配點(diǎn)時(shí)采用的漢明距離閾值是2.5倍的最小距離。

        圖5為在前述縮放、旋轉(zhuǎn)和噪聲情況下,幾種算法的特征點(diǎn)匹配結(jié)果對(duì)比。圖5(a)為SIFT算法匹配結(jié)果,41個(gè)匹配對(duì)中有3對(duì)誤匹配,誤匹配率約為7.32%;圖5(b)為SURF算法匹配結(jié)果,32個(gè)匹配對(duì)中,有16對(duì)誤匹配,誤匹配率為50%;圖5(c)為ORB算法匹配結(jié)果,31個(gè)匹配對(duì)中,有1個(gè)誤匹配對(duì),誤匹配率約為3.23%;圖5(d)為本文算法匹配結(jié)果,在32個(gè)匹配對(duì)中,有4對(duì)誤匹配,誤匹配率約為12.5%。從仿真實(shí)驗(yàn)結(jié)果來(lái)看,在圖像存在噪聲、縮放和旋轉(zhuǎn)的情況下,ORB、SIFT和本文算法都表現(xiàn)出很強(qiáng)的魯棒性,SURF性能最差。

        如圖6所示,使用所提算法對(duì)不同場(chǎng)景下實(shí)際拍攝圖像進(jìn)行實(shí)驗(yàn)驗(yàn)證結(jié)果,圖像中方框標(biāo)記出為匹配出的目標(biāo)物體(課本)。第一行為待匹配圖像由大到小情況下的縮放匹配結(jié)果;第二行為待匹配圖像在不同旋轉(zhuǎn)角度情況下的匹配結(jié)果;第三行是待匹配圖像不同投影變換下的匹配結(jié)果;第四行為待匹配圖像在被部分遮擋情況下的匹配結(jié)果;第五行為待匹配圖像在光照條件從暗至亮發(fā)生變化情況下的匹配結(jié)果。從實(shí)驗(yàn)結(jié)果中可以看出本文算法在圖像存在一定縮放、旋轉(zhuǎn)、投影變換、遮擋和光照變化的情況下,都能夠很好地實(shí)現(xiàn)圖像的匹配,具有很好的魯棒性,而且在經(jīng)過(guò)感知哈希與仿射不變性的進(jìn)一步校驗(yàn)之后,具有很少的誤判斷。

        圖5 本文算法與經(jīng)典算法Lena圖像特征點(diǎn)匹配結(jié)果對(duì)比

        圖6 不同場(chǎng)景下實(shí)拍圖像本文算法特征點(diǎn)匹配結(jié)果

        (3)運(yùn)行效率分析

        為檢驗(yàn)算法的運(yùn)行效率,選擇標(biāo)準(zhǔn)Lena圖像(512×512)進(jìn)行特征描述仿真實(shí)驗(yàn),將本文算法結(jié)果與SIFT、SURF、ORB算法結(jié)果進(jìn)行對(duì)比分析。得到四種算法的特征點(diǎn)提取具體耗時(shí)如表1所示,表中時(shí)間均為連續(xù)處理10次之后的平均值。

        由表1中對(duì)單個(gè)特征點(diǎn)描述所用時(shí)間的平均值可知,本文算法速度最快,約是SIFT算法耗時(shí)的1/160,約是SURF算法耗時(shí)的1/75,約是ORB算法的1/14。從總耗時(shí)來(lái)看ORB算法耗時(shí)最短,主要原因是本文算法為解決FAST算法下某些特征點(diǎn)難以提取的問(wèn)題,利用高斯拉普拉斯算子加權(quán)從而增加了FAST算法檢測(cè)的特征點(diǎn)數(shù)。

        表1 本文算法與經(jīng)典算法性能比較

        如圖7為一段視頻序列圖像中沒(méi)有目標(biāo)、出現(xiàn)目標(biāo)、目標(biāo)消失過(guò)程中本文方法連續(xù)運(yùn)行耗時(shí)曲線。兩條垂直標(biāo)記線分別表示目標(biāo)49幀開(kāi)始出現(xiàn)及97幀目標(biāo)消失,標(biāo)記線之間表示在目標(biāo)出現(xiàn)在視頻期間利用本文算法對(duì)目標(biāo)進(jìn)行匹配的耗時(shí),其他區(qū)間為無(wú)目標(biāo)時(shí)處理耗時(shí)。在49~97幀出現(xiàn)目標(biāo)時(shí),單幀處理最大耗時(shí)為50 ms,而整個(gè)區(qū)間變化穩(wěn)定在30~40 ms,在無(wú)目標(biāo)匹配過(guò)程中,單幀處理耗時(shí)基本穩(wěn)定在20~30 ms。在曲線中出現(xiàn)峰值,產(chǎn)生的原因可能有兩個(gè):(1)視頻中出現(xiàn)噪聲,造成圖像稀疏矩陣中非零個(gè)數(shù)增加,增加了計(jì)算量;(2)可能是算法中梯度閾值、FAST特征閾值的更新或高斯拉普拉斯算子的加權(quán)系數(shù)的更新,增加了計(jì)算量。但是總體上看,本文算法的處理速度整體小于50 ms/幀,具有良好的實(shí)時(shí)性以及魯棒性。

        圖7 視頻序列圖像匹配耗時(shí)變化曲線

        (4)圖像配準(zhǔn)結(jié)果分析

        為驗(yàn)證本文算法整體性能,對(duì)無(wú)人機(jī)航拍得到的實(shí)際序列圖像進(jìn)行了實(shí)驗(yàn)驗(yàn)證,其中,無(wú)人機(jī)航拍序列圖像第60幀和96幀配準(zhǔn)結(jié)果如圖8所示。在圖8中,暗度較低的部分是第60幀圖像經(jīng)過(guò)降低亮度顯示的結(jié)果,亮度較高的是第96幀圖像,這樣處理是為了方便對(duì)圖像的配準(zhǔn)結(jié)果進(jìn)行分析比較,圖中箭頭標(biāo)記序號(hào)為配準(zhǔn)結(jié)果比對(duì)位置。圖8(a)是利用SIFT算法進(jìn)行配準(zhǔn)的結(jié)果,可以看出利用SIFT算法進(jìn)行配準(zhǔn)的結(jié)果在1和2處的線性區(qū)域具有一定的錯(cuò)位,在3處房子明顯出現(xiàn)了錯(cuò)位。圖8(b)是利用SURF算法進(jìn)行配準(zhǔn)的結(jié)果,可以看出SURF算法在1處具有較好的配準(zhǔn)效果,在2處公路的行車線則出現(xiàn)錯(cuò)位,在3處出現(xiàn)了明顯的錯(cuò)位,4處甚至都出現(xiàn)明顯的誤配準(zhǔn)。圖8(c)是利用本文算法進(jìn)行配準(zhǔn)的結(jié)果,可以看出本文算法最終在3處配準(zhǔn)比對(duì)位置的配準(zhǔn)結(jié)果都具有較好的直觀效果,沒(méi)有出現(xiàn)因誤匹配導(dǎo)致的變形和錯(cuò)位現(xiàn)象。實(shí)驗(yàn)結(jié)果表明,本文提出的算法在配準(zhǔn)精度上要優(yōu)于SIFT和SURF算法。

        圖8 本文算法與SIFT、SURF算法圖像配準(zhǔn)結(jié)果對(duì)比

        4 結(jié)束語(yǔ)

        針對(duì)經(jīng)典的特征點(diǎn)算法是從整個(gè)圖像進(jìn)行遍歷來(lái)確定特征點(diǎn)的問(wèn)題,本文提出了一種先建立圖像邊緣稀疏矩陣,在其基礎(chǔ)上利用改進(jìn)的FAST算法快速提取特征點(diǎn),再通過(guò)SURF描述符為特征點(diǎn)構(gòu)建描述向量。獲得匹配點(diǎn)對(duì)后,利用均值感知哈希算法對(duì)匹配點(diǎn)對(duì)提純,之后再使用RANSAC算法尋找最優(yōu)參數(shù)矩陣,并結(jié)合仿射不變性對(duì)單應(yīng)性矩陣進(jìn)行校驗(yàn),提高圖像配準(zhǔn)準(zhǔn)確度。實(shí)驗(yàn)結(jié)果表明,本文算法具有很好的配準(zhǔn)精確性、時(shí)效性以及魯棒性。

        參考文獻(xiàn):

        [1]Burger W,Burge M J.Digital image processing:An algorithmic introduction using Java[M].Berlin:Springer,2016.

        [2]Oliveira F P M,Tavares J M R S.Medical image regis-tration:A review[J].Computer Methods in Biomechanics and Biomedical Engineering,2014,17(2):73-93.

        [3]Adel E,Elmogy M,Elbakry H.Image stitching based on feature extraction techniques:A survey[J].International Journal of Computer Applications,2014,99(6):1-8.

        [4]Harris C.A combined corner and edge detector[C]//Proc of Alvey Vision Conf,1988:147-151.

        [5]Lowe D G.Distinctive image features from scale-invariant keypoints[C]//International Journal of Computer Vision,2004,60(2):91-110.

        [6]Bay H,Tuytelaars T,Van Gool L.Surf:Speeded up robust features[C]/Proceedings of European Conference on Computer Vision(ECCV 2006),2006:404-417.

        [7]Rosten E,Drummond T.Machine Learning for High-Speed Corner Detection[C]//Proceedings of European Conference on Computer Vision,2006:430-443.

        [8]Rosten E,Porter R,Drummond T.Faster and better:A machine learning approach to corner detection[J].IEEE Transactions on Pattern Analysis&Machine Intelligence,2010,32:105-119.

        [9]Mikolajczyk K,Schmid C.A performance evaluation of local descriptors[J].IEEE Trans on Pattern Aralysis&Machine Intelligence,2005,27(10):1615-1630.

        [10]Yang K.Missile placement analysis based on improved SURF feature matching algorithm[C]//Proceedings of International Conference on Graphic and Image Processing,2015.

        [11]Lin C C,Pankanti S U,Ramamurthy K N,et al.Adaptive as-natural-as-possible image stitching[C]//Proceedings of International Conference on Computer Vision and Pattern Recognition,2015:1155-1163.

        [12]雒培磊,李國(guó)慶,曾怡.一種改進(jìn)的基于深度學(xué)習(xí)的遙感影像拼接方法[J].計(jì)算機(jī)工程與應(yīng)用,2017,53(20):180-186.

        [13]Daga P,Chadebecq F,Shakir D C S,et al.Real-time mosaicing of fetoscopic videos using SIFT[C]//Proceedings of SPIE Medical Imaging,2016.

        [14]曹國(guó)剛,張晴,張培君,等.基于多核并行化差異進(jìn)化算法的圖像配準(zhǔn)方法[J].計(jì)算機(jī)工程與應(yīng)用,2017,53(20):166-172.

        [15]安維勝,余讓明,伍玉鈴.基于FAST和SURF的圖像配準(zhǔn)算法[J].計(jì)算機(jī)工程,2015,41(10):232-235.

        [16]Haviana S F C,Kurniadi D.Average hashing for perceptual image similarity in mobile phone application[J].Journal of Telematics and Informatics,2016,4(1):12-18.

        [17]Niu X M,Jiao Y H.Overview of perceptual hashing[J].Acta Electronica Sinica,2008,36(7):1405-1411.

        [18]丁凱孟,朱長(zhǎng)青,盧付強(qiáng).基于自適應(yīng)格網(wǎng)劃分的遙感影像感知哈希認(rèn)證算法[J].武漢大學(xué)學(xué)報(bào):信息科學(xué)版,2015,40(6):716-720.

        [19]Jaewook J,Gunho S,Bang K,et al.Matching aerial images to 3D building models using context-based geometric hashing[J].Sensors,2016,16(6):932.

        [20]Lin K,Jiang N,Cheong L F,et al.SEAGULL:Seamguidedlocalalignmentforparallax-tolerantimage stitching[C]//ProceedingsofEuropeanConferenceon Computer Vision(ECCV 2016),2016.

        [21]Demir B,Bruzzone L.Hashing-based scalable remote sensing image search and retrieval in large archives[J].IEEE Transactions on Geoscience&Remote Sensing,2016,54(2):892-904.

        猜你喜歡
        哈希梯度像素
        趙運(yùn)哲作品
        藝術(shù)家(2023年8期)2023-11-02 02:05:28
        像素前線之“幻影”2000
        一個(gè)改進(jìn)的WYL型三項(xiàng)共軛梯度法
        一種自適應(yīng)Dai-Liao共軛梯度法
        “像素”仙人掌
        一類扭積形式的梯度近Ricci孤立子
        基于OpenCV與均值哈希算法的人臉相似識(shí)別系統(tǒng)
        高像素不是全部
        CHIP新電腦(2016年3期)2016-03-10 14:22:03
        基于維度分解的哈希多維快速流分類算法
        基于同態(tài)哈希函數(shù)的云數(shù)據(jù)完整性驗(yàn)證算法
        日本一区二区三区看片| 真实单亲乱l仑对白视频| 亚洲视频在线看| 久久综合一本中文字幕| 免费精品人妻一区二区三区| 日韩日韩日韩日韩日韩日韩| 躁躁躁日日躁| 亚洲日日噜噜噜夜夜爽爽| 国产一区二区三区免费视| 97色偷偷色噜噜狠狠爱网站| 亚洲不卡中文字幕无码| 精品高清国产乱子伦| 亚洲av产在线精品亚洲第三站| 亚洲成av人在线播放无码| 豆国产95在线 | 亚洲| 免费国产在线精品三区| 国产自拍成人免费视频| 人妻无码一区二区视频| 综合色久七七综合尤物| 日本高清一区二区三区在线| 亚洲精品无码不卡| a级国产乱理论片在线观看| A亚洲VA欧美VA国产综合| 最新69国产精品视频| 人妻丰满熟妇无码区免费| 国产一区二区波多野结衣| 国产精品亚洲一区二区三区正片 | 日本成人一区二区三区| 国产一区二区三区涩涩涩| 国产欧美在线观看不卡| 久久精品人人做人人爽| 欧美亚洲另类自拍偷在线拍| 91成人国产九色在线观看| 北条麻妃国产九九九精品视频 | 色yeye免费视频免费看| 日本在线观看一区二区视频| 最美女人体内射精一区二区| 日日鲁鲁鲁夜夜爽爽狠狠视频97| 久久久久亚洲AV无码去区首| 亚洲一区二区三区地址| 熟女少妇在线视频播放|