亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        結(jié)合FAST-SURF和改進(jìn)k-d樹(shù)最近鄰查找的圖像配準(zhǔn)

        2016-08-05 08:49:33陳劍虹韓小珍
        關(guān)鍵詞:特征區(qū)域檢測(cè)

        陳劍虹, 韓小珍

        (西安理工大學(xué) 機(jī)械與精密儀器工程學(xué)院,陜西 西安 710048)

        ?

        結(jié)合FAST-SURF和改進(jìn)k-d樹(shù)最近鄰查找的圖像配準(zhǔn)

        陳劍虹, 韓小珍

        (西安理工大學(xué) 機(jī)械與精密儀器工程學(xué)院,陜西 西安 710048)

        針對(duì)兩圖像之間存在平移和旋轉(zhuǎn)變化的圖像匹配,提出了一種結(jié)合FAST-SURF和改進(jìn)k-d樹(shù)最近鄰查找的圖像配準(zhǔn)算法。該算法首先用FAST(加速分割檢測(cè)特征)檢測(cè)器進(jìn)行特征點(diǎn)提取,然后根據(jù)特征點(diǎn)周?chē)徲虻男畔⑸蒘URF(快速魯棒特征)描述子,采用一種改進(jìn)的k-d樹(shù)最近鄰查找算法BBF(最優(yōu)節(jié)點(diǎn)優(yōu)先)尋找特征點(diǎn)的最近鄰點(diǎn)及次近鄰點(diǎn),接著進(jìn)行雙向匹配得到初匹配點(diǎn)對(duì),最后利用RANSAC(隨機(jī)抽樣一致性)算法消除誤匹配點(diǎn),findHomography函數(shù)尋找單應(yīng)性變化矩陣,從而計(jì)算出圖像間的相對(duì)平移量和旋轉(zhuǎn)量。實(shí)驗(yàn)結(jié)果表明,該算法平移參數(shù)的最大誤差為0.022個(gè)像素,旋轉(zhuǎn)參數(shù)的最大誤差為0.045度,優(yōu)于傳統(tǒng)的SURF圖像匹配算法,實(shí)現(xiàn)了圖像的快速、高精度配準(zhǔn)。

        圖像匹配; FAST-SURF算法; BBF; 雙向匹配; RANSAC

        圖像匹配是常見(jiàn)的一種圖像處理技術(shù),它是將處于不同傳感器、不同時(shí)刻、或者不同條件下的兩幅圖像進(jìn)行對(duì)準(zhǔn)的過(guò)程,用以找到兩幅圖像間的平移及旋轉(zhuǎn)關(guān)系,廣泛用于遙感圖像分析、工業(yè)檢測(cè)、圖像融合等領(lǐng)域[1]。在很多應(yīng)用場(chǎng)景中,例如遙感圖像配準(zhǔn)、圖像測(cè)量等領(lǐng)域,對(duì)圖像配準(zhǔn)精度有較高要求。

        圖像匹配算法一般有基于灰度值的匹配和基于特征的匹配[2]兩大類(lèi)。前者是根據(jù)圖像間像素點(diǎn)的灰度值來(lái)進(jìn)行相似性比較的一種算法,該算法計(jì)算量相對(duì)較大,需要逐像素進(jìn)行比較,匹配精度高,適用于圖像間存在平移變換的圖像匹配。后者是先提取特征點(diǎn),然后采用一定的方法生成描述向量,最后實(shí)現(xiàn)特征配準(zhǔn)的一種算法。該算法優(yōu)點(diǎn)是匹配速度快,抗噪聲能力強(qiáng),而且對(duì)仿射變換、光照等都有比較強(qiáng)的魯棒性。典型的特征點(diǎn)提取算法主要有Moravec、SUSAN[3]、Harris[4]、SIFT[5-6](Scale-invariant Feature Transform) 以及SURF (Speeded Up Robust Feature) 算子等。其中,使用較多的有Harris、SIFT和SURF算子。Lowe[7]等人提出的SIFT算法在噪聲、仿射變換等方面都具備非常好的匹配能力,尤其是在抗旋轉(zhuǎn)方面,但SIFT算法在計(jì)算的過(guò)程中會(huì)產(chǎn)生大量的描述符,從而引起計(jì)算量大、運(yùn)行時(shí)間長(zhǎng)的問(wèn)題。Bay等人在2006年提出了SURF算法[8],該算法在匹配的過(guò)程中引入了積分圖像,從而使其匹配速度遠(yuǎn)遠(yuǎn)超過(guò)了SIFT算法,然而此類(lèi)關(guān)鍵點(diǎn)特征運(yùn)算量還是過(guò)于龐大,檢測(cè)的特征點(diǎn)數(shù)目過(guò)少,導(dǎo)致獲得的匹配點(diǎn)數(shù)量少,降低了匹配的效率。Rosten等人提出了一種快速、有效的FAST特征點(diǎn)檢測(cè)算法[9],該算法既減少了檢測(cè)時(shí)間,又進(jìn)一步提取了圖像細(xì)節(jié)處的特征點(diǎn),提高了匹配精度。

        因此,筆者提出了一種結(jié)合FAST-SURF和改進(jìn)的k-d樹(shù)最近鄰查找的圖像配準(zhǔn)算法,該算法用FAST檢測(cè)器對(duì)特征點(diǎn)進(jìn)行提取,同時(shí)結(jié)合了SURF特征描述子,并用BBF算法進(jìn)行查找,然后利用雙向匹配算法獲取初匹配點(diǎn)對(duì),實(shí)現(xiàn)了對(duì)傳統(tǒng)單向匹配算法的改進(jìn),最后使用RANSAC實(shí)現(xiàn)精確匹配,計(jì)算得出變化參數(shù)。實(shí)驗(yàn)仿真結(jié)果表明,本文算法對(duì)于圖像間存在平移、旋轉(zhuǎn)變化有非常好的配準(zhǔn)效果。

        1 算法介紹

        由于FAST算法在檢測(cè)特征點(diǎn)方面具有快速和穩(wěn)定的特性,可用它來(lái)進(jìn)行角點(diǎn)的檢測(cè)。本文基于FAST的特征檢測(cè)來(lái)取代基于SURF特征檢測(cè),提高了提取速度,同時(shí)與SURF描述子相結(jié)合,使特征點(diǎn)具有抗旋轉(zhuǎn)特性。

        在特征匹配過(guò)程中,采用BBF算法實(shí)現(xiàn)最近鄰查找,然后用雙向匹配算法得到初匹配點(diǎn)對(duì),最后使用RANSAC算法實(shí)現(xiàn)精確匹配,該算法的流程如圖1所示。

        圖1 算法流程圖Fig.1 Algorithm flowchart

        算法的具體步驟如下: ①采用FAST算法檢測(cè)特征點(diǎn); ②根據(jù)特征點(diǎn)周?chē)泥徲蛐畔⑸蒘URF描述子: ③利用改進(jìn)的k-d樹(shù)BBF算法對(duì)特征點(diǎn)進(jìn)行查找,使用雙向匹配算法進(jìn)行粗匹配; ④使用RANSAC實(shí)現(xiàn)精確匹配,并計(jì)算得出變化參數(shù)。

        1.1FAST特征點(diǎn)檢測(cè)

        FAST特征檢測(cè)算法是利用特征點(diǎn)周?chē)膱D像灰度值來(lái)定義的,是非常簡(jiǎn)單又快速的特征檢測(cè)算子。如圖2所示,該算法通過(guò)選定圖像中的任意一個(gè)像素點(diǎn)作為候選特征點(diǎn),并以該候選特征點(diǎn)為圓心構(gòu)造一個(gè)圓形區(qū)域,檢測(cè)圓周上的像素灰度值,并與該候選點(diǎn)的灰度值進(jìn)行比較,假如兩者的灰度值差別很大,并且圓周上滿足這一條件的點(diǎn)數(shù)足夠多,則選定該候選點(diǎn)為特征點(diǎn)。

        圖2 FAST特征點(diǎn)提取Fig.2 Detection of FAST feature

        特征點(diǎn)的判斷過(guò)程為:設(shè)I(p)為候選特征點(diǎn)p的灰度值,I(x)為圓周上點(diǎn)x的像素灰度值,εd為給定閾值。以N表示滿足下述公式的圓周上像素點(diǎn)x的個(gè)數(shù):

        |I(x)-I(p)|>εd

        (1)

        如果滿足判定條件的像素點(diǎn)數(shù)N大于設(shè)定值,一般為周?chē)鷪A周點(diǎn)的四分之三,即認(rèn)為p是特征點(diǎn)。

        本文采用FAST角點(diǎn)提取改進(jìn)算法,使其可以快速的排除一些非特征點(diǎn),從而加快了算法的提取速度。首先檢測(cè)候選點(diǎn)p圓周上每隔90°角的4個(gè)點(diǎn)(點(diǎn)1、5、9、13),如果這4個(gè)像素點(diǎn)至少有3個(gè)滿足公式(1),則再計(jì)算其他點(diǎn);假如不滿足,則認(rèn)為此候選點(diǎn)不是特征點(diǎn)。

        1.2SURF特征點(diǎn)描述

        1.2.1特征點(diǎn)主方向的選取

        完成特征點(diǎn)的檢測(cè)后,必須對(duì)其進(jìn)行主方向的選取。首先,構(gòu)建一個(gè)圓形區(qū)域,該區(qū)域?qū)⑻卣鼽c(diǎn)設(shè)為中心,半徑設(shè)為6s(s即特征點(diǎn)的尺度值),然后計(jì)算區(qū)域內(nèi)像素點(diǎn)的Haar小波響應(yīng)值。

        如圖3所示,左側(cè)為Haar小波在x方向上的響應(yīng),右側(cè)為Haar小波在y方向上的響應(yīng),將高斯權(quán)重系數(shù)賦予響應(yīng)值,使離特征點(diǎn)近的Haar響應(yīng)貢獻(xiàn)比較大,而離特征點(diǎn)遠(yuǎn)的貢獻(xiàn)比較小,把60度區(qū)域內(nèi)的所有響應(yīng)相加,獲得新的矢量,接著遍歷整個(gè)區(qū)域,特征點(diǎn)主方向即為矢量最長(zhǎng)的方向。

        最后計(jì)算每個(gè)特征點(diǎn),獲得所有特征點(diǎn)的主方向[10]。

        圖3 Haar小波響應(yīng)Fig.3 Response of Haar wavelet

        1.2.2特征點(diǎn)描述符的生成

        生成SURF描述符的第一步是構(gòu)造一個(gè)正方形區(qū)域,將特征點(diǎn)設(shè)為該區(qū)域的中心,邊長(zhǎng)設(shè)為20s,區(qū)域方向設(shè)置為與特征點(diǎn)方向一致。

        如圖4所示,然后對(duì)該區(qū)域?qū)崿F(xiàn)等間隔采樣(采樣間隔為s),并將其劃分成4×4=16個(gè)子區(qū)域,計(jì)算這些子區(qū)域Haar小波響應(yīng)。

        圖4 描述符表示Fig.4 Representation of a descriptor

        (2)

        將16個(gè)子區(qū)域的V組合在一起,獲得16×4=64維特征描述向量,即生成了SURF描述符。

        1.3FAST-SURF算法

        FAST特征檢測(cè)的優(yōu)點(diǎn)主要有以下幾點(diǎn)。

        1) 計(jì)算簡(jiǎn)單、快速。FAST檢測(cè)算子是通過(guò)特征點(diǎn)周?chē)幕叶戎祦?lái)判斷是否為特征點(diǎn),操作方便。

        2)FAST特征檢測(cè)子可以提取大量的有用的特征點(diǎn),即提取的特征點(diǎn)大多位于圖像的細(xì)節(jié)區(qū)域,避免了邊緣區(qū)域提取太多的特征點(diǎn)的問(wèn)題。

        3) 如果圖像存在平移、旋轉(zhuǎn)變換,F(xiàn)AST角點(diǎn)檢測(cè)子依然很穩(wěn)定。

        SURF特征檢測(cè)算法的優(yōu)點(diǎn)是具有尺度不變性,當(dāng)圖像發(fā)生仿射、光照、噪聲等變換時(shí),該算法也具有很好的穩(wěn)定性。盡管SURF算法在特征檢測(cè)方面具有很多優(yōu)點(diǎn),但由于其特征檢測(cè)數(shù)量相對(duì)較少,速度較慢,降低了圖像的匹配速度和精確度。

        針對(duì)此問(wèn)題,本文用FAST角點(diǎn)檢測(cè)器來(lái)替代傳統(tǒng)的SURF特征檢測(cè)器,克服了傳統(tǒng)的SURF檢測(cè)子提取特征點(diǎn)少,計(jì)算量大的問(wèn)題,同時(shí)又保留了SURF描述子的抗旋轉(zhuǎn)特性,實(shí)現(xiàn)了對(duì)SURF算法較好的改進(jìn)。

        1.4改進(jìn)的k-d樹(shù)最近鄰查找算法的特征點(diǎn)匹配

        利用FAST角點(diǎn)檢測(cè)器和SURF特征描述子得到特征點(diǎn)后,要實(shí)現(xiàn)圖像匹配。

        針對(duì)普通的k-d樹(shù)最近鄰查找算法對(duì)于高維數(shù)據(jù)的查找時(shí)間較長(zhǎng),速度慢的缺點(diǎn),本文采用了一種改進(jìn)的k-d樹(shù)BBF查找算法來(lái)替代傳統(tǒng)的k-d樹(shù)查找方法。BBF算法由于在k-d樹(shù)算法的基礎(chǔ)上加入了優(yōu)先隊(duì)列,即在形成搜索路徑的同時(shí)也形成了優(yōu)先隊(duì)列,在回溯查找的過(guò)程主要按照優(yōu)先隊(duì)列來(lái)進(jìn)行查找,從而避免了重復(fù)路徑的搜索過(guò)程,進(jìn)一步提高了搜索效率。

        本文首先利用歸一化的歐氏距離準(zhǔn)則[11],得到兩幅圖像特征點(diǎn)之間的相似性距離,然后建立64維的k-d樹(shù),采用改進(jìn)的k-d樹(shù)算法在待匹配圖像中查找與原圖像歐氏距離最近的特征點(diǎn)和次近的特征點(diǎn),利用比率法判斷是否匹配,即最近距離與次近距離相除,假如比值結(jié)果小于某個(gè)閾值(本文取0.6),則確定該點(diǎn)為匹配點(diǎn)。

        通常閾值選取值越小越好。通過(guò)對(duì)大量任意存在尺度、旋轉(zhuǎn)和亮度變化的兩幅圖片進(jìn)行匹配,結(jié)果表明ratio取值在0.4~0.6之間最佳,小于0.4的很少有匹配點(diǎn),大于0.6的則存在大量錯(cuò)誤匹配點(diǎn),因此本文選擇0.6作為閾值。

        上述算法實(shí)現(xiàn)了兩幅圖像之間的單向匹配,為了提高匹配精度,本文將單向匹配進(jìn)行改進(jìn),實(shí)現(xiàn)圖像間的雙向匹配。首先將原圖像和待匹配圖像實(shí)現(xiàn)匹配,獲取第一組匹配點(diǎn)對(duì),接著反過(guò)來(lái)將待匹配圖像與原圖像實(shí)現(xiàn)匹配,獲取第二組匹配點(diǎn)對(duì),將這兩組中相同的匹配點(diǎn)對(duì)提取出來(lái)作為最終的匹配結(jié)果。

        1.5變換參數(shù)的計(jì)算

        本文研究圖像間發(fā)生平移與旋轉(zhuǎn)的仿射變化關(guān)系,圖像進(jìn)行特征點(diǎn)匹配后,根據(jù)匹配的特征點(diǎn)對(duì)可以得出單應(yīng)性變換矩陣,從而進(jìn)一步獲得圖像間的相對(duì)變化參數(shù)。

        設(shè)(X,Y)和(x,y)為兩幅圖像的任意一對(duì)匹配點(diǎn)對(duì),則有:

        (3)

        根據(jù)其變化關(guān)系,H矩陣可表示為:

        (4)

        其中,θ為旋轉(zhuǎn)角度,Δx、Δy分別為x方向和y方向的像素平移量。

        為了提高H的計(jì)算精度,本文采用RANSAC[12]算法來(lái)消除誤匹配點(diǎn)對(duì),從而獲得更準(zhǔn)確的變換參數(shù)。RANSAC算法的基本內(nèi)容是:

        1) 任意選取兩幅圖像的3組匹配點(diǎn)對(duì),可估算出H矩陣的6個(gè)參數(shù)值;

        2) 使用H矩陣對(duì)剩余的匹配點(diǎn)對(duì)來(lái)進(jìn)行判別,對(duì)匹配的內(nèi)點(diǎn)和外點(diǎn)進(jìn)行區(qū)分,并且記錄內(nèi)點(diǎn)的總體數(shù)量,用得到的新內(nèi)點(diǎn)再次計(jì)算H的各個(gè)參數(shù);

        3) 當(dāng)內(nèi)點(diǎn)數(shù)量達(dá)到最多時(shí),采用該組內(nèi)點(diǎn)計(jì)算H的最佳參數(shù)。

        在程序中,使用cv::findHomography函數(shù)計(jì)算單應(yīng)性變換,利用RANSAC算法求取最佳H矩陣。

        2 實(shí)驗(yàn)結(jié)果及分析

        實(shí)驗(yàn)仿真平臺(tái)的硬件環(huán)境為:Intel(R)Core(TM)i3-2330MCPU,主頻2.20GHz,內(nèi)存2.00GB的PC機(jī);軟件開(kāi)發(fā)工具為:Windows7操作系統(tǒng)、VS2010+OpenCV2.4.9[13]。

        為了驗(yàn)證本文算法的快速性和正確性,對(duì)圖5所示大小為512×512的Lena圖像先進(jìn)行特征點(diǎn)提取,然后分別進(jìn)行平移和旋轉(zhuǎn)變化,采用本文算法和傳統(tǒng)的SURF算法進(jìn)行特征匹配,計(jì)算出實(shí)際的平移量和旋轉(zhuǎn)量,并與理論值相比較。

        圖5 Lena圖Fig.5 Lena figure

        1) 分別用FAST角點(diǎn)檢測(cè)算法和SURF特征檢測(cè)算法對(duì)圖5進(jìn)行特征點(diǎn)提取,如圖6所示,并統(tǒng)計(jì)出特征點(diǎn)的個(gè)數(shù)和檢測(cè)時(shí)間,如表1所示。對(duì)比可知,F(xiàn)AST算法相對(duì)于SURF算法檢測(cè)出的特征點(diǎn)數(shù)量多,而且運(yùn)行時(shí)間較短,該算法提取的特征點(diǎn)進(jìn)一步突出了圖像的細(xì)節(jié),從而使匹配準(zhǔn)確率得到了提高。

        圖6 特征點(diǎn)檢測(cè)結(jié)果Fig.6 Results of feature point detection

        表1 特征點(diǎn)檢測(cè)時(shí)間比較

        2) 將圖5所示的圖像作為參考圖像,分別對(duì)其進(jìn)行平移和旋轉(zhuǎn)變化,得到待配準(zhǔn)圖像,然后采用本文提出的算法進(jìn)行特征點(diǎn)匹配,如圖7和圖8所示,計(jì)算其平移量和旋轉(zhuǎn)量,并與理論值做比較,結(jié)果如表2所示。

        圖7 平移變換匹配結(jié)果Fig.7 Translational transformation matching results

        圖8 旋轉(zhuǎn)變換匹配結(jié)果Fig.8 Rotation transformation matching results

        表2 圖像配準(zhǔn)試驗(yàn)數(shù)據(jù)

        由圖7和圖8的匹配效果可以看出,本文算法對(duì)平移、旋轉(zhuǎn)變換具有良好的匹配效果。由表2可知,平移參數(shù)的最大誤差為0.022個(gè)像素,旋轉(zhuǎn)參數(shù)的最大誤差為0.045°。

        為了進(jìn)一步評(píng)價(jià)匹配結(jié)果,將本文的算法與傳統(tǒng)的SURF算法在匹配正確率和所用時(shí)間上進(jìn)行比較,結(jié)果如表3所示。

        由表3可看出,本文算法相比SURF算法在精確度和速度方面得到了很好的提升。這主要是由于FAST角點(diǎn)檢測(cè)器的優(yōu)良特性和SURF特征描述符的抗旋轉(zhuǎn)性,不僅使計(jì)算復(fù)雜度降低,速度加快,而且對(duì)旋轉(zhuǎn)變化具有一定不變性。

        3 結(jié) 語(yǔ)

        本文根據(jù)圖像匹配技術(shù)精度高、速度快的要求,提出了結(jié)合FAST-SURF和改進(jìn)k-d樹(shù)最近鄰查找的圖像配準(zhǔn)算法。該算法利用了FAST角點(diǎn)的快速性、穩(wěn)定性以及SURF描述子的抗旋轉(zhuǎn)性的優(yōu)點(diǎn),采用改進(jìn)的k-d樹(shù)BBF算法查找特征點(diǎn),并對(duì)得到的特征點(diǎn)對(duì)進(jìn)一步實(shí)現(xiàn)雙向匹配,得到初匹配點(diǎn)對(duì),為了實(shí)現(xiàn)更精確的匹配,使用RANSAC算法消除誤匹配點(diǎn)。實(shí)驗(yàn)結(jié)果表明,平移參數(shù)的最大誤差為0.022個(gè)像素,旋轉(zhuǎn)參數(shù)的最大誤差為0.045°,本算法實(shí)現(xiàn)了較高的匹配速度和精度。

        [1]朱琳,王瑩,劉淑云,等. 基于改進(jìn)快速魯棒特征的圖像快速拼接算法[J]. 計(jì)算機(jī)應(yīng)用,2014,34(10):2944-2947.

        ZHU Lin, WANG Ying, LIU Shuyun, et al. Fast image stitching algorithm based on improved speed up robust feature[J]. Journal of Computer Applications, 2014, 34(10):2944-2947.

        [2]SCHMID C, MOHR R, BAUCKHAGE C. Evaluation of interest point detector[J]. International Journal of Computer Vision, 2000, 37(2):151-172.

        [3]SMITH S M, BRADY J M. SUSAN -A new approach to low level image processing[J]. International Journal of Computer Vision, 1997, 23(1):45-78.

        [4]HARRIS C G, STEPHENS M J. A combined corner and edge detector[C]//Proceeding of 4th Alvey Vision Conference, 1988:147-151.

        [5]張靜,桑紅石. 基于初始尺度變換的SIFT匹配算法[J].紅外與毫米波學(xué)報(bào),2014,33(2):177-182.

        ZHANG Jing, SANG Hongshi. SIFT matching method based on base scale transformation[J]. Journal of Infrared and Millimeter Waves,2014,33(2):177-182.

        [6]劉志文,劉定生,劉鵬. 應(yīng)用尺度不變特征變換的多源遙感影像特征點(diǎn)匹配[J]. 光學(xué)精密工程,2013,21(8):2146-2153.

        LIU Zhiwen, LIU Dingsheng, LIU Peng. SIFT feature matching algorithm of multi-source remote image[J]. Optics and Precision Engineering, 2013, 21(8): 2146-2153.

        [7] LOWE D G. Distinctive image features from scale-invariant keypoints[J]. International Journal of Computer Vision,2004,60(2):91-110.

        [8]BAY H, TUYTELAARS T, VAN GOOL L. SURF: Speeded up robust features[C]//9th European Conference on Computer Vision, Graz, Austria, 2006: 404-417.

        [9]ROSTEN E, DRUMMOND T. Machine learning for high-speed corner detection[C]//9th European Conference on Computer Vision, Graz, Austria, 2006: 430-443.

        [10] 杜杰,劉亞秋,孫垚. 基于仿射不變閉合區(qū)域和SURF的圖像匹配算法[J]. 計(jì)算機(jī)應(yīng)用研究,2014,31(1):295-298.

        DU Jie, LIU Yaqiu, SUN Yao. Image matching algorithm based on affine-invariant closed region and SURF[J]. Application Research of Computers,2014,31(1):295-298.

        [11]堯思遠(yuǎn),王曉明,左帥. 基于SURF的特征點(diǎn)快速匹配算法[J]. 激光與紅外,2014,44(3):347-350.

        YAO Siyuan, WANG Xiaoming, ZUO Shuai. Fast feature point matching algorithm based on SURF[J]. Laser & Infrared, 2014, 44(3):347-350.

        [12]羅天健,劉秉瀚. 融合特征的快速SURF配準(zhǔn)算法[J].中國(guó)圖象圖形學(xué)報(bào),2015,20(1):95-103.

        LUO Tianjian, LIU Binghan. Fast SURF key-points image registration algorithm by fusion feature[J]. Journal of Image and Graphics,2015,20(1):95-103.

        [13]BRADSKI G.Learning OpenCV[M].南京:東南大學(xué)出版社,2009:20.

        (責(zé)任編輯王緒迪,王衛(wèi)勛)

        Image matching algorithm combining FAST-SURF and improved k-d tree nearest neighbor search

        CHEN Jianhong, HAN Xiaozhen

        (School of Mechanical and Precision Instrument Engineering,Xi’an University of Technology,Xi’an 710048,China)

        An algorithm combining FAST-SURF and improved k-d tree nearest neighbor search is proposed to solve the matching problem of translation and rotation changes between two images. Feature points are first extracted using FAST (Features from Accelerated Segment Test) corner detector, and then SURF (Speeded Up Robust Feature) descriptors are generated based on the feature points around the neighborhood information. And an improved k-d tree nearest neighbor search algorithm BBF (Best Bin First) is adopted to find out the feature highlights of two nearest neighbor points. The preliminary match point is obtained by bidirectional matching, and finally RANSAC (Random Sample Consensus) algorithm is adopted to eliminate false matching points, with findHomography function used to find transformation matrix to calculate the relative amount of translation and rotation of the two images. Experimental results are superior to traditional SURF image matching algorithm with the maximum error of the algorithmic translation parameter being 0.022 pixels, and the maximum error of rotation parameters is 0.045 degree, thus achieving a fast and accurate precision of the image registration.

        images matching; FAST-SURF algorithm; BBF; bidirectional matching; RANSAC

        1006-4710(2016)02-0213-05

        10.19322/j.cnki.issn.1006-4710.2016.02.014

        2015-08-14

        陜西省自然科學(xué)基礎(chǔ)研究計(jì)劃資助項(xiàng)目(2012JM8006);陜西省教育廳科研計(jì)劃資助項(xiàng)目(2013JK1049)

        陳劍虹,男,副教授,博士,研究方向?yàn)楣怆姍z測(cè)與光譜分析。E-mail: chenjianhong@xaut.edu.cn

        TP391.4

        A

        猜你喜歡
        特征區(qū)域檢測(cè)
        “不等式”檢測(cè)題
        “一元一次不等式”檢測(cè)題
        “一元一次不等式組”檢測(cè)題
        如何表達(dá)“特征”
        不忠誠(chéng)的四個(gè)特征
        抓住特征巧觀察
        小波變換在PCB缺陷檢測(cè)中的應(yīng)用
        關(guān)于四色猜想
        分區(qū)域
        基于嚴(yán)重區(qū)域的多PCC點(diǎn)暫降頻次估計(jì)
        老师翘臀高潮流白浆| 欧美做受视频播放| 特级毛片a级毛片在线播放www| 国产成人精选在线不卡| 亚洲色欲色欲www| 亚洲av日韩av无码av| 欧美日韩国产一区二区三区地区| 亚洲av粉色一区二区三区| 亚洲av极品尤物不卡在线观看| 亚洲熟女一区二区三区250p| 精人妻无码一区二区三区| 蜜桃久久精品成人无码av| 国内精品无码一区二区三区| 国产精品青草视频免费播放| 国产精品无码久久AⅤ人妖| 国产精品视频白浆免费看| 精品高清免费国产在线| 男人的天堂av网站| 狠狠色噜噜狠狠狠888米奇视频 | 美女福利一区二区三区在线观看 | 亚洲一区二区三区偷拍厕所| 亚洲av一二三区成人影片| 精品无码人妻一区二区三区不卡| 欧美亚洲精品一区二区| 嗯啊 不要 啊啊在线日韩a| 清纯唯美亚洲经典中文字幕| 精品亚洲麻豆1区2区3区| 久久亚洲私人国产精品va| 国产亚洲美女精品久久久| 久久99热精品免费观看欧美| 中文字幕二区三区在线| 亚洲熟妇av一区二区在线观看| 国产亚州精品女人久久久久久| 久久久久久国产精品免费免费男同 | 亚洲综合免费在线视频| 男女视频网站在线观看| 婷婷色综合视频在线观看| 欧美人妻精品一区二区三区| 久久中文字幕日韩无码视频| 国产一区二区三区在线观看黄| 日本饥渴人妻欲求不满|