亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        一種改進(jìn)的A-KAZE算法在圖像配準(zhǔn)中的應(yīng)用

        2017-07-26 21:37:32吳含前李程超
        關(guān)鍵詞:漢明特征向量正確率

        吳含前 李程超 謝 玨

        (1東南大學(xué)計(jì)算機(jī)科學(xué)與工程學(xué)院, 南京 210018)(2東南大學(xué)計(jì)算機(jī)網(wǎng)絡(luò)和信息集成教育部重點(diǎn)實(shí)驗(yàn)室, 南京 210018)(3東南大學(xué)蒙納士大學(xué)蘇州聯(lián)合研究生院, 蘇州 215123)

        一種改進(jìn)的A-KAZE算法在圖像配準(zhǔn)中的應(yīng)用

        吳含前1,2李程超1,2謝 玨3

        (1東南大學(xué)計(jì)算機(jī)科學(xué)與工程學(xué)院, 南京 210018)(2東南大學(xué)計(jì)算機(jī)網(wǎng)絡(luò)和信息集成教育部重點(diǎn)實(shí)驗(yàn)室, 南京 210018)(3東南大學(xué)蒙納士大學(xué)蘇州聯(lián)合研究生院, 蘇州 215123)

        針對現(xiàn)有圖像配準(zhǔn)過程中難以保持圖像的局部精度和邊緣細(xì)節(jié)的問題,在A-KAZE算法的基礎(chǔ)上提出了一種改進(jìn)的圖像特征提取算法AKAZE-ILDB.該算法首先利用非線性擴(kuò)散濾波方程構(gòu)造圖像金字塔,采用快速顯示擴(kuò)散(FED)求得數(shù)值解,得到具有亞像素精度的圖像特征點(diǎn)坐標(biāo);然后利用改進(jìn)的LDB(ILDB)描述子構(gòu)造具有尺度和旋轉(zhuǎn)不變性的圖像特征向量,對特征向量采用漢明距離進(jìn)行KNN匹配;最后基于仿射變換模型計(jì)算空間映射參數(shù)矩陣來實(shí)現(xiàn)圖像配準(zhǔn).實(shí)驗(yàn)結(jié)果表明:在保持相同圖像特征匹配正確率的情況下, AKAZE-ILDB算法比A-KAZE算法平均配準(zhǔn)時(shí)間縮短了300 ms; 在配準(zhǔn)精度方面,比A-KAZE算法提高了3.7%,比傳統(tǒng)特征提取算法SURF匹配正確率提高了29%.

        A-KAZE; 非線性擴(kuò)散濾波; FED; KNN匹配; 仿射變換

        圖像配準(zhǔn)是將同一場景在不同時(shí)間、不同視角或者是不同傳感器拍攝的2幅或多幅具有重疊區(qū)域的圖像進(jìn)行處理的過程[1].圖像配準(zhǔn)技術(shù)在計(jì)算機(jī)視覺、遙感技術(shù)、醫(yī)學(xué)圖像處理、圖像融合、圖像超分辨率重建等領(lǐng)域有著廣泛的應(yīng)用[2],特別是作為視頻超分辨率領(lǐng)域的基礎(chǔ)研究,一直是近年來的研究熱點(diǎn)[3].

        圖像配準(zhǔn)方法主要有3種:基于灰度信息的方法、基于變換域的方法和基于特征的方法[4].基于灰度信息的方法對異源圖像配準(zhǔn)效果較好,但是計(jì)算量大,要求圖像有較大的重疊區(qū)域,容易出現(xiàn)局部極值.基于變換域的方法是采用頻域的方法,利用傅里葉變換,通過對比、平移、旋轉(zhuǎn)、縮放在時(shí)域和頻域的對應(yīng)關(guān)系,求得變換關(guān)系.而基于特征的圖像配準(zhǔn)方法是目前最常用的方法,因?yàn)檫@種方法只需要針對圖像特征進(jìn)行分析,減少了圖像處理過程的運(yùn)算量,并且對于亮度變化、圖像變形和遮擋都有較好的適應(yīng)能力.

        傳統(tǒng)的圖像特征提取算法,如SIFT[5],SURF[6]等都是基于線性的高斯金字塔進(jìn)行多尺度分解來消除噪聲和提取圖像特征點(diǎn).但高斯分解犧牲了局部精度作為代價(jià),容易造成邊界模糊和細(xì)節(jié)丟失.非線性的尺度分解可以解決這個(gè)問題,但非線性擴(kuò)散方程并沒有解析解,只能使用數(shù)值分析的方法來求解.傳統(tǒng)的基于正向歐拉的方法求解時(shí)迭代收斂的步長太短、耗時(shí)長、計(jì)算復(fù)雜度高. KAZE算法[7]中采用加性算子分裂算法(AOS)來求解非線性擴(kuò)散方程,可以采用任意步長來構(gòu)造穩(wěn)定的非線性尺度空間,但實(shí)現(xiàn)復(fù)雜.加速版本的KAZE算法(A-KAZE)采用快速顯示擴(kuò)散(FED)[8]數(shù)值分析框架來求解非線性擴(kuò)散濾波方程,相比AOS算法在精度方面得到了較好的提升,并且降低了實(shí)現(xiàn)的復(fù)雜度.

        但A-KAZE算法采用的M-SURF特征描述子構(gòu)建的特征向量在進(jìn)行特征匹配過程中耗時(shí)長且匹配精度不夠高.針對這一問題,本文采用了一種改進(jìn)的LDB(ILDB)特征描述子構(gòu)建圖像特征向量,使用漢明距離度量特征向量之間的相似度,提高匹配效率,并加入方向信息,增強(qiáng)了特征描述向量的魯棒性.

        綜上所述,本文圖像配準(zhǔn)模型首先基于A-KAZE進(jìn)行圖像特征的提取與位置檢測,然后利用ILDB描述子進(jìn)行特征描述;接著根據(jù)漢明距離進(jìn)行特征的相似性度量;最后計(jì)算變換矩陣,完成圖像配準(zhǔn).

        1 A-KAZE特征提取算法

        A-KAZE算法[9]提取圖像特征主要包括3個(gè)步驟:

        1) 利用非線性擴(kuò)散濾波方法和快速顯示擴(kuò)散(FED)求解隱性差分方程的原理來構(gòu)建非線性尺度空間.

        2) 檢測感興趣的特征點(diǎn),這些特征點(diǎn)在非線性尺度空間上,是經(jīng)過尺度歸一化之后的Hessian矩陣行列式值在局部(3×3像素鄰域)的極大值.

        3) 構(gòu)造特征向量,計(jì)算特征點(diǎn)的主方向,并基于一階微分圖像提取具有尺度和旋轉(zhuǎn)不變性的特征描述向量.

        1.1 構(gòu)造非線性尺度空間

        非線性擴(kuò)散濾波是一種用流動(dòng)函數(shù)的散度來描述圖像亮度在不同尺度空間變化的方法,其可用以下非線性偏微分方程來描述:

        (1)

        函數(shù)c定義如下:

        (2)

        式中,函數(shù)g的定義可以根據(jù)不同的要求進(jìn)行設(shè)計(jì).本次實(shí)驗(yàn)中為了優(yōu)先保留寬度較大的區(qū)域,將g定義為

        (3)

        本文采用FED來求解方程(1)是因?yàn)樗Y(jié)合了顯示和半隱式的優(yōu)點(diǎn). 另外,采用盒子濾波來近似高斯內(nèi)核[10],降低了積分圖的計(jì)算復(fù)雜度. FED的主要思想是進(jìn)行M次循環(huán),M為圖像金字塔中組數(shù)O與層數(shù)S的積,即得到的濾波后的圖像總數(shù).每次循環(huán)都是一個(gè)n次的迭代過程,第j次迭代步長τj的定義為

        (4)

        式中,τmax為不破壞迭代過程穩(wěn)定性的最大迭代步長.利用顯示擴(kuò)散可以將偏微分方程(1)表示為顯示模式:

        (5)

        式中,τ為一個(gè)常量的迭代步長;A(Li)為圖像的傳導(dǎo)矩陣.進(jìn)行迭代之后求解出的圖像亮度表示為

        Li+1,j+1=(I+τjA(Li))Li+1,jj=0,1,…,n-1

        (6)

        式中,I為單位陣;Li+1,0=Li為初始化的先驗(yàn)信息.

        每一次迭代的時(shí)間由高斯濾波參數(shù)標(biāo)準(zhǔn)差σi決定.對每一層圖像進(jìn)行高斯濾波,濾波參數(shù)的值定義為

        σi(o,s)=2o+s/S

        o∈[0,O-1],s∈[0,S-1],i∈[0,M]

        (7)

        在傳導(dǎo)擴(kuò)散方程中以時(shí)間單元進(jìn)行迭代,因此需要將空間濾波參數(shù)轉(zhuǎn)化為時(shí)間單元.在高斯尺度空間下,使用標(biāo)準(zhǔn)差為σ的高斯核對圖像進(jìn)行卷積,相當(dāng)于對圖像進(jìn)行持續(xù)時(shí)間為t=σ2/2的濾波.因此,尺度參數(shù)σi轉(zhuǎn)化為時(shí)間單元的映射公式為

        (8)

        當(dāng)結(jié)束某一層(oi)的濾波之后,在圖像金字塔的下一層進(jìn)行降采樣操作,然后修改對比度因子λ,這樣就可得到一個(gè)O組(每組S層)的圖像金字塔.

        1.2 特征點(diǎn)檢測

        特征點(diǎn)檢測與SIFT算法類似.使用非極大值抑制方法,計(jì)算圖像金字塔中每個(gè)像素點(diǎn)的Hessian矩陣,為了加快搜索速度,窗口大小固定為3×3像素.即在上一層和下一層以及周圍共26個(gè)像素點(diǎn)中尋找歸一化后不同尺度的Hessian矩陣行列式的局部極大值. Hessian矩陣行列式的值計(jì)算公式如下:

        (9)

        式中,σ為這一層的尺度參數(shù)σi的整數(shù)值;Lxx,Lyy分別為圖像水平和垂直方向的二階偏導(dǎo);Lxy為交叉偏導(dǎo)數(shù).

        找到特征點(diǎn)后,利用空間尺度的泰勒展開式來求解特征點(diǎn)坐標(biāo):

        (10)

        式中,L(x)為圖像亮度的空間尺度函數(shù);x為特征點(diǎn)所在的坐標(biāo),其亞像素坐標(biāo)的解為

        (11)

        1.3 ILDB特征描述子

        LDB描述子是一種二值描述子[11],相比于傳統(tǒng)的數(shù)值描述子SIFT,M-SUFR等,具有計(jì)算量小、實(shí)時(shí)性強(qiáng)的優(yōu)點(diǎn).判斷一個(gè)描述子是否具備良好的特性,主要基于3個(gè)方面:

        1) 差異性,即對于不同的特征具有強(qiáng)區(qū)分度;

        2) 低計(jì)算復(fù)雜度,易于計(jì)算,匹配時(shí)消耗時(shí)間少,具有實(shí)時(shí)性;

        3) 魯棒性,對于光照變化、旋轉(zhuǎn)等具有不變性.

        LDB描述子不僅利用圖像的灰度信息,而且引入了圖像的一階梯度信息, 因此具有很高的差異性.如圖1所示,如果僅僅考慮平均灰度信息,那么3個(gè)圖像的平均灰度是相同的. LDB使用2個(gè)網(wǎng)格內(nèi)的平均灰度以及水平和垂直方向的一階梯度信息來區(qū)分3個(gè)圖像塊.

        圖1 3個(gè)不同灰度分布的圖像塊

        加入梯度信息雖然使描述子差異性增強(qiáng),但沒有加入方向信息和尺度信息會(huì)導(dǎo)致其對于圖像的旋轉(zhuǎn)和尺度變化比較敏感,降低了魯棒性.針對這個(gè)問題,本文對LDB描述子進(jìn)行改進(jìn),在LDB描述子構(gòu)建之前加入主方向信息形成ILDB描述子.

        使用灰度矩來描述主方向,圖像塊的灰度矩定義為

        (12)

        式中,(x,y)為像素點(diǎn)的坐標(biāo);p,q為常數(shù),分別取0和1;I(x,y)為像素點(diǎn)灰度.利用灰度矩將圖像的重心定義為

        (13)

        (14)

        通過以上方法獲得描述子的主方向.在對描述子進(jìn)行構(gòu)建時(shí),首先將特征點(diǎn)的鄰域圖像塊旋轉(zhuǎn)到主方向,然后使用LDB描述子構(gòu)造方法[11]構(gòu)建最終的ILDB描述子.

        2 特征向量匹配與變換矩陣估計(jì)

        首先根據(jù)漢明距離對圖像特征點(diǎn)的描述子進(jìn)行匹配,然后使用隨機(jī)一致性算法(RANSAC)進(jìn)行誤匹配點(diǎn)的刪除.得到匹配對后,基于仿射變換模型求解圖像之間的空間變換參數(shù).

        2.1 特征向量匹配及去誤

        在對特征點(diǎn)進(jìn)行匹配時(shí),首先需要度量2個(gè)描述子之間的相似度,本文采用漢明距離進(jìn)行度量.漢明距離定義為2個(gè)向量中對應(yīng)位置不同分量的個(gè)數(shù).所以計(jì)算2個(gè)ILDB二值描述子之間的漢明距離非常簡單高效,加速了圖像特征的匹配速度.

        在查找最佳匹配點(diǎn)時(shí),采用KNN算法,其中K值取為2.這樣對于每個(gè)特征點(diǎn)都有2個(gè)待匹配點(diǎn),如果2個(gè)匹配對之間的距離比值足夠大,說明最近鄰是最優(yōu),否則存在不易區(qū)分的2個(gè)特征向量.將2個(gè)距離記為D1和D2,其中前者為最近鄰距離,后者為次近鄰距離.如果兩者比值小于某個(gè)閾值,則接受這個(gè)最近鄰的匹配點(diǎn).實(shí)驗(yàn)表明,閾值在0.65~0.80之間為最佳.

        上述操作雖然有助于找到一些最佳匹配點(diǎn),去除一些不必要的匹配對,但在匹配結(jié)果中仍然會(huì)含有誤匹配對.因此,在實(shí)驗(yàn)中再次采用RANSAC算法來擬合出最優(yōu)的匹配對,去除誤匹配對.

        2.2 六參數(shù)仿射變換

        得到匹配對后,將參考圖像標(biāo)定在待配準(zhǔn)圖像中,這樣可比較直觀地來判斷配準(zhǔn)效果.其中像素點(diǎn)坐標(biāo)的變換,本文采用具有描述平移、旋轉(zhuǎn)、縮放功能的仿射變換模型來實(shí)現(xiàn).

        在實(shí)際應(yīng)用中,六參數(shù)變換模型是一種常用的坐標(biāo)變換模型.設(shè)六參數(shù)變換的6個(gè)參數(shù)為m0~m5,則該模型可表示為

        (15)

        式中,(x,y)和(x′,y′)分別為參考圖像和待配準(zhǔn)圖像匹配對中的像素點(diǎn)坐標(biāo);M為空間變換矩陣.從式(15)中可看出,求解6個(gè)參數(shù)的估計(jì)值至少需要3對匹配點(diǎn).

        在實(shí)際中, 匹配對往往大于3對,可采用最小二乘法來求得最佳的變換矩陣參數(shù).

        3 實(shí)驗(yàn)與結(jié)果分析

        本文分別使用SURF,M-SURF以及ILDB三種描述子構(gòu)建圖像特征向量,這3種描述子對應(yīng)的實(shí)驗(yàn)算法分別是SURF,A-KAZE和AKAZE-ILDB. 選擇配準(zhǔn)正確率和配準(zhǔn)時(shí)間2個(gè)指標(biāo)對算法進(jìn)行評價(jià)分析.實(shí)驗(yàn)平臺(tái)為Windows 7系統(tǒng),CPU為Intel i5-3230M 2.6 GHz,8 GB內(nèi)存的個(gè)人電腦.編程環(huán)境為Qt4.7和Opencv 3.1,所有代碼都是單線程執(zhí)行.實(shí)驗(yàn)采用KATHOLIEKE大學(xué)公開的4組圖像進(jìn)行測試[12],每組4幅圖像,其中1幅作為參考圖像,其余3幅作為待配準(zhǔn)圖像. 根據(jù)圖片的現(xiàn)實(shí)場景,每組圖像分別屬于4種類別:

        1) 不同視點(diǎn),圖像組命名為Graf;

        2) 不同亮度,圖像組命名為Leuven;

        3) 不同模糊,圖像組命名為Btree;

        4) 壓縮失真,圖像組命名為Compa.

        每組圖像中的每一對圖像1-2,1-3,1-4的配準(zhǔn)難度逐漸上升,即待配準(zhǔn)圖像和參考圖像的差異會(huì)越來越大.圖2為每組圖像中配準(zhǔn)難度適中的圖像對,編號為1-3.其中,圖2(a)、(b)為不同視點(diǎn)的圖像,它展現(xiàn)了圖像的扭曲和旋轉(zhuǎn),而圖2(g)、(h)為壓縮失真的圖像,其中出現(xiàn)了鋸齒.

        實(shí)驗(yàn)過程中,首先從配準(zhǔn)時(shí)間的角度分析3種

        (a) Graf1

        (b) Graf3

        (c) Leuven1

        (d) Leuven3

        (e) Btree1

        (f) Btree3

        (g) Compa1

        (h) Compa3

        算法的效率;其次從圖像特征向量匹配正確率的角度分析3種算法所提取特征點(diǎn)的精確度.

        算法時(shí)間上的開銷主要包括3部分:① 非線性尺度空間的構(gòu)造;② 特征描述向量的構(gòu)造;③ 特征向量的匹配.

        假設(shè)圖像特征向量長度為n,則在匹配階段采用的ILDB描述子進(jìn)行匹配的時(shí)間復(fù)雜度為線性復(fù)雜度O(n).為了保證實(shí)驗(yàn)的一致性,3種算法采用的都是KNN匹配,其中K值為2.獲取最佳匹配點(diǎn)的閾值設(shè)置為0.8,即最近距離與次近距離的比值需要小于0.8.取每組圖像3次匹配的平均時(shí)間作為最終結(jié)果,如表1所示.

        表1 3種算法針對每組圖像的平均配準(zhǔn)時(shí)間 ms

        從表1中可看出,AKAZE-ILDB算法與原始的A-KAZE算法相比,在亮度變化的圖像組(Leuven)中配準(zhǔn)時(shí)間持平,但在其他組中具有明顯的優(yōu)勢,總體來說平均配準(zhǔn)時(shí)間減少了約300 ms. AKAZE-ILDB算法與SURF算法對比,雖然SURF算法在時(shí)間上具有優(yōu)勢,但在匹配正確率的實(shí)驗(yàn)中表現(xiàn)并不理想.

        匹配正確率是算法檢測出的特征向量中正確的特征向量所占的比例.設(shè)算法中檢測出的特征向量數(shù)為N,正確特征向量數(shù)為C,則匹配正確率R計(jì)算公式為

        R=C/N

        使用已知的單應(yīng)性矩陣檢驗(yàn)實(shí)驗(yàn)算法計(jì)算出的特征向量是否為正確特征向量.在衡量2個(gè)特征向量是否相同的實(shí)驗(yàn)中[13],采用歐式距離度量2個(gè)特征向量之間的距離,在允許微小誤差的情況下,會(huì)設(shè)置一個(gè)閾值,若兩者之間的距離小于該閾值,則將算法檢測出的特征向量記為正確特征向量.本實(shí)驗(yàn)所有算法的閾值設(shè)置為單精度浮點(diǎn)值2.5.

        實(shí)驗(yàn)統(tǒng)計(jì)數(shù)據(jù)如圖3所示.3種算法分別采用不同的直方格表示.每幅直方圖表示一組圖像的匹配正確率對比結(jié)果.

        匹配正確率越高,表示算法提取出的特征點(diǎn)精確度越高.從圖3中可看出,本文算法在圖像亮度變換、不同模糊程度以及壓縮失真的圖像匹配中較另外2種算法有明顯優(yōu)勢.這是因?yàn)锳KAZE-ILDB利用非線性尺度空間構(gòu)造圖像金字塔來保持圖像局部精度和邊緣細(xì)節(jié),因此在配準(zhǔn)精度上保持了A-KAZE算法的優(yōu)勢.本文算法與A-KAZE和SURF算法相比,匹配正確率分別提高了3.7%和29%.

        (a) Graf組

        (b) Leuven組

        (c) Btree組

        (d) Compa組

        通過仿射變換將參考圖像標(biāo)定在待配準(zhǔn)圖像上.圖4是Graf組中的圖像對1-3配準(zhǔn)之后的效果,左邊是參考圖像,右邊是視點(diǎn)變化之后的待配準(zhǔn)圖像,圖中的小圓圈代表檢測到的特征點(diǎn),實(shí)線連接的是2幅圖像中對應(yīng)的特征點(diǎn).最后在待配準(zhǔn)圖像中,用實(shí)線框?qū)⒆筮叺膮⒖紙D像標(biāo)定出來.

        圖4 配準(zhǔn)結(jié)果樣例

        4 結(jié)語

        本文針對現(xiàn)有圖像特征提取算法無法保持圖像局部精度和邊緣細(xì)節(jié)等缺點(diǎn),基于A-KAZE算法提出一種基于改進(jìn)LDB描述子的特征提取算法用于圖像配準(zhǔn).以4種不同類型的同一場景的圖像進(jìn)行配準(zhǔn)實(shí)驗(yàn),構(gòu)造非線性圖像金字塔,采用FED方法求解特征點(diǎn),使用ILDB描述子進(jìn)行特征點(diǎn)的向量描述,最后進(jìn)行圖像配準(zhǔn).實(shí)驗(yàn)結(jié)果表明,相比于原始的A-KAZE算法,本文算法平均配準(zhǔn)時(shí)間減少約300 ms,并且保持了圖像的局部精度和邊緣細(xì)節(jié),配準(zhǔn)精確度相比于傳統(tǒng)的SURF算法也有很大提高.

        References)

        [1]Rohilla J, Bhatnagar M A. Image registration: A review[J].InternationalJournalforInnovativeResearchinScience&Technology, 2016,3(2):90-93.

        [2]Nasrollahi K, Moeslund T B. Super-resolution: A comprehensive survey[J].MachineVisionandApplications, 2014, 25(6):1423-1468. DOI:10.1007/s00138-014-0623-4.

        [3]Tian J, Ma K K. A survey on super-resolution imaging[J].Signal,ImageandVideoProcessing, 2011, 5(3):329-342. DOI:10.1007/s11760-010-0204-6.

        [4]Li Y, Wang S, Tian Q, et al. A survey of recent advances in visual feature detection[J].Neurocomputing, 2015, 149:736-751. DOI:10.1016/j.neucom.2014.08.003.

        [5]Sun Y B, Zhao L, Huang S D, et al. L2-SIFT: SIFT feature extraction and matching for large images in large-scale aerial photogrammetry[J].ISPRSJournalofPhotogrammetry&RemoteSensing, 2014, 91:1-16.

        [6]Gui Y, Su A, Du J. Point-pattern matching method using SURF and shape context[J].Optik—InternationalJournalforLightandElectronOptics, 2013, 124(14): 1869-1873. DOI:10.1016/j.ijleo.2012.05.037.

        [7]Alcantarilla P F, Bartoli A, Davison A J. KAZE features[C]//ComputerVision—ECCV2012. Berlin: Springer, 2012:214-227. DOI:10.1007/978-3-642-33783-3_16.

        [8]Weickert J, Grewenig S, Schroers C, et al. Cyclic schemes for PDE-based image analysis[J].InternationalJournalofComputerVision, 2016, 118(3): 275-299.DOI:10.1007/s11263-015-0874-1.

        [9]Alcantarilla P F, Jesú N, Bartoli A. Fast explicit diffusion for accelerated features in nonlinear scale spaces[C]//ElectronicProceedingsoftheBritishMachineVisionConference. Bristol, UK, 2013:1-11.

        [10]Grewenig S, Weickert J, Bruhn A. From box filtering to fast explicit diffusion[J].LectureNotesinComputerScience, 2010, 6376: 533-542. DOI:10.1007/978-3-642-15986-2_54.

        [11]Yang X, Cheng K T. LDB: An ultra-fast feature for scalable augmented reality on mobile devices[C]//IEEEInternationalSymposiumonMixedandAugmentedReality. Atlanta, USA, 2012:49-57.

        [12]Tuytelaars T, Mikoljczyk K. Affine covariant features[EB/OL]. (2008) [2016-03-03]. http://www.robots.ox.ac.uk/~vgg/research/affine.

        [13]Mikolajczyk K, Schmid C. A performance evaluation of local descriptors[J].IEEETransactionsonPatternAnalysisandMachineIntelligence, 2005, 27(10): 1615-1630. DOI:10.1109/TPAMI.2005.188.

        Application of improved A-KAZE algorithm in image registration

        Wu Hanqian1,2Li Chengchao1,2Xie Jue3

        (1School of Computer Science and Engineering, Southeast University, Nanjing 210018, China) (2Key Laboratory of Computer Network and Information Integration of Ministry of Education, Southeast University, Nanjing 210018, China) (3Southeast University-Monash University Joint Graduate School, Suzhou 215123, China)

        Aiming at the problem that local precision and edge details are difficult to preserve in the existing process of image registration, an improved image feature extraction algorithm AKAZE-ILDB(accelerated KAZE-improved local difference binary) is proposed based on the A-KAZE algorithm. First, this algorithm uses nonlinear diffusion filtering equation to construct the image pyramid. The numerical solution is obtained by the fast explicit diffusion(FED) method. The coordinates of the image feature points with subpixel precision are obtained. Then, the invariant image feature vectors are constructed by the improved LDB descriptor. The eigenvectors are matched by KNN(K-nearest neighbor) with Hamming distance. Finally, the spatial mapping parameter matrix is computed based on the affine transformation model to realize image registration. The experimental results show that in terms of registration efficiency, the AKAZE-ILDB algorithm reduces average registration time by 300 ms compared with the original A-KAZE algorithm in the condition of maintaining the same matching accuracy. Meanwhile, the matching accuracy of the same image feature is also improved by 3.7% higher than the A-KAZE algorithm and 29% higher than the traditional feature extraction algorithm SURF(speed up robust feature).

        A-KAZE; nonlinear diffusion filter; fast explicit diffusion(FED); K-nearest neighbor matching; affine transformation

        10.3969/j.issn.1001-0505.2017.04.007

        2016-11-13. 作者簡介: 吳含前(1972—),男,博士,副教授, hanqian@seu.edu.cn.

        國家高技術(shù)研究發(fā)展計(jì)劃(863計(jì)劃) 資助項(xiàng)目(2015AA015904).

        吳含前,李程超,謝玨.一種改進(jìn)的A-KAZE算法在圖像配準(zhǔn)中的應(yīng)用[J].東南大學(xué)學(xué)報(bào)(自然科學(xué)版),2017,47(4):667-672.

        10.3969/j.issn.1001-0505.2017.04.007.

        TP315.69

        A

        1001-0505(2017)04-0667-06

        猜你喜歡
        漢明特征向量正確率
        二年制職教本科線性代數(shù)課程的幾何化教學(xué)設(shè)計(jì)——以特征值和特征向量為例
        克羅內(nèi)克積的特征向量
        門診分診服務(wù)態(tài)度與正確率對護(hù)患關(guān)系的影響
        一類特殊矩陣特征向量的求法
        EXCEL表格計(jì)算判斷矩陣近似特征向量在AHP法檢驗(yàn)上的應(yīng)用
        生意
        品管圈活動(dòng)在提高介入手術(shù)安全核查正確率中的應(yīng)用
        生意
        媳婦管錢
        中年研究
        精品综合久久久久久99| 麻豆婷婷狠狠色18禁久久| 中国农村妇女hdxxxx| 亚洲欧美日韩中文天堂| 亚洲国产日韩av一区二区| 人妖在线一区二区三区| 少妇伦子伦精品无吗| 久久久久亚洲av无码专区| 国产又爽又黄又不遮挡视频| 精品女厕偷拍视频一区二区区| 婷婷五月深深久久精品| 亚洲精品无播放器在线播放| 国产乱人伦真实精品视频| 中文字幕亚洲乱码熟女1区2区| 美女露出粉嫩小奶头在视频18禁| 久久国产劲暴∨内射| 四虎影视久久久免费| 成人av一区二区亚洲精| 国产精品久久久久久久久绿色| 野花社区www高清视频| 日日噜噜夜夜狠狠2021| 亚洲在线精品一区二区三区| 国产成年女人毛片80s网站| 国产精品国语对白露脸在线播放 | 精品国产av色一区二区深夜久久| 国产精品丝袜黑色高跟鞋| 亚洲国产日韩av一区二区| 97精品一区二区三区| 亚洲一区二区三区中文字幂| 久久精品国产亚洲婷婷| 国产精品高清视亚洲一区二区| 国产日韩av在线播放| 福利片福利一区二区三区| 久久精品亚洲国产成人av| 香蕉视频在线观看亚洲| 又色又爽又黄又硬的视频免费观看 | 亚洲精品乱码久久久久久麻豆不卡| 日本一道高清在线一区二区| 无码无套少妇毛多18p| 内射后入在线观看一区| 久久综合给合久久97色|