亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        紋理抑制的光照不均圖像配準(zhǔn)算法研究

        2020-12-07 08:20:38天,曾
        計算機工程與應(yīng)用 2020年23期
        關(guān)鍵詞:尺度空間紋理光照

        劉 天,曾 亮

        國防科技大學(xué) 計算機學(xué)院,長沙 410073

        1 引言

        在圖像處理中,圖像配準(zhǔn)是十分基礎(chǔ)的理論,但它也是圖像處理研究領(lǐng)域里的一個技術(shù)難點。計算機圖像處理領(lǐng)域飛速進步的同時,很多理論和方法都更加完善,并且做了很多創(chuàng)新。圖像配準(zhǔn)是一個熱點問題并且逐漸讓人們更加關(guān)注這一方面,它是獲取圖像信息的重要手段。這項技術(shù)在計算機視覺、圖形圖像處理、建筑學(xué)、醫(yī)學(xué)、軍事以及材料力學(xué)等領(lǐng)域都有著非常廣泛的應(yīng)用[1]。

        圖像配準(zhǔn)方法主要分為基于灰度的匹配算法、基于變換域的匹配算法和基于特征的匹配算法[2]?;谔卣鞯膱D像配準(zhǔn)方法利用圖像的局部不變特征配準(zhǔn)圖像的重合部分,其抗噪聲的能力和抗形變能力較為突出,因此,此類算法的時間復(fù)雜度較低的同時,還具有較高的魯棒性。常用的特征提取算法包括Harris[3]、SUSAN(Smallest Univalue Segment Assimilation Nucleus)[4]、SIFT(Scale Invariant Feature Transform)[5]、SURF(Speed-Up Robust Features)[6]、ORB(Oriented FAST and Rotated BRIEF)[7]、BRISK(Binary Robust Invariant Scalable Keypoints)[8]、KAZE[9-10]和 AKAZE(Accelerated-KAZE)[11]等。SIFT 和SURF 算法使用高斯差分尺度空間對特征點進行提取,雖然這兩種算法的魯棒性較高,但是模糊了輪廓信息,在其進行高斯濾波后的圖像會存在邊緣細節(jié)模糊、輪廓信息丟失的情況。ORB算法結(jié)合FAST與BRIEF,計算所用時間較少,但是不具備尺度不變性。BRISK 算法具備尺度不變性與旋轉(zhuǎn)不變性,計算速度快,但是魯棒性較差。上述的局部特征檢測算法,都是利用線性濾波的方法模糊圖像來獲得光照分量,然而這種方法并不能適用于所有圖像,在一些光照不均圖像中,光照分量在一些明暗區(qū)域邊界處可能是突變的,使用線性濾波會破壞圖像的區(qū)域邊界。KAZE和AKAZE都是通過非線性濾波構(gòu)建尺度空間,穩(wěn)健性較強,局部精度高,但是在構(gòu)建相同尺度空間時,圖像細節(jié)或紋理區(qū)域的弱邊緣會很快被平滑,這時就會出現(xiàn)特征匹配錯誤的現(xiàn)象。

        上述算法雖然對普通圖像的配準(zhǔn)具有良好的效果,但是對于光照不均圖像的配準(zhǔn)效果卻不太理想,本文針對KAZE算法對光照不均圖像特征點提取不準(zhǔn)確、配準(zhǔn)效果較差等方面的不足,提出了一種基于紋理抑制的改進KAZE 算法。該方法首先將紋理抑制算法嵌入到非線性擴散方程中,利用紋理抑制的特性,保留原圖像的邊界性邊緣,并平滑掉圖像中的紋理細節(jié),實現(xiàn)原圖像正確的光照估計,然后對光照分量進行自適應(yīng)伽馬校正[12],將反射分量和光照分量結(jié)合恢復(fù)圖像的細節(jié)和色彩,最后對校正圖像進行配準(zhǔn)。實驗結(jié)果表明:本文算法的準(zhǔn)確率更高,適用性更廣泛。

        2 KAZE算法

        KAZE 算法是基于非線性尺度空間的特征檢測與描述算法。該算法利用非線性擴散濾波器構(gòu)建具有任意步長的尺度空間。在該尺度空間的平緩區(qū)域,圖像的灰度快速擴散,反之,在邊緣處圖像的灰度緩慢擴散。因此,使用KAZE 方法處理圖像時,圖像的細節(jié)和邊緣信息能夠被較好地保存,同時噪聲被模糊。

        2.1 非線性擴散濾波與非線性尺度空間構(gòu)造

        非線性擴散濾波方法是將圖像像素亮度在不同尺度上的變化視為某種形式的流函數(shù)的散度。因此,可以通過非線性偏微分方程來描述,如式(1)所示:

        其中,L表示圖像的亮度,div 表示散度,?表示梯度,c(x,y,t)為傳導(dǎo)函數(shù),時間t為尺度參數(shù)。圖像的復(fù)雜程度由t決定,t的值越小,圖像越繁雜。傳導(dǎo)函數(shù)c對擴散自適應(yīng)圖像局部結(jié)構(gòu)起著決定性作用,其定義如下:

        其中,?Lσ表示圖像Lσ經(jīng)高斯平滑后的梯度。函數(shù)g有如下三種形式:

        其中,k表示控制擴散級別的對比度因子,其決定著邊緣信息的數(shù)量。在函數(shù)g1中對比度高的邊緣被優(yōu)先保留;在函數(shù)g2中,寬度較大的區(qū)域被優(yōu)先保留;在函數(shù)g3中,對圖像的內(nèi)部區(qū)域進行平滑處理,以便保留邊界信息。在KAZE算法中,傳導(dǎo)函數(shù)g2被采用,k值通過圖像梯度直方圖中高于70%的部分計算。

        在傳統(tǒng)的特征檢測算法中,尺度空間的引入是為了解決圖像匹配過程中尺度變化的問題,KAZE算法也引入了該理論,而尺度空間的類型是有差別的,傳統(tǒng)算法構(gòu)建的是線性的,而KAZE 算法則是非線性的。KAZE算法始終使用與最初的圖像一致的分辨率,而不是傳統(tǒng)算法中每組都需要降采樣。圖1 展示了兩種尺度空間的對比效果。

        圖1 不同演化時間的高斯和非線性尺度空間比較

        從圖1分析可知,非線性擴散濾波比高斯濾波更好地保留了圖像邊緣以及細節(jié)信息。

        非線性偏微分方程不存在解析解,所以普遍利用數(shù)值分析求解出近似解。以往使用顯式差分格式的求解辦法必須采取小步長,收斂較慢,KAZE 算法采用加性算子分裂(Additive Operator Splitting,AOS)算法使用非線性擴散濾波,其可以構(gòu)建具有任意步長的非線性尺度空間,由于非線性偏微分方程不存在解析解,因此,微分方程的解通過數(shù)值分析方法近似求得。KAZE 算法采取隱式差分形式將方程離散化,如式(6)所示:

        式中,I是單位矩陣,ti是進化時間,Al是三對角矩陣,Al(Li)為圖像L在維度l上的傳導(dǎo)矩陣。

        2.2 非線性尺度空間特征點檢測

        KAZE 算法進行特征點提取的過程與SIFT 算法大致相同,都是尋找不同尺度歸一化后的Hessian 矩陣局部極大值點來完成的。Hessian 矩陣的計算公式如下所示:

        其中,σ為尺度參數(shù)σi的整數(shù)值;Lxx、Lyy、Lxy均為L的二階微分。在搜索特征點的過程中,全部的像素點都要同其相鄰位置的點進行對比,當(dāng)該點的值大于其所在圖像域和尺度域中的每一個相鄰點,就將其當(dāng)作極值點。理論上,在目前尺度及其相鄰尺度下,選擇規(guī)格為σi×σi的3個矩形窗口作為對比范圍。為了提高搜索速度,通常情況下將矩形窗口的尺寸固定為3×3,即該點的比較范圍變?yōu)橐栽擖c為中心的相同尺度上的8 個相鄰點和其相鄰尺度上的各9個點。

        在提取到特征點后,需要對特征點的位置進行準(zhǔn)確定位。在KAZE算法中,利用子像元插值法精確確定特征的位置。其使用泰勒展開式確定亞像素的精確位置,計算公式如下:

        其中,x表示特征點的位置標(biāo)準(zhǔn)。特征點的亞像素坐標(biāo)解為:

        2.3 特征向量描述與匹配

        特征點的主方向是由局部圖像結(jié)構(gòu)來決定的。KAZE 算法所使用的辦法與SURF 算法大致相同,如果特征點的尺度參數(shù)設(shè)定為σi,那么搜索半徑就是6σi。對搜索范圍內(nèi)相鄰點的一階微分值做高斯加權(quán)運算,并且通過距離的遠近決定特征點的響應(yīng)貢獻值大小,距離較近的值較大,距離較遠的值較小;把這部分值看作向量空間中的一組點,利用角度為60°的扇形窗口,搜索整個圓形區(qū)域,并將這些點通過向量疊加,求出最大向量所在的角度,即為主方向。

        對于尺度參數(shù)為σi的特征點,在梯度圖像上圍繞特征點選取一個范圍是24σi×24σi的矩形,然后把窗口分割成4×4個子區(qū)域,每一小塊的面積為 9σi×9σi,鄰近的子區(qū)域有寬度為2σi的交疊帶。每個子區(qū)域都用一個高斯核(σ1=2.5σi)做加權(quán)運算,然后計算長度為4 的子區(qū)域描述向量:

        再通過其他大小為4×4的高斯窗口(σ2=1.5σi)對所有子區(qū)域的向量dv做加權(quán)運算,最后對向量做歸一化處理。這樣就得到了4×4×4=64維的描述向量。

        3 改進KAZE算法

        KAZE 算法雖然在一般圖像的特征點檢測方面具有良好的性能,但是對于光照不均圖像的特征點檢測效果并不理想,對光照不均圖像之間的匹配不準(zhǔn)確,并不能保留邊界區(qū)域的躍變,而平滑紋理區(qū)域,非線性擴散方程中,如何濾波是由圖像的梯度值來確定的,梯度值大的地方,平滑強度要小,梯度值小的地方,平滑強度要大。然而,梯度值并不能完全區(qū)分圖像的邊界性邊緣和紋理性邊緣,某些圖像中的紋理性邊緣梯度值會大于邊界性邊緣的梯度值,這樣會導(dǎo)致某些紋理區(qū)域的擴散率小于邊界區(qū)域的,不能完全將紋理區(qū)域平滑化和保留邊界,需要在非線性擴散方程中添加一種機制來區(qū)分紋理區(qū)域和邊界區(qū)域。因此,本文針對KAZE 算法進行改進。首先,在非線性尺度空間構(gòu)造階段,將紋理抑制算法嵌入到非線性擴散方程中,用來削弱紋理性邊緣的梯度值,突出圖像中的邊界性邊緣,使得圖像在特征點檢測過程中能夠更準(zhǔn)確地檢測出特征點的位置。其次,對圖像的光照分量進行自適應(yīng)校正,使得圖像的清晰度更高,亮度更加均勻,提升特征點檢測數(shù)量與精確度,使得圖像間的匹配更加準(zhǔn)確。最后使用歐氏距離對特征向量進行匹配。

        3.1 紋理抑制

        通過神經(jīng)生理學(xué)的實驗發(fā)現(xiàn),初級視皮層(V1 區(qū))的神經(jīng)元在從所觀察到的場景中提煉物體的邊緣信息中起著十分關(guān)鍵的作用。V1區(qū)神經(jīng)元的所有感受野有它自己的一塊小的興奮區(qū)域,這片區(qū)域被稱為經(jīng)典感受野(Classical Receptive Field,CRF),而附近的較大一片區(qū)域則是其鄰近單位所形成的抑制區(qū),這片區(qū)域被稱為非經(jīng)典感受野(non-Classical Receptive Field,nCRF)。側(cè)抑制的機制可以簡單用圖2 說明,圖2(a)是神經(jīng)元的復(fù)合感受野,分為環(huán)形的非經(jīng)典感受野和中心的圓形經(jīng)典感受野。圖2(b)是一幅由線狀紋理生成的圖。Grigorescu 等使用Gabor 模型模仿經(jīng)典感受野的結(jié)果,并運用非經(jīng)典感受野的抑制特性[13],利用圓環(huán)形抑制區(qū)域采取高斯差分(Difference of Gaussian,DoG)模型來計算其距離權(quán)值。

        圖2 側(cè)抑制機制

        紋理抑制機制具有削弱圖像紋理性梯度的作用,因此將借鑒紋理抑制的原理用于非線性擴散方程中進行紋理抑制[14]。對梯度進行紋理抑制的步驟如下:

        (1)計算初始圖像I的梯度幅度:

        (2)模擬神經(jīng)元的環(huán)形抑制區(qū),構(gòu)造尺度相差3 倍的高斯差值系數(shù)模板:

        將DoG中的負值置0,并進行歸一化:

        權(quán)重系數(shù)模板中不為0的區(qū)域近似為一個圓環(huán),其三維示意圖如圖3所示,因此模擬了神經(jīng)元的環(huán)形抑制區(qū)。

        圖3 側(cè)抑制權(quán)重系數(shù)模板

        (3)權(quán)重系數(shù)模板與圖像梯度值作卷積,得到圖像的抑制量:

        (4)計算紋理抑制后的圖像梯度幅度:

        紋理抑制算法中,抑制力度α直接決定了抑制量的大小,當(dāng)α較大時,對紋理性邊緣的抑制效果較強,但也會削弱一些邊界性邊緣,特別是多個邊界的交匯處,而當(dāng)α較小時,對紋理的抑制能力較弱。因此,參考文獻[14],將α設(shè)置為一個數(shù)值較大的固定值1.2,這是為了能使非線性擴散在較少的迭代次數(shù)下產(chǎn)生較大的紋理抑制效果。

        (5)將紋理抑制的算法嵌入到非線性擴散方程中:

        由上式可以看出,原方程圖像的梯度幅度替換為了紋理抑制過后的圖像,這樣可以使得紋理性邊緣和邊界性邊緣得到進一步的分離,紋理區(qū)域最終會得到平滑,邊界區(qū)域得到保留,以實現(xiàn)正確的光照估計。

        圖4 中的(a)是沒有經(jīng)過紋理抑制的光照反射分量,(b)則是經(jīng)過紋理抑制的光照反射分量,對比(a)和(b)可以發(fā)現(xiàn),有紋理抑制的圖像保留了圖像較大的邊界信息,使得圖像更加平滑,保留了大部分的圖像細節(jié),無紋理抑制的圖像中邊界信息較少,并且很少一部分的圖像細節(jié)會保存在光照分量里。所以利用紋理抑制方法能更好地保留圖像區(qū)域邊界的信息和圖像細節(jié)。

        圖4 紋理抑制對圖像邊緣檢測的影響

        3.2 自適應(yīng)Gamma增強

        Retinex 理論[15]認為圖像是由亮度分量和反射分量組成。本文算法首先將圖像從RGB 顏色空間轉(zhuǎn)換到HSV 顏色空間,然后對圖像的亮度分量V(x,y)進行處理,保留飽和度分量S(x,y)和色度分量H(x,y)。最后再將圖像從HSV顏色空間變換到RGB顏色空間。

        (1)計算光照分量與反射分量

        利用高斯濾波器G(x,y)對亮度圖像V(x,y)進行卷積可獲得圖像的光照分量:

        由此,反射分量R(x,y)也可以被分離出來:

        (2)光照分量的Gamma校正

        計算出光照分量后對其進行自適應(yīng)校正:

        Lco(x,y)表示校正過后的光照分量,γ(x,y)為Gamma校正系數(shù)矩陣,pw(l)為對應(yīng)于各亮度值的權(quán)值分布函數(shù):

        p(l)是亮度分量的概率密度函數(shù),pmax為p(l)的最大值,pmin為p(l)的最小值,p(l)可通過下式求得:

        nl為對應(yīng)的亮度所含像素數(shù),np為亮度分量包含的像素總數(shù)。最后將校正后的光照分量Lco(x,y)與反射分量R(x,y)合并得到最后的亮度圖像V(x,y)。

        該算法主要針對圖像的光照分量進行自適應(yīng)校正,首先統(tǒng)計對應(yīng)亮度下所含像素數(shù)值,并求得亮度分量的概率密度函數(shù),然后再統(tǒng)計其最大值與最小值,計算各亮度值的權(quán)值分布函數(shù),最后求得Gamma 校正系數(shù)矩陣,對光照分量進行校正后,與反射分量做卷積,合并得到最后的亮度圖像,校正后的圖像與原圖像相比,不僅能顯著提高圖像全局和局部區(qū)域的清晰度,而且使圖像的動態(tài)范圍更佳,增強效果更為自然。

        4 實驗結(jié)果與分析

        4.1 實驗環(huán)境與數(shù)據(jù)集

        本文實驗以MATLAB R2018a為實驗平臺,在Window10上運行,處理器為Intel?Core? i5-8300H CPU @2.30 GHz 2.30 GHz,內(nèi)存為16.0 GB。為驗證本文算法的匹配效果,實驗采用Vonikakis V和Chrysostomou D[16-17]局部對稱特征配準(zhǔn)實驗所用圖像數(shù)據(jù)集,該圖像數(shù)據(jù)庫具有更多種成像條件,包涵不同程度的均勻和光照不均圖像,本文選用Phos 圖像數(shù)據(jù)庫中的五組圖像。每組圖像選取兩張圖像進行匹配,如圖5所示。

        4.2 算法對比分析

        為了驗證本文所提出算法的可靠性及優(yōu)越性,對傳統(tǒng)的 SIFT 算法、SURF 算法、KAZE 算法以及本文算法進行對比,并統(tǒng)計各種算法所檢測到光照不均圖像的特征點數(shù)目,以及匹配準(zhǔn)確率。表1給出了分別使用SIFT算法、SURF算法、KAZE算法和本文算法對Phos數(shù)據(jù)集右側(cè)圖像進行特征點提取的數(shù)目進行比較。從表中可以看出SURF 算法針對光照不均圖像所能提取的特征點數(shù)目最少,并且在第二個數(shù)據(jù)集中檢測到的特征點數(shù)量過于稀少,有很多圖像所表達出的關(guān)鍵信息都沒有檢測出來,SIFT 算法所檢測的數(shù)目較少,雖然相較SURF算法來說,可以檢測出更多的特征點,但是在數(shù)據(jù)集2中很多關(guān)鍵信息也沒有檢測到。KAZE 算法和本文算法所提取的數(shù)目最多。但是KAZE算法對數(shù)據(jù)集3和5的光照不均圖像檢測中,邊緣特征點漏檢測現(xiàn)象嚴重,其檢測出的特征點無法很好地代表圖像所要表達的信息。而改進算法能夠檢測出更多特征點的同時,對圖像邊緣的特征點檢測效果也較好,更適用于光照不均圖像。

        圖5 實驗用圖

        表1 各算法檢測光照不均圖像特征點對比結(jié)果

        為了進一步驗證本文所提出算法的匹配高效性,將實驗所用數(shù)據(jù)集的五組圖像分別運用四種算法即對SIFT、SURF、KAZE 和本文算法的匹配效果圖進行比較,進一步增強對比結(jié)果,證明本文算法的優(yōu)越性。實現(xiàn)效果如圖6~10所示。

        圖6 Phos2_scence1實驗結(jié)果

        圖7 Phos2_scence2實驗結(jié)果

        圖8 Phos2_scence3實驗結(jié)果

        圖6~10 為采用 SIFT、SURF、KAZE 及本文算法對Phos 圖像數(shù)據(jù)庫中的五組光照不均圖像匹配結(jié)果對比圖。通過上面五組圖像的對比結(jié)果可以直觀地看出,傳統(tǒng)算法對圖像中光照不均和較暗區(qū)域的特征點檢測效果不太理想,雖然SIFT算法提供了較多的特征點,但是SIFT算法出現(xiàn)較多誤匹配;SURF算法匹配點對相對稀少,誤匹配相比SIFT 算法較低;并且從圖9 中可以看出傳統(tǒng)算法對邊緣區(qū)域的特征點檢測效果不太理想,很多重要的特征點都沒有被檢測到,而KAZE算法和本文算法特征點檢測較多,匹配均勻,但相較于KAZE算法,本文算法能檢測出更多特征點,并且匹配效果良好。以上只是主觀地判斷本文算法的優(yōu)劣性,為了進一步驗證本文算法的有效性,相關(guān)參數(shù)將通過折線圖的形式直觀顯示出來,并將匹配率進行對比,進一步增強對比效果,證明本文算法的優(yōu)越性。

        圖9 Phos2_scence4實驗結(jié)果

        圖10 Phos2_scence5實驗結(jié)果

        圖像配準(zhǔn)實驗中,通過常用的評價指標(biāo)準(zhǔn)則[18-19]查全率(Recall)和錯誤率(1?Precision)評價圖像配準(zhǔn)算法的優(yōu)劣性。

        查全率是指圖像檢索出正確的配準(zhǔn)點和圖像中所有配準(zhǔn)點對(包括已配準(zhǔn)和應(yīng)配準(zhǔn)但未通過算法配準(zhǔn)的點)的比率:

        錯誤率是指錯誤配準(zhǔn)點占通過算法得到的總配準(zhǔn)點的比重:

        實驗對 SIFT 算法、SURF 算法、KAZE 算法以及本文算法進行比較,通過查全率和錯誤率比較算法優(yōu)劣,如圖11所示。

        對上述5 組圖像進行配準(zhǔn),評價4 種算法的配準(zhǔn)性能,根據(jù)圖6 可以看出,SIFT 算法雖然能夠檢測出大量的特征點,但是容易出現(xiàn)誤匹配的狀況,SURF算法檢測出的特征點數(shù)量相對較小,在數(shù)據(jù)集Phos2_scence2 中的檢測效果相對較好,查全率最高達到0.9左右,但是在圖10中,其特征檢測效果較差,并出現(xiàn)了明顯的誤匹配現(xiàn)象,從整體效果來看,KAZE 算法以及本文算法的效果明顯更好,而本文算法的查全率最高達到0.8左右,相較于SIFT、SURF、KAZE算法平均查全率分別提高了26個百分點、5個百分點和5.5個百分點。因此可以看出,本文算法對于光照不均圖像具有更好的配準(zhǔn)效果,并且能夠更好地檢測圖像邊緣的特征點,對于圖像明暗區(qū)域邊界處的效果也明顯優(yōu)于傳統(tǒng)算法。

        圖12是四種算法的準(zhǔn)確率對比圖,從圖中可以直觀地看出,在數(shù)據(jù)集Phos2_scence2中,SURF算法優(yōu)于KAZE算法,在剩余的4個數(shù)據(jù)集下,KAZE算法要優(yōu)于SURF算法和SIFT算法。本文算法對于數(shù)據(jù)集Phos2_scence3的匹配效果最好,準(zhǔn)確率最高,整體結(jié)果要優(yōu)于傳統(tǒng)算法。

        圖11 不同算法配準(zhǔn)實驗曲線

        圖12 四種算法的準(zhǔn)確率對比

        表2是各算法配準(zhǔn)分數(shù)的對比結(jié)果,SIFT算法檢測出的匹配對數(shù)最多,但是正確匹配較少,因此分數(shù)較低,SURF 算法和KAZE 算法相對分數(shù)較高,結(jié)合圖7 也可以看出,SURF算法在數(shù)據(jù)集Phos2_scence2中效果要好于KAZE 算法,本文算法在數(shù)據(jù)集Phos2_scence1 和Phos2_scence4中的匹配分數(shù)分別高于KAZE算法5.5個百分點和4.4 個百分點,但是對于數(shù)據(jù)集Phos2_scence2和Phos2_scence3匹配分數(shù)分別高于KAZE算法31個百分點和39.3 個百分點。本文算法的平均正確率較SIFT、SURF、KAZE算法分別提高了48.5個百分點、22.1個百分點和20.1個百分點。

        表2 各算法匹配分數(shù)對比結(jié)果

        最后,對改進算法在不同數(shù)據(jù)集的實驗進行歸納總結(jié),在數(shù)據(jù)集 Phos2_scence1、Phos2_scence4、Phos2_scence5中,主要選取了光照程度較高,紋理細節(jié)內(nèi)容較少的圖片進行測試,從表1 中可以看出,檢測的特征點數(shù)量相對較少,從圖11中可以看出,改進算法的平均匹配正確率略高于原算法。但是在數(shù)據(jù)集Phos2_scence2和Phos2_scence3中,主要選取顏色鮮明、邊緣和紋理細節(jié)較為豐富的圖像進行測試,從表1 中可以看出,改進算法在該數(shù)據(jù)集上檢測出了更多的特征點,并且從圖11和表2中可以看出,改進算法的平均正確率高于原算法35個百分點。由此可以看出,本文算法的匹配正確率最高,對于光照不均圖像的特征點檢測效果最好,并且對于紋理細節(jié)豐富的圖像匹配效果更佳。

        5 結(jié)語

        本文針對光照不均圖像配準(zhǔn)不佳的問題,提出了改進的KAZE 算法,并介紹了改進算法的基礎(chǔ)原理,并通過實驗驗證了算法的優(yōu)越性。實驗結(jié)果表明,本文算法針對光照不均圖像能檢測出更多的特征點,并且能夠提高正確匹配率,匹配效果良好。在日常生活中,許多拍攝出的室內(nèi)外圖像大多是光照不均勻圖像,而傳統(tǒng)算法對其進行特征點檢測效果不太理想,本文算法能夠很好地解決這一問題,適用性較為廣泛。由于本文圖像匹配算法在非線性擴散方程中嵌入了紋理抑制方法和自適應(yīng)增強算法,所以該算法的實時性欠佳,雖然提高了準(zhǔn)確率,但是時間也相對較長,算法整體的時間復(fù)雜度較高,今后可以對非線性擴散方程的計算進行加速,所以對于光照不均圖像的實時性配準(zhǔn)問題仍需要進一步研究。

        猜你喜歡
        尺度空間紋理光照
        節(jié)能環(huán)保 光照萬家(公益宣傳)
        節(jié)能環(huán)保光照萬家(公益宣傳)
        基于AHP的大尺度空間域礦山地質(zhì)環(huán)境評價研究
        基于BM3D的復(fù)雜紋理區(qū)域圖像去噪
        軟件(2020年3期)2020-04-20 01:45:18
        春光照瑤鄉(xiāng)
        使用紋理疊加添加藝術(shù)畫特效
        TEXTURE ON TEXTURE質(zhì)地上的紋理
        Coco薇(2017年8期)2017-08-03 15:23:38
        居住區(qū)園林空間尺度研究
        魅力中國(2016年42期)2017-07-05 21:16:42
        消除凹凸紋理有妙招!
        Coco薇(2015年5期)2016-03-29 23:22:15
        基于降采樣歸一化割的多尺度分層分割方法研究
        国产视频导航| 日韩精品精品一区二区三区| 日韩www视频| 亚洲乱在线播放| 精品女同一区二区三区不卡| 日本女优禁断视频中文字幕| 国产精品成人自拍在线观看| 国产人妖伦理视频在线观看| 口爆吞精美臀国产在线| 免费国产不卡在线观看| 国产免费人成视频网站在线18| 国产一区二区三区在线影院| 99精品国产综合久久麻豆| 亚洲av无码成人精品国产| 日韩 无码 偷拍 中文字幕| 猫咪av成人永久网站在线观看| 亚洲国产婷婷六月丁香| 东北少妇不带套对白| 日本护士口爆吞精视频| 久久亚洲精品成人AV无码网址 | 成人无码a级毛片免费| 国产精品乱子伦一区二区三区| 蜜桃av无码免费看永久| 亚洲中文高清乱码av中文| 香蕉蜜桃av一区二区三区| 精品在线视频在线视频在线视频| 米奇欧美777四色影视在线| 中国孕妇变态孕交xxxx| 国产成人久久精品一区二区三区| 成人午夜福利视频| 国产二级一片内射视频插放| 日本少妇人妻xxxxx18| 国产av专区一区二区三区 | 亚洲av无码电影网| 大陆一级毛片免费播放| 巨臀中文字幕一区二区| 国产在视频线精品视频二代 | 国产av精选一区二区| 日韩av一区二区三区高清| 亚洲国产日韩a在线乱码| 国产免费av片在线播放|