亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于區(qū)域特性的Curvelet變換圖像融合算法

        2015-04-12 00:00:00王坤臣孫權(quán)森
        現(xiàn)代電子技術(shù) 2015年2期

        摘 "要: 為克服小波變換在二維或更高維度空間分析中的缺陷,提高圖像融合質(zhì)量,提出基于二代Curvelet變換的圖像融合改進(jìn)算法。引入可以有效分析圖像中的曲線奇異性,能更加合理處理圖像邊緣信息的Curvelet變換對(duì)圖像進(jìn)行分解,對(duì)圖像分解后的低頻部分采用自適應(yīng)閾值的區(qū)域方差高斯加權(quán)融合方法,增加圖像像素之間的關(guān)聯(lián),并有效保留細(xì)節(jié)和邊緣。對(duì)高頻部分采用區(qū)域能量融合方法來降低噪聲,增強(qiáng)圖像的細(xì)節(jié)。采用該算法對(duì)多組不同圖像進(jìn)行融合實(shí)驗(yàn),并用信息熵、交叉熵、相關(guān)系數(shù)、空間頻率等對(duì)融合圖像進(jìn)行客觀評(píng)價(jià)。實(shí)驗(yàn)結(jié)果表明,該算法優(yōu)于傳統(tǒng)的融合規(guī)則和算法,能在保持更好清晰度的同時(shí)獲得更豐富的圖像內(nèi)容。

        關(guān)鍵詞: 圖像融合; Curvelet變換; 自適應(yīng)閾值; 區(qū)域特性; 區(qū)域頻率

        中圖分類號(hào): TN919?34; TP391 " " " " " " " " 文獻(xiàn)標(biāo)識(shí)碼: A " " " " " " " " " " "文章編號(hào): 1004?373X(2015)02?0077?06

        Image fusion algorithm with Curvelet transform based on regional feature

        WANG Kun?chen, SUN Quan?sen

        (Department of Computer Science and Engineering, Nanjing University of Science amp; Technology, Nanjing, 210094, China)

        Abstract: In order to overcome the weakness of wavelet transform in 2D or higher dimensional spatial analysis and improve quality of image fusion, a modified image fusion algorithm based on Curvelet transform is proposed. Curvelet transform which can effectively analyze singularity of a curve and rationally process edge information in an image is introduced to decompose images. An adaptive threshold regional variance and Gaussian?weighted fusion algorithm is used in low?frequency region to enhance the correlation between pixels in an image and preserve its details and edges effectively. The regional energy fusion method is applied in high?frequency region to reduce noise and enhance the details of the image. Many fusion experiments of different images were carried out with the algorithm. The fusion results were evaluated by information entropy, cross entropy, correlation coefficient and space frequency. The experiment results indicate that the proposed algorithm is more outstanding than the conventional fusion rules and methods, and can obtain better resolution and more rich image content.

        Keywords: image fusion; Curvelet transform; adaptive threshold; regional feature; regional frequency

        0 "引 "言

        近些年來,多傳感器圖像融合理論研究日漸深入,應(yīng)用領(lǐng)域也日益廣泛,在醫(yī)學(xué)[1]、機(jī)器視覺、環(huán)境保護(hù)和遙感[2]等領(lǐng)域都取得了比較廣泛的關(guān)注和應(yīng)用。圖像融合是指將配準(zhǔn)后的圖像采用一定的方法融合在一起的技術(shù),由于待融合的多幅圖像之間具有信息的冗余性和互補(bǔ)性,所以融合過程需要在降低冗余信息影響的同時(shí)盡量提取互補(bǔ)信息。

        早期的圖像融合嘗試均是在空間域上實(shí)現(xiàn)的,運(yùn)用的主要算法有加權(quán)平均法、主成分分析法、Brovery變換融合算法。隨后,陳武、曹喆等人將小波變換應(yīng)用到圖像融合領(lǐng)域,提出基于小波系數(shù)方向的子帶系數(shù)選擇策略[3?4]。小波分析兼具多分辨率和時(shí)頻局部化特性,成為圖像融合的重要技術(shù)手段。多尺度分析工具[5?6]不斷的發(fā)展,本文將真正意義上的二維信號(hào)分析工具Curvelet引入圖像融合,根據(jù)圖像的特點(diǎn),提出一種基于區(qū)域自適應(yīng)特性的Curvelet域融合算法,對(duì)Curvelet分解后的低頻和高頻子帶進(jìn)行融合操作,在低、高頻子帶采用不同的融合規(guī)則。實(shí)驗(yàn)表明,本文算法優(yōu)于傳統(tǒng)的圖像融合算法。

        1 "Curvelet變換

        1999年,Candes和Donoho等人在Ridgelet變換的基礎(chǔ)上提出了連續(xù)曲波(Curvelet一代)變換,然而其變換過程數(shù)學(xué)實(shí)現(xiàn)較為復(fù)雜。于是Candes等人在2002年提出第二代Curvelet變換,并于2005年提出兩種基于第二代Curvelet變換理論的快速離散實(shí)現(xiàn)方法[7]。二代Curvelet較第一代變換更加簡單,冗余度更低,運(yùn)算更為迅速,實(shí)現(xiàn)也更加方便。與傳統(tǒng)小波變換相比,Curvelet變換更適于刻畫圖像的幾何特征,如曲線、直線等,采用“楔形基”來逼近[C2](二階連續(xù)可微)的奇異點(diǎn),充分考慮奇異點(diǎn)的幾何形狀,并具有任意角度的方向性(各向異性),更適合對(duì)圖像的處理與應(yīng)用,此外,Curvelet變換對(duì)圖像的幾何特征(曲線、直線)具有更好的系數(shù)表達(dá)能力,采用少數(shù)較大的Curvelet變換系數(shù)進(jìn)行表示,克服了小波變換傳播重要特征到多個(gè)尺度上的缺陷,變換后能量更加集中,更利于跟蹤和分析圖像中的重要特征[8]。

        Curvelet變換有兩種不同的實(shí)現(xiàn)算法,這兩種方法的主要區(qū)別在于不同尺度和方向下空間網(wǎng)格的選擇方法不同。下面簡單介紹兩種方法[9]:

        (1) USFFT算法

        對(duì)[f[t1,t2]∈L2(R2)]做二維FFT變換得到Fourier采樣序列[F[n1,n2]],其中[-n2≤n1,n2lt;n2];

        針對(duì)頻域中不同尺度和方向參數(shù)[(j,l)],對(duì)[F[n1,n2]]進(jìn)行插值得到[F[n1,n2-n1tanθ1]],其中[(n1,n2)∈Pj];

        將[F[n1,n2-n1tanθ1]]與擬合窗口[Uj(width=length2]相乘之后得到如下結(jié)果,即[Fj,l[n1,n2]=][F[n1,n2-n1tanθ1]Uj(n1,n2)];

        對(duì)序列[Fj,l[n1,n2]]做二維FFT逆變換,得到Curvelet系數(shù)[CD(j,l,k)]。

        (2) Wrapping算法

        對(duì)[f[t1,t2]∈L2(R2)]做二維FFT變換得到Fourier采樣序列[F[n1,n2]],其中[-n2≤n1,n2lt;n2];

        針對(duì)頻域中不同尺度和方向參數(shù)[(j,l)],用擬合窗[Uj(width=length2)]乘以[F[n1,n2-n1tanθ1]];

        圍繞原點(diǎn)Wrap局部化F,[Fj,l[n1,n2]=][WUj,lF[n1,n2]];

        對(duì)序列[Fj,l[n1,n2]]做二維FFT逆變換,得到Curvelet系數(shù)[CD(j,l,k)]。

        對(duì)比以上兩種方法,都是先通過FFT變換到頻域,再在頻域中進(jìn)行局部化,然后對(duì)局部化后的結(jié)果做二維FFT逆變換得到離散Curvelet變換系數(shù)。

        2 "基于區(qū)域特性的Curvelet圖像融合算法

        2.1 "圖像融合流程

        基于Curvelet變換的圖像融合的實(shí)現(xiàn)流程如圖1所示。算法的實(shí)現(xiàn)步驟表述如下:

        (1) Curvelet分解。將配準(zhǔn)好的源圖像A和B進(jìn)行Curvelet變換,得到相應(yīng)的Curvelet系數(shù)集合。分解尺度和方向?yàn)槟J(rèn)值。分解后得到的矩陣C為一個(gè)胞矩陣,其中[Cjl]就表示是一個(gè)二維矩陣,代表尺度[j]、方向[l]上的所有系數(shù),高尺度對(duì)應(yīng)高頻系數(shù)。

        (2) 圖像融合。對(duì)于分解后的低頻子帶和所有高頻子帶,使用基于區(qū)域特性的融合規(guī)則進(jìn)行判別和融合處理,得到各尺度上融合后的Curvelet系數(shù)。

        (3) Curvelet重構(gòu)。重構(gòu)是分解的逆過程,對(duì)融合后的Curvelet系數(shù)進(jìn)行Curvelet逆變換,得到重構(gòu)的融合圖像,該圖像包含原有多幅圖像中的信息。

        lt;E:\王芳\現(xiàn)代電子技術(shù)201502\Image\42t1.tifgt;

        圖1 基于Curvelet的圖像融合流程圖

        2.2 "融合規(guī)則研究

        融合規(guī)則是圖像融合算法的核心,其對(duì)最終的融合效果有著決定性作用。分解后的低頻和高頻子帶具有不同的物理信息,低頻子帶表征圖像的近似部分,而高頻子帶表征圖像的細(xì)節(jié)部分。通常對(duì)于多分辨率融合,在高頻和低頻上采用不同的融合規(guī)則??偟膩碚f,現(xiàn)有的融合規(guī)則可分為兩大類:基于像素的融合規(guī)則和基于區(qū)域的融合規(guī)則。

        2.2.1 "融合規(guī)則分類

        (1) 基于像素的融合規(guī)則

        Burt最早提出基于像素選取的融合規(guī)則,基于像素點(diǎn)絕對(duì)值最大來選取最終的融合像素值。Petrovic等人提出考慮分解層內(nèi)各子帶圖像相關(guān)性的像素選取融合規(guī)則。近幾年,融合規(guī)則層出不窮,陳武等人針對(duì)小波處理圖像邊緣的不足,根據(jù)人類視覺系統(tǒng)對(duì)局部對(duì)比度敏感的特性,采用了基于區(qū)域?qū)Ρ榷鹊南袼剡x取融合規(guī)則?;谙袼氐娜诤弦?guī)則具有實(shí)現(xiàn)簡單、融合速度快的優(yōu)點(diǎn),但其僅僅以單個(gè)像素作為融合對(duì)象,并未考慮圖像像素間的相關(guān)性,因此融合效果較差,適用場合也非常有限。

        (2) 基于區(qū)域的融合規(guī)則

        考慮到圖像像素之間的相關(guān)性,Burt等人提出基于區(qū)域特性選擇的加權(quán)平均融合規(guī)則,將系數(shù)值的融合選擇與其所在的局部區(qū)域聯(lián)系起來。Qingping Li等人則利用區(qū)域頻率劃分區(qū)域進(jìn)行融合實(shí)驗(yàn)[10]。Curvelet提出后,玄立超等人提出了基于Curvelet變換的區(qū)域能量高頻融合策略[11]?;趨^(qū)域的融合規(guī)則就是將某位置鄰域的能量、梯度、方差等特征作為一種測度來指導(dǎo)該位置處的系數(shù)選取,鄰域大小可以是3×3、5×5等。由于基于窗口區(qū)域的融合規(guī)則考慮了圖像相鄰像素間的相關(guān)性,因此減少了融合像素的錯(cuò)誤選取,從而提高了融合效果。

        結(jié)合現(xiàn)有融合規(guī)則的優(yōu)點(diǎn)和不足,本文提出以下融合規(guī)則對(duì)高、低頻分別處理。對(duì)低頻采用基于區(qū)域方差顯著性的加權(quán)融合規(guī)則,充分考慮到鄰域像素間的關(guān)聯(lián)性,并有效保留細(xì)節(jié)和邊緣。高頻采用區(qū)域能量匹配融合規(guī)則,抑制噪聲的同時(shí)能更好反映圖像區(qū)域特征。

        2.2.2 "低頻子帶融合規(guī)則

        低頻子帶是包含了原圖像的主體信息,決定了圖像的大致輪廓。這里采取基于區(qū)域方差顯著性的加權(quán)融合規(guī)則對(duì)低頻系數(shù)進(jìn)行處理,并將匹配度與自適應(yīng)閾值比較來確定融合策略。實(shí)現(xiàn)過程如下:

        (1) 計(jì)算區(qū)域方差顯著性

        [G(X,p)=q?Qw(q)C(X,q)-u(X,p)2] " " " "(1)

        式中:[G(X,p)]為以點(diǎn)[p]為中心的局部區(qū)域[Q]的區(qū)域方差顯著性;[w(q)]為權(quán)值,權(quán)值通過行和列的高斯分布加權(quán)相加得到;[C(X,q)]為區(qū)域[Q]形成的矩陣;[u(X,p)]為圖像X的低頻系數(shù)矩陣內(nèi)區(qū)域[Q]的平均值。

        計(jì)算區(qū)域方差匹配度:[M(p)=2?q?Qw(q)C(A,q)-u(A,p)C(B,q)-u(B,p)G(A,p)+G(B,p)] "(2)

        式中:[M(p)]表示圖像A和B低頻系數(shù)在[p]點(diǎn)的局部區(qū)域方差匹配度,數(shù)值在0~1之間變化,其值越小表明兩幅圖像低頻系數(shù)在[p]點(diǎn)的相關(guān)程度越低。

        融合策略的確定。設(shè)T為匹配度閾值,不同于傳統(tǒng)的經(jīng)驗(yàn)選取[8?9],此處[T]為自適應(yīng)閾值,其定義為:

        [T=2G(A,p)?G(B,p)G(A,p)2+G(B,p)2] " " "(3)

        式中:[G(A,p)]和[G(B,p)]分別為源圖像A,B區(qū)域方差顯著性。當(dāng)[M(p)lt;T]時(shí),采用選擇融合策略:

        [C(F,p)=C(A,p),G(A,p)≥G(B,p)C(B,p),G(A,p)lt;G(B,p)] " (4)

        當(dāng)[M(p)≥T]時(shí),采用加權(quán)平均融合策略:

        [C(F,p)=WmaxC(A,p)+WminC(B,p),G(A,p)≥G(B,p)WminC(A,p)+WmaxC(B,p),G(A,p)lt;G(B,p)] (5)

        其中,

        [Wmin=0.5-0.51-M(p)1-T] " " "(6)

        [Wmax=1-Wmin] " " " " "(7)

        式中:[C(A,p)],[C(B,p)]分別為圖像A,B的低頻系數(shù)在[p]點(diǎn)的值。

        該策略是基于鄰域像素間的關(guān)聯(lián)性,并且是基于區(qū)域方差,可以有效地保留細(xì)節(jié)和邊緣,因此采用該策略得到的融合圖像將比較清晰,細(xì)節(jié)比較豐富。

        2.2.3 "高頻子帶融合規(guī)則

        不同尺度及方向下的高頻系數(shù)矩陣,其中包含了圖像的細(xì)節(jié)特征,由于人眼對(duì)于單個(gè)像素的灰度取值并不敏感,圖像清晰度是由區(qū)域內(nèi)像素共同體現(xiàn)的。因此傳統(tǒng)的基于絕對(duì)值取大的高頻融合規(guī)則是比較片面,忽略了像素之間的關(guān)聯(lián)性,并且忽略了圖像之間的相關(guān)性。所以這里引入基于局部能量匹配的融合規(guī)則,可以有效抑制噪聲,并且能更好地反映圖像的區(qū)域特征。實(shí)現(xiàn)過程如下:

        (1) 計(jì)算區(qū)域能量顯著性

        [Ej,l(m,n)=q?QCj,l(i,j)2] " " " "(8)

        式中,[Ej,l(m,n)]表示尺度[j]和方向[l]下高頻系數(shù)的局部區(qū)域能量;[Q]為以點(diǎn)[P(m,n)]為中心選取的局部區(qū)域。

        (2) 計(jì)算區(qū)域能量匹配度。[Mj,l(m,n)]的取值為0~1,取值越小表明相關(guān)程度越低。

        [Mj,l(m,n)=2q?QCAj,l(i,j)CBj,l(i,j)EAj,l(m,n)+EBj,l(m,n)] " "(9)

        (3) 融合策略的選取

        設(shè)[T1]為能量匹配度閾值,一般取0.5~1,這里根據(jù)經(jīng)驗(yàn)取0.85。當(dāng)[Mj,l(k1,k2)lt;T]時(shí),采用選擇融合策略:

        [CFj,l(m,n)=CAj,l(m,n),EAj,l≥EBj,lCBj,l(m,n),EAj,llt;EBj,l] " " " (10)

        當(dāng)[Mj,l(k1,k2)≥T]時(shí),采用加權(quán)融合策略:

        [CFj,l(m,n)=WmaxCAj,l(m,n)+WminCBj,l(m,n),EAj,l≥EBj,lWminCAj,l(m,n)+WmaxCBj,l(m,n),EAj,llt;EBj,l] (11)

        其中,

        [Wmin=0.5-0.51-Mj,l(m,n)1-T1] " " " (12)

        [Wmax=1-Wmin] " " " " " "(13)

        該策略基于區(qū)域空間能量,可以有效保留圖像的邊緣信息,能得到細(xì)節(jié)比較出眾的融合圖像。

        3 "圖像融合效果評(píng)價(jià)指標(biāo)

        對(duì)于不同融合目的的圖像,需要采用不同的評(píng)價(jià)標(biāo)準(zhǔn),從而對(duì)融合結(jié)果進(jìn)行客觀正確的評(píng)價(jià)[12]。例如,提高信息量時(shí),對(duì)于融合圖像的信息量是否增加,可以根據(jù)互信息、交叉熵、熵和標(biāo)準(zhǔn)差等指標(biāo)來評(píng)價(jià);提高圖像清晰度時(shí),往往是要求在保持原有信息不丟失的情況下,增強(qiáng)圖像的細(xì)節(jié)信息和紋理特征,評(píng)價(jià)這種目的的融合時(shí)可選用平均梯度、空間頻率等指標(biāo)來評(píng)價(jià)。需要注意的是,客觀評(píng)價(jià)法離不開主觀評(píng)價(jià),因此應(yīng)該將兩者結(jié)合起來進(jìn)行綜合評(píng)價(jià)。主觀評(píng)價(jià)主要是由人眼來觀察區(qū)分結(jié)果的好壞,但人眼分辨力有限,所以需要引入客觀評(píng)價(jià)指標(biāo)。用來評(píng)價(jià)融合結(jié)果的客觀指標(biāo)[13]如下:

        (1) 信息熵

        信息熵可以從概率分布的角度來衡量圖像的豐富程度,圖像信息熵越大,表明圖像所包含的信息量越大。熵值的大小可以反映圖像對(duì)細(xì)節(jié)的表達(dá)能力。其定義如下:

        [H=-l=0L-1p(l)log2(p(l))] " " " " (14)

        式中:[H]代表信息熵;[p(l)]表示圖像中像素灰度級(jí)為[l]的出現(xiàn)概率,即所有灰度為[l]的像素點(diǎn)數(shù)[N1]與圖像中所有像素點(diǎn)數(shù)[N]之比。

        (2) 交叉熵

        交叉熵用來反映兩幅圖像的信息差異。通過對(duì)融合圖像和源圖像交叉熵的計(jì)算,就可以得到兩幅圖像所包含信息量的差異。一般來說,交叉熵越小,表明融合圖像從源圖像中提取的信息越多,信息差異越小。其定義如下:

        [CE(A,F(xiàn))=l=0L-1PA(l)log2PA(l)PF(l)] " " (15)

        式中[PA(l)]和[PF(l)]分別為源圖像A和融合圖像F的灰度級(jí)概率分布。通常把兩幅源圖像分別和融合圖像的交叉熵的的均方根定義為均方根交叉熵[RCE]。即:

        [RCE=CE2(A,F(xiàn))+CE2(B,F(xiàn))2] " " (16)

        通過[RCE]可以表示融合圖像F和圖像A、B之間的聯(lián)合差異。一般情況下均方根交叉熵越小,融合圖像繼承的信息量越多,信息差異越小,融合效果也就越好。

        (4) 相關(guān)系數(shù)

        圖像的相關(guān)系數(shù)反應(yīng)了兩幅圖像的相關(guān)度。相關(guān)系數(shù)越大,其融合效果越好。

        其定義如下:

        [Corr(Ia,Ib)=i,j(Iai,j-eIa)(Ibi,j-eIb)i,j(Iai,j-eIa)2(Ibi,j-eIb)2] "(17)

        式中:[Iai,j],[Ibi,j]為兩幅圖像在[(i,j)]點(diǎn)的灰度值;[eIa]和[eIb]為兩幅圖像的均值。把兩幅源圖像分別和融合圖像的相關(guān)系數(shù)的均方根定義為均方根相關(guān)系數(shù)[RC],即:

        [RC=Corr(Ia,If)2+Corr(Ib,If)22] " (18)

        一般來說,均方根相關(guān)系數(shù)越大,融合圖像從源圖像中獲得的信息量越多,融合效果也就越好。

        (5) 空間頻率

        空間頻率可以反映出融合圖像的細(xì)節(jié)表達(dá)能力,所以通常作為度量圖像清晰度的指標(biāo)??臻g頻率定義為:

        [SF=RF2+CF2] " " " "(19)

        式中:[RF]和[CF]分別為行頻和列頻,[f(i,j)]為[(i,j)]處的灰度值。

        [RF=1mni=1mj=2nf(i,j)-f(i,j-1)2] (20)

        [CF=1mni=2mj=1nf(i,j)-f(i-1,j)2] (21)

        一般來講,空間頻率越大,圖像的層次越多,融合圖像就越清晰。

        4 "實(shí)驗(yàn)結(jié)果對(duì)比分析

        選用兩組不同領(lǐng)域圖像作為源圖像進(jìn)行融合實(shí)驗(yàn),第一組是醫(yī)學(xué)圖像,大小為256×256;第二組是多聚焦圖像,大小為256×256。第三組是多波段圖像,大小為512×512。實(shí)驗(yàn)中高、低頻子塊大小定義為3*3,分別采用基于低頻加權(quán)平均、高頻絕對(duì)值最大的離散小波變換(方法1)、基于低頻加權(quán)平均和高頻區(qū)域頻率的離散小波變換(方法2)、基于文獻(xiàn)[11]的Curvelet變換(方法3)、基于本文算法實(shí)現(xiàn)。

        4.1 "醫(yī)學(xué)圖像融合結(jié)果分析

        醫(yī)學(xué)圖像融合結(jié)果分析如圖2,表1所示。

        表1 "醫(yī)學(xué)圖像融合的指標(biāo)評(píng)價(jià)結(jié)果

        圖2和表1分析如下:

        (1) 基于小波變換的融合算法,基于二代Curvelet變換的融合算法的比較:

        主觀上看,基于小波變換的融合圖像(c)(d)明顯在邊緣的處理上不夠清晰,會(huì)發(fā)現(xiàn)有方塊效應(yīng),使得融合圖像沒有任何意義;而基于二代Curvelet變換的融合圖像(e)(f)就很好的保留了圖像的邊緣信息,融合圖像更加自然。

        lt;E:\王芳\現(xiàn)代電子技術(shù)201502\Image\42t2.tifgt;

        圖2 醫(yī)學(xué)圖像的融合結(jié)果圖

        (2) 傳統(tǒng)的融合算法和本文融合方法的比較:

        表1中,醫(yī)學(xué)圖像融合是為了獲得更多信息,將圖3(f)與(c)、(d)、(e)對(duì)比來看,(f)均方根交叉熵更小,即本文融合算法融合結(jié)果從源圖像繼承了更多信息。整體來看,本文算法融合結(jié)果也比其他融合結(jié)果更加清晰。綜上所述,醫(yī)學(xué)圖像的融合實(shí)驗(yàn)中,基于Curvelet變換的本文算法優(yōu)于傳統(tǒng)Curvelet、小波變換的融合算法。

        4.2 "多聚焦圖像融合結(jié)果分析

        多聚焦圖像融合結(jié)果分析如圖3,表2所示。

        lt;E:\王芳\現(xiàn)代電子技術(shù)201502\Image\42t3.tifgt;

        圖3 多聚焦圖像的融合結(jié)果圖

        圖3和表2分析如下:

        (1) 基于小波變換的融合算法,基于二代Curvelet變換的融合算法的比較:

        主觀來看,基于小波變換的融合圖像(c)、(d)在小鐘表的邊緣有虛影,使得融合圖像比較模糊,邊緣處理不夠細(xì)致。而基于Curvelet變換的圖像就沒有這一缺點(diǎn)。

        (2) 融合方法之間的對(duì)比:

        表2中,基于Curvelet變換的融合圖像包含有更豐富的信息,并且與源圖像相關(guān)性更高。對(duì)比交叉熵和相關(guān)系數(shù)可以看出,本文融合算法比文獻(xiàn)[11]融合算法從源圖像中繼承更多的信息的同時(shí)保留了更高的相關(guān)性。

        綜上所述,多聚焦圖像融合實(shí)驗(yàn)中,本文對(duì)于高、低頻的融合規(guī)則比傳統(tǒng)融合規(guī)則可獲得更好的融合效果。

        表2 多聚焦圖像融合的指標(biāo)評(píng)價(jià)結(jié)果

        4.3 "多波段遙感圖像融合結(jié)果分析

        多波段遙感圖像融合結(jié)果分析如圖4,表3所示。

        lt;E:\王芳\現(xiàn)代電子技術(shù)201502\Image\42t4.tifgt;

        圖4 多波段遙感圖像的融合結(jié)果

        表3 多波段遙感圖像融合的指標(biāo)評(píng)價(jià)結(jié)果

        圖4和表3分析如下:

        (1) 基于小波變換的融合算法,基于二代Curvelet變換的融合算法的比較:主觀來看,基于Curvelet變化的融合圖像(f)(g)相對(duì)基于小波變換的融合圖像(d)、(f)來說,圖像對(duì)比度更大,邊緣細(xì)節(jié)更清晰。

        (2) 融合方法之間的比較:表3中,從信息熵、交叉熵、相關(guān)性來看,本文融合方法都優(yōu)于傳統(tǒng)融合算法,從源圖像中繼承了更多的信息,但圖像頻率略有降低。

        綜上所述,多波段遙感圖像的融合實(shí)驗(yàn)中,基于Curvelet變換的融合算法優(yōu)于小波變換融合算法,本文算法中的高、低頻系數(shù)基于區(qū)域系數(shù)相關(guān)性法也比傳統(tǒng)的模值取大取平均方法更適用于多波段圖像的融合。

        總體來說,基于二代Curvelet變換的本文融合算法在不同領(lǐng)域的圖像融合中效果比較理想。

        5 "結(jié) "語

        本文分析了傳統(tǒng)小波變換在邊緣處理上的不足,使用了多分辨率分析中具有多尺度多方向性的二代Curvelet變換,同時(shí)提出針對(duì)高、低頻系數(shù)的融合規(guī)則,并對(duì)不同領(lǐng)域的圖像做了大量的融合實(shí)驗(yàn)。實(shí)驗(yàn)結(jié)果表明,本文融合算法能較好的保持圖像目標(biāo)信息,同時(shí)邊緣也比較清晰。但是,該算法也存在不足,Curvelet變化在圖像的細(xì)節(jié)特征方面有天然的弱勢(shì);故結(jié)合多種小波[1]、基于區(qū)域分割[14]或借助其他技術(shù)[15]使得融合圖像在保留目標(biāo)信息的同時(shí)具有更好的細(xì)節(jié)特征和邊緣輪廓是未來圖像融合的研究重點(diǎn)。

        參考文獻(xiàn)

        [1] JOSEPH Joby, BARHATTE Alka. Medical image fusion based on wavelet transform and fast curvelet transform [J]. International Journal of Engineering Development and Research, 2014, 2(1): 284?288.

        [2] 張鵬輝.紅外、微光/可見光圖像融合算法研究[D].南京:南京理工大學(xué),2013.

        [3] 陳武,靳海兵,吳政,等.基于方向?qū)?shù)的多光譜圖像快速融合新算法[J].計(jì)算機(jī)仿真,2009,26(10):257?260.

        [4] 曹喆.一種區(qū)域特性的小波圖像融合新算法[J].計(jì)算機(jī)工程與應(yīng)用,2011,47(26):213?215.

        [5] 楊揚(yáng).基于多尺度分析的圖像融合算法研究[D].長春:中國科學(xué)院大學(xué),2013.

        [6] LI Hua?feng, CHAI Yi, LI Zhao?fei. Multi?focus image fusion based on nonsubsampled contourlet transform and focused regions detection [J]. Optik?International Journal for Light and Electron Optics, 2013, 124(1): 40?51.

        [7] CANDES Emmanuel, DEMANET Laurent, DONOHO David, et al. Fast discrete Curvelet transforms [J]. Society for Industrial and Applied Mathematics, 2006, 5(3): 861?899.

        [8] 冀曉濤.基于Curvelet變換的紅外與可見光圖像融合研究[D].西安:西安電子科技大學(xué),2012.

        [9] 孫巖.基于多分辨率分析的多傳感器圖像融合算法研究[D].哈爾濱:哈爾濱工程大學(xué),2012.

        [10] LI Qing?ping, DU Jun?ping, SONG Fu?zhao, et al. Region?based multi?focus image fusion using the local spatial frequency [C]// 2013 25th Control and Decision Conference. Guiyang, China: CCDC, 2013: 3792?3796.

        [11] 玄立超.一種新的基于Curvelet變換的遙感圖像融合算法[J].計(jì)算機(jī)技術(shù)與發(fā)展,2009,19(5):119?122.

        [12] 韓瑜,蔡云澤,曾清.圖像融合的客觀質(zhì)量評(píng)估[J].指揮控制與仿真,2013,35(4):1?6.

        [13] 李俊山,楊威,張雄美.紅外圖像處理、分析與融合[M].北京:科學(xué)出版社,2009.

        [14] 李華鋒.多聚焦圖像像素級(jí)融合方法研究[D].重慶:重慶大學(xué),2012.

        [15] 潘瑜.基于統(tǒng)計(jì)相關(guān)分析和視覺特性的圖像信息融合方法及其應(yīng)用研究[D].南京:南京理工大學(xué),2012.

        最新精品国偷自产在线婷婷| 一区二区三区四区在线观看日本 | 竹菊影视欧美日韩一区二区三区四区五区 | 国产黄色三级一区二区三区四区| 亚洲av无码一区二区三区天堂| 色吊丝中文字幕| 又粗又大又黄又爽的免费视频| 亚洲成AV人片在一线观看| 国产一区二区在三区在线观看| 亚洲一区二区三区高清在线观看| 婷婷综合另类小说色区| 亚洲第一无码xxxxxx| 日本高清中文字幕一区二区三区| 亚洲二区三区在线播放| 日本刺激视频一区二区| 精品国产综合区久久久久久 | 蜜臀色欲av在线播放国产日韩| 无码专区久久综合久中文字幕| 爱v天堂在线观看| 日韩中文字幕在线丰满| 国产 一二三四五六| 激情影院内射美女| 在线观看视频亚洲| 亚洲精彩视频一区二区| 激情五月天在线观看视频| 国产亚洲成av人片在线观看| 天天躁狠狠躁狠狠躁夜夜躁| 乱人伦中文字幕在线不卡网站| 91成人自拍视频网站| 亚洲高清中文字幕视频| 中文字幕人妻中文| 亚洲AⅤ无码日韩AV中文AV伦| 日韩精品一二区在线视频| 一区二区三区午夜视频在线 | 人妻av鲁丝一区二区三区| 久久久久亚洲av成人网址| 亚洲一区二区三区乱码在线| 久久精品女人av一区二区| 久久精品国产亚洲av无码娇色 | 中文有码人妻字幕在线| 麻豆精品国产精华液好用吗|