亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于可協(xié)調(diào)經(jīng)驗小波變換的多聚焦圖像融合

        2020-01-17 01:45:26王小春
        計算機工程與應(yīng)用 2020年2期
        關(guān)鍵詞:融合評價方法

        宮 睿,王小春

        北京林業(yè)大學(xué) 理學(xué)院,北京100083

        1 引言

        由于光學(xué)透鏡的局限性,大部分相機的景深是有限的,使得只有在景深范圍之內(nèi)的物體是聚焦的,可以清晰成像,而景深范圍之外的場景是散焦的,其成像會存在或多或少的視覺模糊。由此可知,通過拍攝直接得到一幅全聚焦圖像是十分困難的。然而,為了準(zhǔn)確分析和理解,人們往往希望獲得場景中所有目標(biāo)對象都清晰的圖像,多聚焦圖像融合是實現(xiàn)此目標(biāo)的有效方法之一。多聚焦圖像融合就是從多個部分聚焦圖像中提取聚焦區(qū)域,并按一定的融合算法生成所有對象都聚焦的合成圖像的過程。多聚焦圖像融合是圖像融合的一個重要分支[1-2]。

        小波變換[3]因其良好的時頻局部性和多分辨性,已成為非平穩(wěn)信號分析的常用工具,被廣泛應(yīng)用于包括圖像融合[4-5]在內(nèi)的圖像處理之中?;谛〔ㄗ儞Q的多聚焦圖像融合算法主要由三步組成:首先,在選定小波基和確定分解層數(shù)N 的前提下,對待融合的兩幅圖像分別進行小波變換;然后,采用合適的融合規(guī)則對高低頻小波系數(shù)分別進行融合,得到融合小波系數(shù);最后,基于融合小波系數(shù),用小波逆變換進行重構(gòu),得到最終融合圖像。但是傳統(tǒng)的小波變換依賴于規(guī)定的尺度細(xì)分方案和固定的小波函數(shù)和尺度函數(shù),不是完全自適應(yīng)的信號分析工具。在小波對圖像的分解過程中,濾波器組是事先選定的,與圖像的特性無關(guān)。顯然,固定不變的濾波器組不可能對任何圖像都達到最優(yōu)表示。

        Huang 等人[6]1998 年提出的經(jīng)驗?zāi)B(tài)分解(EMD)算法是一種自適應(yīng)的信號分析方法,其核心思想是在一定的迭代和篩選過程中,檢測出代表信號的主要“模式”。由于EMD能適應(yīng)性地分離出信號的高低頻分量,近十多年來受到了學(xué)者們的廣泛關(guān)注,成為非線性和非平穩(wěn)信號分析的有效工具。然而,EMD 算法仍然存在一些明顯的缺陷,其一,分解結(jié)果中容易出現(xiàn)虛假模態(tài)和產(chǎn)生混頻現(xiàn)象;其二,EMD 是一種算法式的方法,缺乏嚴(yán)格的數(shù)學(xué)理論基礎(chǔ),且難以用數(shù)學(xué)模型進行描述,導(dǎo)致人們很難真正理解EMD分解提供的內(nèi)容。

        為了改進EMD方法,Gilles結(jié)合小波分析的理論框架和時頻平面重新劃分的思想,于2013 年提出了一種稱為經(jīng)驗小波變換(Empirical Wavelet Transform,EWT)的自適應(yīng)信號分析工具[7]。該方法首先根據(jù)信號的傅里葉譜的支撐,對傅里葉譜進行自適應(yīng)劃分;然后根據(jù)Meyer小波的構(gòu)造方式,在頻域定義經(jīng)驗尺度函數(shù)和經(jīng)驗小波函數(shù);最后利用相應(yīng)的濾波器對信號進行濾波,實現(xiàn)不同調(diào)幅-調(diào)頻成分AM-FM的提取。EWT與傳統(tǒng)小波變換有著本質(zhì)的不同,傳統(tǒng)小波變換的分解頻段是固定的,引入的尺度因子與信號的頻率沒有直接聯(lián)系。而EWT 對時頻平面的劃分是自適應(yīng)的,其中的尺度因子是根據(jù)研究信號的信息經(jīng)驗檢測而得到的。利用EWT 可以實現(xiàn)信號在任意頻段的分析。至今,EWT 已被用于機械故障診斷[8]、信號去噪[9]等方面。EWT 作為一種新型的信號處理方法,其作用和意義仍在不斷探索之中。

        針對多聚焦圖像融合問題,本文首次將經(jīng)驗小波變換引入其中,為了保證多幅源圖像具有相同的分解層數(shù),以及對應(yīng)子帶具有相匹配的特性,以滿足圖像融合對圖像多尺度分解的要求,本文在EWT的基礎(chǔ)上,提出了一種自適應(yīng)可協(xié)調(diào)經(jīng)驗小波變換,并根據(jù)多聚焦圖像在該變換下的低高頻子帶特性構(gòu)造合適的融合規(guī)則,實現(xiàn)多聚焦圖像融合。

        2 經(jīng)驗小波變換

        EWT 是一種具有嚴(yán)格理論支撐,且包含經(jīng)驗信息的自適應(yīng)小波分析工具。它不依賴于預(yù)先指定的基函數(shù),而是根據(jù)信號本身的特性自適應(yīng)地生成一組在頻域內(nèi)具有緊支撐的正交小波基函數(shù)。

        經(jīng)驗小波變換的主要思想是:首先根據(jù)信號的傅里葉譜的特性,進行頻譜分割;然后在被分割的頻譜上生成帶通濾波器,形成濾波器組。最后使用濾波器組對信號進行濾波,得到表征信號內(nèi)在模式的各成分分量。一維經(jīng)驗小波變換的算法[7](簡稱為算法A)步驟具體如下:

        (1)獲取信號的時域離散表示f(n),其中,n 為自變量,其取值為正整數(shù);設(shè)置譜帶數(shù)量N ,即模態(tài)分量個數(shù)。

        (2)將頻率范圍歸一化至區(qū)間[0,π],對信號f(n)進行快速傅里葉變換(FFT),得到信號頻譜F(ω),其中ω為頻率,取值區(qū)間為[0,π]。

        (3)尋找信號頻譜F(ω)的N 個局部極大值點,確定N 個區(qū)分模態(tài)分量的顯著值,并將其從大到小排列。

        (4)計算相鄰兩個局部極大值點之間的中間頻率點ωm(m=1,2,…,N-1),并將其作為頻譜分界點。

        (5)用N+1 個邊界點ωm(其中ω0=0,ωN=π)將[0,π]劃分成N 個區(qū)間Λn=[ωn-1,ωn],根據(jù)Meyer 小波的構(gòu)造方式,定義經(jīng)驗尺度函數(shù)和經(jīng)驗小波函數(shù),得到濾波器組

        (6)對信號f(n)使用濾波器組中的濾波器進行濾波,得到信號的N+1 個時域表示。

        步驟(5)中的經(jīng)驗尺度函數(shù)和經(jīng)驗小波函數(shù)分別由以下公式(1)和(2)構(gòu)造,其中參數(shù)γ 的取值范圍和函數(shù)β(x)分別由公式(3)和(4)給出:

        一維經(jīng)驗小波變換可以依據(jù)張量積的方式擴展應(yīng)用到二維圖像信號上,具體步驟如下:

        (2)對圖像f 的每一列進行FFT,得到頻譜f(ω,j ),其中,Ncol為圖像的列數(shù),j 為列標(biāo)。并求得所有列的傅里葉頻譜均值

        (5)使用行濾波器組中的濾波器對圖像按行進行濾波,得到NR+1 個中間結(jié)果。

        (6)使用列濾波器組中的濾波器對NR+1 個中間結(jié)果分別按列進行濾波,得到最終( NR+1) ×( NC+1)個子帶圖像。

        3 基于C-EWT的圖像融合算法

        3.1 可協(xié)調(diào)經(jīng)驗小波變換

        EWT 所用濾波組是根據(jù)信號自適應(yīng)生成的,一般來說,不同圖像的EWT 分解結(jié)果具有不同的子帶圖像個數(shù)。即使子帶圖像個數(shù)相同,其頻譜區(qū)間的劃分也未必完全一致。然而,圖像融合需要對匹配的子帶圖像逐一進行處理,若直接利用EWT進行分解,會因不同頻率模式的混合導(dǎo)致融合結(jié)果中出現(xiàn)頻譜混疊或頻帶缺失的現(xiàn)象。

        為了解決上述問題,本文提出了一種適合于圖像融合算法的可協(xié)調(diào)經(jīng)驗小波變換(Coordinative EWT,CEWT)。C-EWT 同時利用兩個及以上源圖像生成濾波器,以保證待融合圖像具有相同的譜帶數(shù)量和頻譜劃分區(qū)間。下面以兩幅待融合圖像為例給出C-EWT算法的具體步驟如下:

        (1)對兩幅圖像的每一行i 進行快速傅里葉變換,得到頻譜,計算兩幅圖像所有行傅里葉頻譜的均值,其中Nrow為單幅圖像的行數(shù)。

        (2)對Frow執(zhí)行一維經(jīng)驗小波生成算法,即算法A 中的步驟(3)~(5),得到一個行濾波器組,,其中NR是行濾波器組中經(jīng)驗小波函數(shù)的個數(shù)。

        (3)對兩幅圖像的各列執(zhí)行上面(1)、(2)步驟中類似的操作,得到所有列傅里葉頻譜的均值,并由此得到一個列濾波器組,其中Ncol為單幅圖像的列數(shù),NC是列濾波器組中經(jīng)驗小波函數(shù)的個數(shù)。

        圖1 不同聚焦的“Clock”圖像及其C-EWT分解結(jié)果

        為了驗證C-EWT 分解的有效性,對將要參加融合實驗的兩幅多聚焦圖像(如圖1(a)、(b)所示)進行了CEWT 分解。圖1(c)和(d)分別表示圖1(a)和(b)的CEWT分解結(jié)果,其中,各圖像的行、列譜帶數(shù)均設(shè)置為3。為了方便查看,圖1(c)和(d)中的每一子圖的尺寸均被縮小,其真實尺寸與源圖像1(a)、(b)一致。比較圖1(c)和(d)可以發(fā)現(xiàn),最下面一行右邊的兩個對應(yīng)子圖差別較大,很明顯,聚焦部分的細(xì)節(jié)更加豐富,說明C-EWT能很好地識別圖像的聚焦部分。其他對應(yīng)子圖像差別很小,體現(xiàn)了兩幅源圖像整體輪廓信息的相似性。實驗結(jié)果表明C-EWT能很好地描述多聚焦圖像的特性。

        3.2 本文融合算法

        基于C-EWT 分解方法,本文提出了一種新的圖像融合算法——基于C-EWT 的多聚焦圖像融合算法,該算法的框架如圖2 所示。算法涉及的待融合圖像均已完全配準(zhǔn)。具體步驟如下:

        步驟1 對兩幅源圖像A,B 分別進行C-EWT分解,得到低頻子帶圖像AL,BL,和多個高頻子帶圖像AHi,BHi,即:

        其中,n 為高頻子帶個數(shù)。

        步驟2 使用高頻融合規(guī)則分別對第i(i=1,2,…,n)個高頻子帶AHi和BHi進行融合,使用低頻融合規(guī)則對低頻子帶AL和BL進行融合。

        步驟3 對步驟2 得到的各分量的融合結(jié)果進行CEWT逆變換,即可得到最終的融合圖像。

        圖2 基于C-EWT的圖像融合框架

        3.3 融合規(guī)則

        在圖像融合算法中,融合規(guī)則的選取也是另一個至關(guān)重要的步驟。一般情況下,圖像多尺度分解下的高頻分量和低頻分量具有不同的圖像特征。根據(jù)C-EWT分解的特點,本文對C-EWT 分解下的低頻分量和高頻分量分別設(shè)計融合規(guī)則。

        3.3.1 低頻分量融合規(guī)則

        C-EWT 的低頻分量,反映了源圖像的概貌特征及總體灰度值分布情況。為了能夠較好地保存源圖像的概貌特征和總體灰度信息,本文對低頻分量AL,BL采用基于改進Laplacian 能量和(SML)[10]的閾值匹配選擇與加權(quán)的融合規(guī)則。

        圖像f 中任意一點(x,y)處的改進Laplacian 能量和定義為:

        其中,M×N 代表局部鄰域窗口的大小,M 和N 一般為奇數(shù)(本文取M=N=3);MLf(x,y)代表圖像f 在點(x,y)處的改進Laplacian能量,定義為:

        低頻分量的融合規(guī)則計算如下:

        (1)根據(jù)式(5),分別計算AL和BL在中心像素(x,y)處的SML:

        (2)由式(7)、(8)定義AL和BL在中心像素(x,y)處的SML匹配度(x,y),計算如下:

        其中:

        (3)確定融合圖像F 的低頻分量FL。定義一個匹配度閾值T1(一般取值范圍為0.5~1,本文取0.7),如果<T1,則選用SML 最大的系數(shù)作為融合系數(shù),即:

        否則,執(zhí)行加權(quán)規(guī)則:

        3.3.2 高頻分量融合規(guī)則

        C-EWT 的高頻分量包含了源圖像的細(xì)節(jié)信息,如邊緣、紋理、線條等,因此合理選擇高頻融合規(guī)則對保持源圖像的細(xì)節(jié)特征極其重要。目前多數(shù)高頻分量融合都采用絕對值取大的融合規(guī)則,此方法的不足之處在于沒有考慮像素之間的相關(guān)性,容易導(dǎo)致細(xì)節(jié)信息損失和圖像扭曲。為了改進融合效果,本文采用局部Log-Gabor能量取大的融合規(guī)則對高頻分量進行融合,這種方法符合人眼視覺對像素局部區(qū)域內(nèi)的整體突變特征較為敏感的特性[11]。

        Gabor濾波器[12]是借鑒生理學(xué)研究中方向可選神經(jīng)元的計算機制提出的一種有效的紋理特征提取算子。它以Gabor 函數(shù)作為小波基,既具有尺度不變性,又能有效地提取圖像特征。Log-Gabor 濾波器[13]是在Gabor濾波器的基礎(chǔ)上提出的,該濾波器的尺度可以隨意變化,彌補了Gabor 濾波器對高頻分量表達不足的缺陷,同時能夠大幅減少信息冗余。

        圖像f 中任一點(x,y)處的局部Log-Gabor 能量[14]定義為:

        其中,M×N 代表局部鄰域窗口的大小,M 和N 一般為奇數(shù)(本文取M=N=3);Tf(x,y)表示圖像f 在(x,y)處的Log-Gabor能量值。

        由于Log-Gabor 能量能夠反映圖像的局部紋理特征,而多聚焦圖像的高頻分量在聚焦區(qū)域擁有比散焦區(qū)域更多的細(xì)節(jié)信息,因此,對高頻分量采用表示紋理特征的Log-Gabor 能量取大融合規(guī)則能有效地提取圖像的聚焦區(qū)域。

        高頻分量AHi和BHi(i=1,2,…,n)的融合規(guī)則按照以下步驟實現(xiàn):

        (1)根據(jù)式(12),分別計算AHi和BHi在像素(x,y)處的Log-Gabor能量:

        (2)確定融合圖像F 的高頻分量FHi。采用Log-Gabor能量最大的系數(shù)作為融合系數(shù),即:

        4 融合結(jié)果及分析

        4.1 實驗設(shè)置

        為了驗證本文算法的有效性,設(shè)計了大量的比較實驗,將其與基于小波變換的方法(DWT)、基于Contourlet變換的方法(CT)、文獻[15]中的基于人眼感知特性的NSCT域方法(簡記為文獻[15])、文獻[16]中的基于自相似性和深度信息的空域方法(簡記為文獻[16])、文獻[17]中的基于PCNN的NSCT域方法(簡記為文獻[17])以及文獻[18]中的基于多尺度變換和稀疏表示的方法(簡記為文獻[18])等進行比較。其中,DWT 的基函數(shù)為Haar小波,分解層數(shù)為3層;CT的分解層數(shù)及各層方向數(shù)為[1,4,8,16],LP 和DFB 均采用pkva 濾波器;DWT 算法和CT 算法中采用經(jīng)典的低頻加權(quán)平均、高頻取大的融合規(guī)則;其余四種對比算法的參數(shù)設(shè)置與融合規(guī)則均與原文獻一致。

        選用4組已配準(zhǔn)的多聚焦圖像進行仿真對比實驗,如圖3 所示。其中,前三組為常用標(biāo)準(zhǔn)測試圖像,最后一組(wheel)為通過人工在不同區(qū)域內(nèi)進行Gaussian局部區(qū)域模糊得到的圖像。圖3(a)中右側(cè)大鐘表為聚焦區(qū)域,左側(cè)小鐘表處于離焦?fàn)顟B(tài),而圖3(b)正好相反,聚焦區(qū)域為左側(cè)小鐘表。圖3(c)中,遠(yuǎn)處部分為聚焦區(qū)域,包括人、電腦等,而圖3(d)的聚焦區(qū)域則為近處的鐘表,其余部分都較模糊。圖3(e)~(h)中各自的聚焦區(qū)域已在圖中說明。

        圖3 四組待融合多聚焦圖像

        實驗所用計算機為:64位Win7操作系統(tǒng),內(nèi)存8 GB,Intel?CoreTMi5-4590 CPU @3.30 GHz。所用編程環(huán)境為Matlab R2016a。

        4.2 實驗結(jié)果分析

        圖4 不同方法對多聚焦“clock”(圖3(a)(b))的融合結(jié)果(Group1)

        圖5 不同方法對多聚焦“l(fā)ab”(圖3(c)(d))的融合結(jié)果(Group2)

        圖6 不同方法對多聚焦“pepsi”(圖3(e)(f))的融合結(jié)果(Group3)

        圖7 不同方法對多聚焦“wheel”(圖3(g)(h))的融合結(jié)果(Group4)

        圖4~7分別給出了圖3中四組多聚焦圖像的融合結(jié)果。為了方便,記圖4、圖5、圖6、圖7所示融合結(jié)果分別為Group1、Group2、Group3、Group4??梢钥闯觯叻N方法均能有效利用待融合圖像之間的互補信息,融合圖像一定程度上包含了各聚焦區(qū)域的細(xì)節(jié)信息。但各方法的融合結(jié)果具有一定的視覺差異。相比于其他六種方法,本文算法有更好的視覺效果。對比圖4(a)~(h)可以看出,基于DWT、CT及文獻[18]的方法所得融合結(jié)果中有虛影模糊現(xiàn)象(如左側(cè)鐘表的邊緣處);文獻[15]方法的結(jié)果在左上角有條紋狀噪聲;而本文算法所得融合結(jié)果既無條紋狀噪聲也無虛影模糊現(xiàn)象。對比圖5(a)~(h)同樣可以看出,基于DWT、CT及文獻[15]的方法所得融合結(jié)果中也存在虛影現(xiàn)象(如人物頭部周圍),文獻[17]方法的結(jié)果中人物頭部存在白色噪聲,文獻[18]方法的結(jié)果中人物周圍存在光暈現(xiàn)象。對比圖6(a)~(h)可以看出,基于DWT、CT及文獻[15]的方法所得融合結(jié)果在左側(cè)大寫字母P 的邊緣較為模糊,且存在虛影。對比圖7(a)~(h)可以看出,基于DWT、CT的方法所得融合結(jié)果在白色背景區(qū)域存在模糊噪聲點現(xiàn)象,文獻[18]結(jié)果的中上部分靠近車把附近有白色亮斑出現(xiàn)。而本文算法所得融合結(jié)果并未出現(xiàn)上述虛影和噪聲現(xiàn)象,并有效地保留了源圖像中的聚焦部分和細(xì)節(jié)信息,整體視覺效果最佳。

        為了進一步說明本文算法的有效性,選取六種常用的客觀圖像質(zhì)量評價指標(biāo)對各算法的融合結(jié)果進行定量分析,它們分別是信息熵(Information Entropy,IE)、空間頻率(Spatial Frequency,SF)、標(biāo)準(zhǔn)差(Standard Deviation,SD)、平均梯度(Average Gradient,AG)、互信息[19](Mutual Information,MI)和邊緣保持度[20](edge preserving degree,QAB/F)。

        信息熵IE反映了圖像包含信息的多少,其定義為:

        其中,L 為灰度級數(shù),pi表示灰度為i 的像素數(shù)占圖像總像素數(shù)的比值。

        標(biāo)準(zhǔn)差SD體現(xiàn)了圖像灰度相對于整體平均灰度的離散分布情況,其定義為:

        其中,F(xiàn)(i,j)為融合圖像,大小為M×N ,μ 為圖像像素的均值。

        平均梯度AG刻畫了圖像邊緣細(xì)節(jié)的保持程度,定義為:

        其中,ΔFx,ΔFy分別表示圖像在x,y 方向上的差分。

        空間頻率SF是一個只對像素灰度值階躍敏感的圖像評價指標(biāo),其大小反映了圖像灰度的變化快慢,其定義為:

        其中,RF,CF 分別表示圖像的行頻率和列頻率,計算如下:

        互信息MI的大小衡量了融合圖像與兩幅源圖像的相關(guān)程度,其定義為:

        其中,pX(x)表示圖像X 的概率密度函數(shù),pXF(x,f)表示源圖像X 與融合圖像F 的聯(lián)合密度函數(shù)。

        邊緣保持度QAB/F用于衡量由源圖像轉(zhuǎn)移至融合圖像中的邊緣細(xì)節(jié)信息的多少,定義為:

        其中,ωX(i,j)表示圖像X 的邊緣強度,(i,j)和(i,j)分別表示融合圖像F 相對于源圖像X 的邊緣強度和方向保留度。上述指標(biāo)對各算法的評價結(jié)果如表1~4所示。

        從表1~4 可以看出,在四組實驗結(jié)果中,本文算法的六個客觀指標(biāo)值均處于中間位置。同時,沒有一種算法在所有指標(biāo)上均取得最大值,甚至連標(biāo)準(zhǔn)圖像也只在極少幾個指標(biāo)上取得最優(yōu)。另外,除了標(biāo)準(zhǔn)圖像的空間頻率在四組實驗中都取得最大以外,其他各指標(biāo)在四個實驗中的最大值都不是由同一個算法取得。以上分析表明單一的客觀評價指標(biāo)很難直接區(qū)分融合算法的優(yōu)劣。通過進一步分析,發(fā)現(xiàn)評價指標(biāo)的優(yōu)劣并不能完全反映融合圖像視覺效果的好壞。例如,在Group1中,文獻[15]方法雖然在信息熵和平均梯度上取得了最大值,但其融合結(jié)果(如圖4(d)所示)在左上角有條紋狀噪聲;文獻[18]方法的標(biāo)準(zhǔn)差雖然取得了最大值,但其融合結(jié)果(如圖4(g)所示)在左側(cè)鐘表的邊緣處有明顯的虛影模糊現(xiàn)象。在Group2中,CT方法雖然在平均梯度上取得了最大值,但其融合結(jié)果(如圖5(c)所示)在人物頭部周圍存在光暈現(xiàn)象;文獻[18]方法的信息熵雖然取得最大值,但其融合結(jié)果在人物頭部周圍存在明顯虛影(如圖5(g)所示)。同樣的結(jié)果也出現(xiàn)在Group3、Group4中。

        表1 Group1客觀評價指標(biāo)

        表2 Group2客觀評價指標(biāo)

        表3 Group3客觀評價指標(biāo)

        表4 Group4客觀評價指標(biāo)

        由上面的分析可知,這些評價指標(biāo)雖然常被用來對融合結(jié)果的質(zhì)量進行定量分析,但是其數(shù)值的大小并不能十分準(zhǔn)確地反映融合結(jié)果的優(yōu)劣。其原因在于,第一,圖像融合領(lǐng)域目前并沒有公認(rèn)的客觀評價指標(biāo),想要定義一個符合人眼視覺特征的無參客觀評價指標(biāo)依舊是一件很困難的事情[21];第二,客觀評價指標(biāo)在很多情況下會與主觀評價相違背,無參評價指標(biāo)所評估的結(jié)果有時會與人眼視覺感知不符[22],比如:一些視覺感知上有明顯模糊、虛影、顏色失真的圖像,其客觀評價指標(biāo)反而較高[19-20]。

        為了充分利用以上6種客觀評價指標(biāo),減少單一評價指標(biāo)的誤判,本文以標(biāo)準(zhǔn)圖像為參照定義了一種新的融合圖像評價指標(biāo),稱為融合效果偏差(Fusion Effect Deviation,F(xiàn)ED)。相對于本文所選6 種評價指標(biāo),第i種算法的融合效果偏差,記為FEDi,定義如下:

        其中,i=1,2,…,7 分別表示對比實驗中的7 種融合算法,表2中第一列從”DWT”到”本文算法”依次為第1種至第7種算法。 j=1,2,…,6 分別代表6種客觀評價指標(biāo),表2 中第二行從”信息熵”到”邊緣保持度”依次為第1個至第6個評價指標(biāo);FEDi,j表示第i 種算法相對于第j 種指標(biāo)的融合效果偏差;st 代表標(biāo)準(zhǔn)融合圖像;ei,j表示第i 種算法所得融合結(jié)果的第j 個評價指標(biāo)值,est,j表示標(biāo)準(zhǔn)圖像的第j 個評價指標(biāo)值。顯然,F(xiàn)ED 值越小,其融合圖像與標(biāo)準(zhǔn)圖像越接近,融合效果越好。

        為了更直觀地區(qū)分算法優(yōu)劣,對于兩組圖像基于多種算法融合結(jié)果的客觀評價指標(biāo)分別計算FEDi,j,并以堆積條形圖的方式展示,如圖8所示。

        由圖8可以看出,本文算法具有最小的融合效果偏差FED。這說明本文算法在融合聚焦區(qū)域、保留邊緣和細(xì)節(jié)信息、保持與源圖像相關(guān)程度的同時,能夠更準(zhǔn)確地完成融合任務(wù),是一種有效的多聚焦圖像融合算法。

        圖8 融合效果偏差的堆積條形圖

        表5 列出了不同融合算法的平均耗時。對比發(fā)現(xiàn)本文所提算法的效率處于中等,比文獻[15]、文獻[16]和文獻[17]算法的時間開銷小,但比DWT、CT以及文獻[18]算法的運行時間長,其原因可能是融合規(guī)則太復(fù)雜。然而,雖然本文算法比DWT、CT以及文獻[18]算法的復(fù)雜度高,但有更好的融合效果和客觀評價指標(biāo)。

        5 結(jié)語

        本文針對多聚焦圖像融合問題,提出了一種自適應(yīng)可協(xié)調(diào)經(jīng)驗小波變換,使其適用于圖像間相匹配的多層次分解表示。并將其作用于多聚焦圖像,通過對C-EWT分解所得的高頻分量和低頻分量分別設(shè)計合適的融合規(guī)則,得到了一種新的多聚焦圖像融合算法。實驗結(jié)果表明,本文所提算法無論是主觀視覺效果還是客觀指標(biāo)評判,都取得了好的結(jié)果,是一種簡單有效的融合方法。本文還利用多種客觀評價指標(biāo)構(gòu)造了一種新的評價指標(biāo)——融合效果偏差FED,該指標(biāo)能較好地對圖像融合效果進行評價,本文方法在四組實驗中均取得了最優(yōu)的FED 值。將EWT 方法應(yīng)用于多聚焦圖像融合中,不僅增加了圖像融合的手段,而且也擴展了EWT 的應(yīng)用領(lǐng)域,對EWT 自身的發(fā)展也將具有一定的促進作用。如何對信號的Fourier譜自適應(yīng)地進行分割是EWT的關(guān)鍵之一,下一步工作將根據(jù)信號的特點探索更優(yōu)的Fourier譜自適應(yīng)分割方法,得到改進的EWT分解,同時考慮將本文算法拓展至彩色圖像融合領(lǐng)域。

        表5 不同融合算法的耗時比較

        猜你喜歡
        融合評價方法
        村企黨建聯(lián)建融合共贏
        SBR改性瀝青的穩(wěn)定性評價
        石油瀝青(2021年4期)2021-10-14 08:50:44
        融合菜
        從創(chuàng)新出發(fā),與高考數(shù)列相遇、融合
        《融合》
        可能是方法不對
        用對方法才能瘦
        Coco薇(2016年2期)2016-03-22 02:42:52
        四大方法 教你不再“坐以待病”!
        Coco薇(2015年1期)2015-08-13 02:47:34
        捕魚
        基于Moodle的學(xué)習(xí)評價
        精品人妻码一区二区三区剧情| 欧美亚洲尤物久久综合精品| 亚洲成人色黄网站久久| av日韩高清一区二区| 亚洲加勒比久久88色综合| 亚洲熟妇无码av不卡在线播放| 涩涩国产在线不卡无码| av免费一区二区久久| 西西午夜无码大胆啪啪国模 | 精品亚洲aⅴ在线观看| 国产黄片一区视频在线观看| 亚洲av高清一区二区三区| aⅴ精品无码无卡在线观看| 麻豆精品久久久久久久99蜜桃| 亚洲日韩AV无码美腿丝袜| 全亚洲最大的私人影剧院在线看 | 欧美金发尤物大战黑人| 亚洲综合色区无码专区| 国产自拍伦理在线观看| 亚洲精品无码av人在线观看国产| 全免费a级毛片免费看网站| 成 人 网 站 在线 看 免费| 性感的小蜜桃在线观看| 久久偷看各类wc女厕嘘嘘偷窃| 少妇厨房愉情理伦片免费 | 亚洲AV日韩AV高潮喷潮无码 | 国模gogo无码人体啪啪| 日韩精品一区二区三区免费视频| 国内视频偷拍一区,二区,三区| 青青操视频手机在线免费观看| 亚洲无线一二三四区手机| 亚洲国产区男人本色| 元码人妻精品一区二区三区9| 日本一区二区精品高清 | 久久97精品久久久久久久不卡| 日韩最新av一区二区| 最新国产不卡在线视频| 人妻夜夜爽天天爽一区| 久久青青草原国产精品最新片| 国产精品自拍午夜伦理福利| а√天堂资源官网在线资源|